💳 Trustee Plus: розраховуйся криптою за допомогою платіжної картки. Ліміт: 50 000 євро 🚀

Зловмисники у dark web все частіше використовують ШІ для створення відверто сексуальних зображень дітей, не оминають і «зірок»

Групи безпеки дітей, які відстежують діяльність зловмисників, які спілкуються на форумах темної мережі, кажуть, що все частіше знаходять розмови про створення нових зображень на основі матеріалів сексуального насильства над дітьми, які раніше пережили насильство (CSAM).

Залишити коментар
Зловмисники у dark web все частіше використовують ШІ для створення відверто сексуальних зображень дітей, не оминають і «зірок»

Групи безпеки дітей, які відстежують діяльність зловмисників, які спілкуються на форумах темної мережі, кажуть, що все частіше знаходять розмови про створення нових зображень на основі матеріалів сексуального насильства над дітьми, які раніше пережили насильство (CSAM).

Зараз жертви насильства можуть бути дорослими, але, за словами експертів та опитаних постраждалих, за допомогою штучного інтелекту можуть збільшуватись кількість сексуального контенту, який зображує їх дітьми. Про це пише The Guardian. Жертви побоюються, що їхні зображення, які циркулюють в інтернеті або їхніх спільнотах, можуть загрожувати їхньому життю та кар’єрі, які вони побудували вже після насильства.

Звіт Стенфордського університету, опублікований у грудні 2023 року, показав, що сотні відомих зображень сексуального насильства над дітьми були включені в LAION-5B (база даних, відкритий каталог із понад 5 мільярдів зображень, які кожен може використовувати для навчання моделей ШІ) і зараз використовуються для навчання популярних моделей генерації зображень штучного інтелекту для створення CSAM.

The Guardian наводить кілька уривків бесід у чаті темної мережі, де імена жертв були відредаговані з міркувань безпеки. Обговорення відбуваються в доброзичливому тоні, і членам форуму пропонується створювати нові зображення за допомогою штучного інтелекту, щоб ділитися ними в групах. Багато хто сказав, що вони були б в захваті від перспективи появи нового матеріалу, створеного за допомогою штучного інтелекту, інших це не зацікавило, оскільки зображення не зображують справжнього насильства.

В одному з повідомлень від листопада 2023 року йдеться: «Чи не могли б ви змусити штучний інтелект відтворити прекрасні образи колишніх зірок КП [дитячого порно] [відредаговано ім’я жертви] та [відредаговано ім’я жертви] і отримати їх у деяких сценах — наприклад [відредаговано ім’я жертви] у традиційній католицькій формі школярки в початковій школі та [відредаговано ім’я жертви] в костюмі вболівальниці в молодшій школі?»

В оцінці Національного центру зниклих і експлуатованих дітей у 2020 році Meta повідомила, що лише шість відео становлять половину всіх матеріалів про сексуальне насильство над дітьми, які публікуються та повторно публікуються у Facebook та Instagram. Приблизно 90% образливих матеріалів, які Meta відслідковувала протягом двох місяців, були такими ж, як вміст, про який повідомлялося раніше.

Справжні голлівудські знаменитості також є потенційними мішенями для віктимізації за допомогою CSAM, створеного штучним інтелектом. The Guardian проаналізував теми чатів у дарк-мережі, в яких обговорювали бажання хижаків, які володіють штучним інтелектом, створювати образи жорстокого поводження зі знаменитостями, включно з ідолами підлітків 1990-х років, які тепер стали дорослими.

Оскільки темні веббраузери дають змогу користувачам бути анонімними або неможливими для відстеження, у груп безпеки дітей є небагато способів вимагати видалення цих зображень або повідомляти про користувачів правоохоронним органам. Правозахисники закликають прийняти законодавство, яке виходить за рамки криміналізації, щоб запобігти створенню CSAM, ШІ та іншим чином.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Британцю який генерував непристойні зображення з дітьми заборонили використовувати ШІ на 5 років
Британцю, який генерував непристойні зображення з дітьми, заборонили використовувати ШІ на 5 років
По темi
Британцю, який генерував непристойні зображення з дітьми, заборонили використовувати ШІ на 5 років
У США затримали програміста за створення дитячого порно за допомогою ШІ. Це перший подібний випадок в країні
У США затримали програміста за створення дитячого порно за допомогою ШІ. Це перший подібний випадок в країні
По темi
У США затримали програміста за створення дитячого порно за допомогою ШІ. Це перший подібний випадок в країні
Айтівець який знімався в шоу «Вагітна у 16» за сумісництвом працював викладачем у дитячій IT-школи «Робокод». Після виходу шоу його звільнили
Айтівець, який знімався в шоу «Вагітна у 16», за сумісництвом працював викладачем у дитячій IT-школи «Робокод». Після виходу шоу його звільнили
По темi
Айтівець, який знімався в шоу «Вагітна у 16», за сумісництвом працював викладачем у дитячій IT-школи «Робокод». Після виходу шоу його звільнили
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Мешканець Кременчука отримав 3 роки за те, що знімав порно з дружиною та викладав їх в інтернет
Мешканець Кременчука отримав 3 роки за те, що знімав порно з дружиною та викладав їх в інтернет
Мешканець Кременчука отримав 3 роки за те, що знімав порно з дружиною та викладав їх в інтернет
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.