🚀💳 Trustee Plus - більше ніж криптогаманець з європейською платіжною карткою. Спробуй 👉

Норвежець вимагає в OpenAI видалити «галюцинації» ChatGPT про нього — чатбот вигадав, що чоловік убив власних дітей

Арве Х’ялмар Хольмен вирішив подивитися, яку інформацію може надати ChatGPT від OpenAI, якщо користувач здійснить пошук за його ім’ям. Він був шокований, коли ChatGPT видав фейкову інформацію про те, що він був засуджений до 21 року ув’язнення як «злочинець, який вбив двох своїх дітей і намагався вбити свого третього сина».

Залишити коментар
Норвежець вимагає в OpenAI видалити «галюцинації» ChatGPT про нього — чатбот вигадав, що чоловік убив власних дітей

Арве Х’ялмар Хольмен вирішив подивитися, яку інформацію може надати ChatGPT від OpenAI, якщо користувач здійснить пошук за його ім’ям. Він був шокований, коли ChatGPT видав фейкову інформацію про те, що він був засуджений до 21 року ув’язнення як «злочинець, який вбив двох своїх дітей і намагався вбити свого третього сина».

Через це він подав скаргу разом із захисниками цифрових прав Європейського Союзу Noyb, повідомляє Ars Technica.

«ChatGPT не тільки галюцинував щодо подій, яких ніколи не було, але й змішував „персональні дані, які можна чітко ідентифікувати“, такі як реальна кількість і стать дітей Хольмена і назва його рідного міста, з „фальшивою інформацією“», — йдеться в пресрелізі Noyb.

Галюцинації ШІ-чатбота компанії OpenAI про «фальшивого вбивцю й ув’язнення», а також «реальні елементи особистого життя» норвежця, нібито порушували вимоги GDPR, оскільки Хольмен, за твердженням правозахисників, не зміг легко виправити інформацію, як того вимагає GDPR.

На думку Хольмена, його репутація залишалася під загрозою, чим довше інформація залишалася там, і — попри «крихітні» застереження, що нагадують користувачам ChatGPT про необхідність перевіряти результати, — не було ніякого способу дізнатися, скільки людей могли ознайомитися з фейковою історією і повірити в її правдивість.

«Дехто вважає, що „диму без вогню не буває“. Те, що хтось може прочитати цей висновок і повірити в його правдивість, лякає мене найбільше», — сказав Хольмен.

Наразі ChatGPT не наводить ці неправдиві твердження про Хольмена у своїх відповідях. Останнє оновлення, очевидно, виправило цю проблему, бо «ChatGPT тепер також шукає інформацію про людей в Інтернеті, коли його запитують, хто вони такі», вважають в Noyb. Але оскільки в OpenAI раніше стверджували, що не можуть виправляти інформацію, а лише блокувати, фейкова історія про вбивцю дітей, ймовірно, все ще включена у внутрішні дані ChatGPT. І якщо Хольмен не зможе її виправити, це буде порушенням GDPR, стверджують правозахисники.

Хольмен — не єдиний користувач ChatGPT, який занепокоєний тим, що галюцинації чатбота можуть зруйнувати життя. Через кілька місяців після запуску ChatGPT наприкінці 2022 року австралійський мер погрожував подати до суду за наклеп після того, як ШІ неправдиво заявив, що він потрапив до в’язниці.

Приблизно в той самий час ChatGPT пов’язав реального професора права з фейковим скандалом про сексуальні домагання. Кілька місяців по тому радіоведучий подав до суду на OpenAI через результати роботи ChatGPT, що описували фальшиві звинувачення в розкраданні.

У деяких випадках OpenAI фільтрував модель, щоб уникнути генерації шкідливих результатів, але, ймовірно, не видаляв неправдиву інформацію з навчальних даних, припускають в Noyb. Але фільтрації результатів і розміщення застережень недостатньо для запобігання шкоди репутації, стверджує юристка із захисту даних Noyb Клеанті Сарделі (Kleanthi Sardeli).

У фірмі вважають, що на OpenAI потрібно тиснути, щоб компанія робила більше зусиль для запобігання наклепницьким публікаціям. Noyb подала скаргу до норвезького органу з питань даних Datatilsynet, щоб отримати рішення, що вимагає від OpenAI «видалити наклепницькі результати й доопрацювати свою модель, щоб усунути неточні результати».

Якщо норвезькі органи з питань захисту даних так само виявлять, що OpenAI не дозволяє користувачам виправляти свої дані, компанія може бути змушена внести більше змін в ЄС. Можливо, їй навіть доведеться переглянути алгоритм ChatGPT. 

Нагадаємо, що восени минулого року Microsoft представила Correction — інструмент для автоматичного виправлення згенерованим штучним інтелектом тексту, який містить помилки. Він доступний як частина Microsoft Azure AI Content Safety API, і його можна використовувати з будь-якою моделлю штучного інтелекту, що генерує текст, включно з Llama від Meta та GPT-4o від OpenAI.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Американський стартап Patronus AI розробив перший self-serve API для зупинки галюцинацій ШІ. Це як перевірка орфографії для штучного інтелекту
Американський стартап Patronus AI розробив перший self-serve API для зупинки галюцинацій ШІ. Це як перевірка орфографії для штучного інтелекту
По темi
Американський стартап Patronus AI розробив перший self-serve API для зупинки галюцинацій ШІ. Це як перевірка орфографії для штучного інтелекту
Microsoft створила інструмент для виправлення галюцинацій ШІ. Експерти кажуть що «це все одно що намагатися усунути водень з води»
Microsoft створила інструмент для виправлення галюцинацій ШІ. Експерти кажуть, що «це все одно, що намагатися усунути водень з води»
По темi
Microsoft створила інструмент для виправлення галюцинацій ШІ. Експерти кажуть, що «це все одно, що намагатися усунути водень з води»
В роботі ChatGPT стався збій — частина користувачів не може залогінитися в застосунок інші повідомляють про повільну відповіді й «галюцинації» в чатбота
В роботі ChatGPT стався збій — частина користувачів не може залогінитися в застосунок, інші повідомляють про повільну відповіді й «галюцинації» в чатбота
По темi
В роботі ChatGPT стався збій — частина користувачів не може залогінитися в застосунок, інші повідомляють про повільну відповіді й «галюцинації» в чатбота
Підключай Megogo зі знижками за акційними тарифами.

від 99 гривень на місяць

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.