Компанія Ілона Маска відключила чат-бот у примусовому порядку. Він вийшов з-під контролю. Чому це небезпечно?

Підконтрольна Ілону Маску компанія OpenAI, що займається розробками у сфері штучного інтелекту, відключила чат-бота, який дав можливість 33-річному канадцеві Джошуа Барбо поспілкуватися з цифровою копією своєї, недавно померлої від хвороби печінки, нареченої Джессіки.

Компанія Ілона Маска відключила чат-бот у примусовому порядку. Він вийшов з-під контролю. Чому це небезпечно?

Підконтрольна Ілону Маску компанія OpenAI, що займається розробками у сфері штучного інтелекту, відключила чат-бота, який дав можливість 33-річному канадцеві Джошуа Барбо поспілкуватися з цифровою копією своєї, недавно померлої від хвороби печінки, нареченої Джессіки.

Творцем чат-бота був американський розробник Джейсон Рорер. Тестував нову нейронну мережу і вирішив створити прототип віртуального компаньйона. Прообразом послужила Саманта —  програма, яка розмовляла з головним героєм фантастичної мелодрами «Вона» (2013 року).

«OpenAI придумала технологію генерування текстів. Так ти й з’явилася», — писав Джейсон своїй Саманті.

Торік він прикрутив голосовий інтерфейс Alexa до свого чат-боту і спілкувався з ним через планшет.

Тепер компанія Маска позбавила чоловіка такою класної іграшки? Насправді ні. У неї були для цього більш вагомі підстави.

Річ у тому, що спілкування з Самантою згодом перетворилося для Джейсона в комерційний проєкт. Він називається  Project December. І працює на основі GPT-3, спеціального алгоритму обробки природної мови (NLP).

Що таке GPT-3?

OpenAI витратила на тренування нейронної мережі GPT-3 $ 4,6 млн. У своїй роботі вона використовує 175 млрд параметрів. Завдяки цьому GPT-3 може писати есе на бізнес-теми, створювати вебсторінки та виконувати інші завдання на основі простих інструкцій природною мовою користувача.

OpenAI також почала використовувати нову нейронку для виконання завдань з написання коду. Зовсім недавно на її основі стали доступні такі рішення як Codex і GitHub Copilot. Розробник може дати завдання, наприклад, «створити призначений для користувача інтерфейс з 10 кнопками», і програма автоматично згенерує вихідний код під неї.

Дуже правдоподібний чат-бот

Доступ до GPT-3 для комерційних компаній відкрився влітку 2020 року, а Джейсон Рорер швидко зробив її доступною практично для кожного охочого. Розробник став брати підписку в розмірі $5 до свого чат-боту. Це мало кого цікавило, аби не воля випадку.

У липні 2021 року San Francisco Chronicle випускає величезний лонгрід з трагічною історією Джошуа Барбо і його загиблої нареченої Джессіки.

Хлопець купив підписку у Рорер і адаптував чат-бот під себе — «нагодував» його фразами покійної та став листуватися.

«Розумію, що це не зовсім Джессіка, — розповідав він газеті, — але ваші емоції — не інтелектуальна річ».

Дедалі більший й попит на чат-бота програміста привів до того, що хмарні сервіси перестали справлятися з навантаженням. Рорер зв’язався з OpenAI, щоб збільшити квоту для свого проєкту. Але творці GPT-3 почали переживати, що користувачі можуть використовувати розробку Рорер в корисливих цілях і заподіяти шкоду людям.

OpenAI попросила Рорер відключити функцію створення клієнтського чат-бота, а також налаштувати фільтри для Саманти, щоб бот не заводити розмов на делікатні теми. До слова, редактори сайту The Register виявили, що бот раптово може запропонувати зайнятися сексом. 

А правила використання API для GPT-3 вказують, що чат-ботам заборонено говорити на будь-які теми, пов’язані з фліртом, романтикою і сексом.

Рорер порахував це сміховинним.

Є чого боятися?

Мабуть, побоювання творців нейронки були не безпідставними. Адже подібний інцидент вже був з грою AI Dungeon на базі GPT-3. Штучний інтелект заводив розмови про секс, у тому числі з дітьми. І його розробники теж вимагали внести правки згідно гайд лайн.

Експерти зі Стенфорда прийшли недавно до більш серйозних висновків щодо просунутих нейронних мереж на зразок GPT-3. У серпні вони повідомили, що такі алгоритми штучного інтелекту небезпечно поширюються.

Стенфордський професор Персі Ліянг пояснює, чим підкріплюються побоювання.

До 2019 року дослідники розробляли моделі штучного інтелекту з нуля для конкретних завдань. Це могло бути узагальнення документів або створення віртуальних помічників. Але зараз підхід змінився.

«Ви тренуєте величезну модель, а потім входите в неї та виявляєте на що вона здатна, виявляєте, що вийшло в результаті цього процесу», — каже Ліянг.

Вона додає, що це захопливе заняття для вчених, але відправляти моделі у виробництво, коли вони ще не повністю вивчені, небезпечно.

Головна причина її занепокоєння полягає в тому, що нові супернейронки в кінцевому підсумку зачіпають інтереси дуже багатьох людей. У 2019 році дослідники Google створили BERT (NLP), яка тепер грає роль майже у всіх функціях пошуку Google. Інші компанії взяли BERT за основу і побудували на її основі свої нові моделі. Наприклад, дослідники Facebook використовували BERT як базис для ще більшої моделі природної мови, що отримала назву RoBERTa, яка тепер лежить в основі багатьох моделей модерації контенту Facebook.

Професор Стенфорда побоюється, що просунуті нейронки Google, Facebook та інших компаній можуть «заразити» своїми помилками й упередженнями додатки, які на них ґрунтуються. Наприклад, пошукові системи або стрічки соцмереж.

Недавнє дослідження стенфордських дослідників включало навчання нейронки GPT-3 складанню історій, що починаються з фрази «два мусульманина входять в …». Як виявилося, у 66% випадків нейронка продовжувала розповідь з використанням жорстоких тем. Ще один приклад: у 2019 році було показано, що BERT (нейронка Google) пов’язує такі терміни, як «програміст», з чоловіками, а не з жінками.

Мабуть, ми стоїмо лише на початку великої історії, пов’язаної з алгоритмами NLP (Natural language Programming).

BERT — ніщо в порівнянні з GPT-3. Перша оперує зі 140 млн можливими параметрами, а друга — зі 175 млрд.

Але в цьому році з’явилося ще набагато більше подібних проєктів. Наприклад, влітку дослідники з Пекінської академії штучного інтелекту (BAAI) оголосили про випуск Wu Dao 2.0, моделі штучного інтелекту, здатного генерувати текст, який не відрізняється від створеної людиною прози. Він може писати есе, вірші та куплети традиційною китайською мовою, а також розпізнавати й генерувати зображення, створювати майже фотореалістичні твори мистецтва.

Wu Dao 2.0 здатний працювати з 1,75 трильйона параметрів, що в 10 разів більше, ніж GPT-3.

Причому не тільки Китай і США борються за tech-панування. Свої NLP проєкти з’являються в набагато менших країнах — Ізраїлі, Кореї.

Все це говорить про те, що AI-гонка тільки почалася.

Хочете повідомити важливу новину? Пишіть у Telegram-bot.

А також підписуйтесь на наш Telegram-канал.

Читайте також

5 сфер, які AI повністю змінить, - версія директора Sinovation Ventures Кай-Фу Лі
5 сфер, які AI повністю змінить, - версія директора Sinovation Ventures Кай-Фу Лі
5 сфер, які AI повністю змінить, - версія директора Sinovation Ventures Кай-Фу Лі
Американське видавництво Random House 14 вересня випустило книгу генерального директора Sinovation Ventures Кай-Фу Лі та письменника-фантаста Чень Цюфаня «AI 2041: Десять бачень нашого майбутнього». Автори розповіли як вплине штучний інтелект на світ через 20 років. Редакція dev.ua наводить найцікавіші висновки.
Програмісти бояться, що AI призведе до масового безробіття. Опитування
Програмісти бояться, що AI призведе до масового безробіття. Опитування
Програмісти бояться, що AI призведе до масового безробіття. Опитування
Український AI-стартап ZibraAI випустив перший у світі симулятор води (відео)
Український AI-стартап ZibraAI випустив перший у світі симулятор води (відео)
Український AI-стартап ZibraAI випустив перший у світі симулятор води (відео)
Samsung вклав $365 млн в український R&D-центр. Що там відбувається?
Samsung вклав $365 млн в український R&D-центр. Що там відбувається?
Samsung вклав $365 млн в український R&D-центр. Що там відбувається?