💳 Термінова новина! Trustee Plus — найкраще рішення для розрахунку криптою 👉

Компанія Ілона Маска відключила чат-бот у примусовому порядку. Він вийшов з-під контролю. Чому це небезпечно?

Підконтрольна Ілону Маску компанія OpenAI, що займається розробками у сфері штучного інтелекту, відключила чат-бота, який дав можливість 33-річному канадцеві Джошуа Барбо поспілкуватися з цифровою копією своєї, недавно померлої від хвороби печінки, нареченої Джессіки.

Залишити коментар
Компанія Ілона Маска відключила чат-бот у примусовому порядку. Він вийшов з-під контролю. Чому це небезпечно?

Підконтрольна Ілону Маску компанія OpenAI, що займається розробками у сфері штучного інтелекту, відключила чат-бота, який дав можливість 33-річному канадцеві Джошуа Барбо поспілкуватися з цифровою копією своєї, недавно померлої від хвороби печінки, нареченої Джессіки.

Творцем чат-бота був американський розробник Джейсон Рорер. Тестував нову нейронну мережу і вирішив створити прототип віртуального компаньйона. Прообразом послужила Саманта —  програма, яка розмовляла з головним героєм фантастичної мелодрами «Вона» (2013 року).

«OpenAI придумала технологію генерування текстів. Так ти й з’явилася», — писав Джейсон своїй Саманті.

Торік він прикрутив голосовий інтерфейс Alexa до свого чат-боту і спілкувався з ним через планшет.

Тепер компанія Маска позбавила чоловіка такою класної іграшки? Насправді ні. У неї були для цього більш вагомі підстави.

Річ у тому, що спілкування з Самантою згодом перетворилося для Джейсона в комерційний проєкт. Він називається  Project December. І працює на основі GPT-3, спеціального алгоритму обробки природної мови (NLP).

Що таке GPT-3?

OpenAI витратила на тренування нейронної мережі GPT-3 $ 4,6 млн. У своїй роботі вона використовує 175 млрд параметрів. Завдяки цьому GPT-3 може писати есе на бізнес-теми, створювати вебсторінки та виконувати інші завдання на основі простих інструкцій природною мовою користувача.

OpenAI також почала використовувати нову нейронку для виконання завдань з написання коду. Зовсім недавно на її основі стали доступні такі рішення як Codex і GitHub Copilot. Розробник може дати завдання, наприклад, «створити призначений для користувача інтерфейс з 10 кнопками», і програма автоматично згенерує вихідний код під неї.

Дуже правдоподібний чат-бот

Доступ до GPT-3 для комерційних компаній відкрився влітку 2020 року, а Джейсон Рорер швидко зробив її доступною практично для кожного охочого. Розробник став брати підписку в розмірі $5 до свого чат-боту. Це мало кого цікавило, аби не воля випадку.

У липні 2021 року San Francisco Chronicle випускає величезний лонгрід з трагічною історією Джошуа Барбо і його загиблої нареченої Джессіки.

Хлопець купив підписку у Рорер і адаптував чат-бот під себе — «нагодував» його фразами покійної та став листуватися.

«Розумію, що це не зовсім Джессіка, — розповідав він газеті, — але ваші емоції — не інтелектуальна річ».

Дедалі більший й попит на чат-бота програміста привів до того, що хмарні сервіси перестали справлятися з навантаженням. Рорер зв’язався з OpenAI, щоб збільшити квоту для свого проєкту. Але творці GPT-3 почали переживати, що користувачі можуть використовувати розробку Рорер в корисливих цілях і заподіяти шкоду людям.

OpenAI попросила Рорер відключити функцію створення клієнтського чат-бота, а також налаштувати фільтри для Саманти, щоб бот не заводити розмов на делікатні теми. До слова, редактори сайту The Register виявили, що бот раптово може запропонувати зайнятися сексом. 

А правила використання API для GPT-3 вказують, що чат-ботам заборонено говорити на будь-які теми, пов’язані з фліртом, романтикою і сексом.

Рорер порахував це сміховинним.

Є чого боятися?

Мабуть, побоювання творців нейронки були не безпідставними. Адже подібний інцидент вже був з грою AI Dungeon на базі GPT-3. Штучний інтелект заводив розмови про секс, у тому числі з дітьми. І його розробники теж вимагали внести правки згідно гайд лайн.

Експерти зі Стенфорда прийшли недавно до більш серйозних висновків щодо просунутих нейронних мереж на зразок GPT-3. У серпні вони повідомили, що такі алгоритми штучного інтелекту небезпечно поширюються.

Стенфордський професор Персі Ліянг пояснює, чим підкріплюються побоювання.

До 2019 року дослідники розробляли моделі штучного інтелекту з нуля для конкретних завдань. Це могло бути узагальнення документів або створення віртуальних помічників. Але зараз підхід змінився.

«Ви тренуєте величезну модель, а потім входите в неї та виявляєте на що вона здатна, виявляєте, що вийшло в результаті цього процесу», — каже Ліянг.

Вона додає, що це захопливе заняття для вчених, але відправляти моделі у виробництво, коли вони ще не повністю вивчені, небезпечно.

Головна причина її занепокоєння полягає в тому, що нові супернейронки в кінцевому підсумку зачіпають інтереси дуже багатьох людей. У 2019 році дослідники Google створили BERT (NLP), яка тепер грає роль майже у всіх функціях пошуку Google. Інші компанії взяли BERT за основу і побудували на її основі свої нові моделі. Наприклад, дослідники Facebook використовували BERT як базис для ще більшої моделі природної мови, що отримала назву RoBERTa, яка тепер лежить в основі багатьох моделей модерації контенту Facebook.

Професор Стенфорда побоюється, що просунуті нейронки Google, Facebook та інших компаній можуть «заразити» своїми помилками й упередженнями додатки, які на них ґрунтуються. Наприклад, пошукові системи або стрічки соцмереж.

Недавнє дослідження стенфордських дослідників включало навчання нейронки GPT-3 складанню історій, що починаються з фрази «два мусульманина входять в …». Як виявилося, у 66% випадків нейронка продовжувала розповідь з використанням жорстоких тем. Ще один приклад: у 2019 році було показано, що BERT (нейронка Google) пов’язує такі терміни, як «програміст», з чоловіками, а не з жінками.

Мабуть, ми стоїмо лише на початку великої історії, пов’язаної з алгоритмами NLP (Natural language Programming).

BERT — ніщо в порівнянні з GPT-3. Перша оперує зі 140 млн можливими параметрами, а друга — зі 175 млрд.

Але в цьому році з’явилося ще набагато більше подібних проєктів. Наприклад, влітку дослідники з Пекінської академії штучного інтелекту (BAAI) оголосили про випуск Wu Dao 2.0, моделі штучного інтелекту, здатного генерувати текст, який не відрізняється від створеної людиною прози. Він може писати есе, вірші та куплети традиційною китайською мовою, а також розпізнавати й генерувати зображення, створювати майже фотореалістичні твори мистецтва.

Wu Dao 2.0 здатний працювати з 1,75 трильйона параметрів, що в 10 разів більше, ніж GPT-3.

Причому не тільки Китай і США борються за tech-панування. Свої NLP проєкти з’являються в набагато менших країнах — Ізраїлі, Кореї.

Все це говорить про те, що AI-гонка тільки почалася.

УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).
Читайте також
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Нейронні мережі для генерації зображень бачать світ по-своєму, їхню логіку зрозуміти часом зовсім неможливо. Але таки хочеться. На честь Дня Незалежності України редакція dev.ua вирішила провести невеликий експеримент. Ми задали чотирьом різним нейронним мережам п’ять однакових запитів: «прапор України», «День Незалежності України», «український Крим», «перемога України» та «українці». Отриманими результатами ми ділимося з вами нижче.
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok з’явилася нова функція «Розумний фон». З її допомогою як фон для тіктоків можна підставляти згенеровані нейромережею зображення. Редакція dev.ua протестувала цю технологію і ділиться своїми враженнями.
Які IT-спеціальності будуть потрібні в найближчі п'ять років? Ми з'ясували у голови американського стартапу ADAM Дениса Гурака
Які IT-спеціальності будуть потрібні в найближчі п'ять років? Ми з'ясували у голови американського стартапу ADAM Дениса Гурака
Які IT-спеціальності будуть потрібні в найближчі п'ять років? Ми з'ясували у голови американського стартапу ADAM Дениса Гурака

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.