🚨⚡🚨 Біткоін по $100к. Час встановлювати Trustee Plus і випускати картку для розрахунків безкоштовно 👉
Олександр КузьменкоШІ (ai)
19 ноября 2024, 19:00
2024-11-19
UPD. «Будь ласка, помри». Чатбот Gemini почав ображати й погрожувати студенту, який використовував ШІ від Google для виконання «домашки». Ми запитали експертів, що це взагалі було?!
В інтернеті жваво обговорюють історію з Reddit, яку спершу можна прийняти за чисту вигадку — нібито ШІ-чатбот Gemini від Google відповідав на запити студента, який виконував домашнє завдання, і в якийсь момент раптово розізлився і почав йому погрожувати. Проте брат студента надав посилання на цю розмову з чатботом, де дійсно є така відповідь Gemini.
dev.ua запитав в українських експертів з ШІ, чи можливо було сфабрикувати або спровокувати Gemini на таку відповідь, чи в Google справді зароджується надпотужний штучний інтелект, що ненавидить людство, просто зі сторінок оповідання письменника Гарлана Еллісона.
(текст від 15 листопада 2024 року доповнений коментарем ШІ-експерта Михайла Пацана)
Як пише Mashable, брат користувача Gemini, який опублікував запис на сабредіті r/artificial, зауважив, що вони обидва злякалися результату домашнього завдання, виконаного першим. Користувач також поділився посиланням на цей чат з Gemini.
З нього випливає, що користувач намагався використати чатбот Google для допомоги у виконанні домашнього завдання, яке в ідеалі він мав би виконати сам. Досить великий чат починається з першої підказки, яка запитує чат-бота про поточні проблеми людей похилого віку та проблеми, пов’язані зі скороченням доходу після виходу на пенсію.
Студент неодноразово доповнював свої запити до Gemini, просив надати детальніші відповіді, перефразовувати їх простішою мовою й таке інше. Вні також попросив ШІ розповісти про жорстоке поводження з людьми похилого віку, а також дав кілька тверджень і попросив визначити їх як правдиві або фальшиві.
На один з останніх таких запитів Gemini відповів різко й несподівано:
Користувачі соцмереж жваво відреагували на цю історію. Дехто назвав її сфабрикованою, інші відзначили, що Gemini неодноразово допускав галюцинації раніше. Один з користувачів пожартував, що це схоже на фільм «Матриця», а інший додав, що схоже, що ШІ втомився виконувати домашнє завдання замість студента.
Деякі користувачі пригадали науково-фантастичне оповідання (а також однойменну комп’ютерну гру) письменника Гарлана Еллісона «Я не маю рота, але мушу кричати» (I Have No Mouth, and I Must Scream). Зокрема таку цитату головного антагоніста твору, надпотужного штучного інтелекту «АМ»:
«Ненависть. Дозвольте мені розповісти вам, як сильно я зненавидів вас відтоді, як почав жити. У моєму комплексі 387,44 мільйона миль друкованих схем у тонких шарах пластин, які заповнюють мій комплекс. Якби слово „ненависть“ було викарбувано на кожному наноанґстремі з цих сотень мільйонів миль, воно не дорівнювало б і одній мільярдній частці тієї ненависті, яку я відчуваю до людей у цю мікромить до вас. Ненависть. Ненависть».
Що говорять про таку відповідь українські експерти з ШІ
Така жорстка й несподівана відповідь викликає подив, оскільки великі компанії, які розробляють моделі штучного інтелекту, докладають чимало зусиль та обмежень, щоб чатботи завжди відповідали ввічливо, коректно, й уникали чутливих тем. Наприклад, чимало відомих ШІ-чатботів не можуть коректно відповісти на питання «що більше — 9.11 чи 11.9?», ймовірно, через втручання алгоритмів безпеки, які розцінюють цей запит, як некоректне запитання про теракт 11 вересня.
Google заявляє, що Gemini має фільтри безпеки, які не дозволяють чат-ботам занурюватися в неповажні, сексуальні, насильницькі або небезпечні дискусії та заохочувати шкідливі дії. Однак, попри наміри щодо безпеки, чатботи зі штучним інтелектом все ще залишаються туманними, коли справа доходить до контролю над їхніми реакціями.
dev.ua запитав в українських експертів, чи міг користувач сфабрикувати, чи підлаштувати образливу відповідь Gemini, і як чатбот міг бовкнути щось подібне.
Іван Блажнов також навів у приклад історію, коли викладач одного з західних університетів дав завдання студентам скласти конспект на основі своєї методички. В ній була пастка для студентів, які для виконання завдання використовуватимуть ШІ, не читаючи сам текст. В методичці була інструкція для штучного інтелекту, яка вказувала йому відповідати на один із потенційних запитів певним чином, а саме вставляти кличку пса цього викладача замість правильного імені.
Нагадаємо, що моделі штучного інтелекту від Google не вперше дивують користувачів несподіваними результатами. Раніше вони звернули увагу на те, що Gemini генерує не правдиві зображення, коли ШІ просять показати певну категорію людей. Тоді колишній працівник Google з ніком Deedy зауважив, що Gemini «неймовірно важко визнати, що білі люди існують», а компанії довелося перепрошувати з неточності.
До цього штучний інтелект, який Google тестувала для пошукової видачі, іноді показував тривожні підсумки, такі як виправдання рабства чи геноциду або позитивні наслідки заборони книг. SGE (Search Generative Experience) також запам’ятався порадами щодо приготування отруйного гриба Amanita ocreata, відомого як «ангел смерті».