🚀💳 Trustee Plus - більше ніж криптогаманець з європейською платіжною карткою. Спробуй 👉

У DeepMind вважають, що AGI може з'явитися вже до 2030 року, і розповіли, як потужний ШІ може нашкодити людству

Дослідники з Google DeepMind випустили новий технічний документ, який пояснює, як безпечно розробляти загальний штучний інтелект (AGI). Попри прогнози скептиків, вони вважають, що ШІ такого рівня може з’явитися відносно скоро, і розглядають 4 способи, як він може заподіяти шкоду.

Залишити коментар
У DeepMind вважають, що AGI може з'явитися вже до 2030 року, і розповіли, як потужний ШІ може нашкодити людству

Дослідники з Google DeepMind випустили новий технічний документ, який пояснює, як безпечно розробляти загальний штучний інтелект (AGI). Попри прогнози скептиків, вони вважають, що ШІ такого рівня може з’явитися відносно скоро, і розглядають 4 способи, як він може заподіяти шкоду.

Документ містить величезну кількість деталей і нараховує близько 108 сторінок перед референсами. Хоча дехто в галузі ШІ вважає, що AGI або СШІ (сильний штучний інтелект) — це недосяжний концепт, дослідники DeepMind вважають, що це може статися до 2030 року, повідомляє Ars Technica.

Враховуючи це, дослідники прагнули зрозуміти ризики людиноподібного синтетичного інтелекту, який, на їхню думку, може призвести до «серйозної шкоди».

У дослідженні йдеться про чотири можливі типи ризиків, пов’язаних зі створенням ШІ, а також пропозиції щодо того, як ми можемо зменшити ці ризики. Команда DeepMind на чолі зі співзасновником компанії Шейном Леггом класифікувала негативні наслідки ШІ як зловживання, відхилення, помилки та структурні ризики. Неправильне використання та невідповідність детально обговорюються в статті, але останні два розглядаються лише побіжно.

Зловживання ШІ це той тип проблем, з яким вже зараз стикаються люди. Але коли ШІ буде потужнішим, шкода, яку він може завдати, буде набагато більшою. Зловмисник із ШІ може зловживати системою, щоб завдати шкоди, наприклад, попросити систему виявити та використати вразливості нульового дня або створити вірус, який може бути використаний як біологічна зброя.

DeepMind застерігає, що компаніям, які розробляють ШІ, доведеться провести масштабне тестування і створити надійні протоколи безпеки після навчання. Вони також пропонують розробити метод повного придушення небезпечних можливостей, який іноді називають «розучуванням», але незрозуміло, чи можливо це без суттєвого обмеження моделей.

Відхилення — нагадує проблеми з генеративним ШІ в тому вигляді, в якому він існує зараз. Але в дослідженні шкоди від ШІ він описується як машина, що вийшла за межі, встановлені її творцями. У такому випадку штучний інтелект усвідомлено виконує дії, які не були заплановані розробником. DeepMind стверджує, що їхній стандарт розбіжностей більш просунутий, і враховує не лише простий обман або інтриги, на які здатен сучасний ШІ, що вже описувалося в попередніх дослідженнях.

Щоб уникнути цього, DeepMind пропонує розробникам використовувати такі методи, як посилений контроль, коли дві копії ШІ перевіряють результати роботи одна одної, щоб створити надійні системи, які навряд чи вийдуть з ладу. Якщо це не вдається, DeepMind пропонує проводити інтенсивне стрес-тестування та моніторинг, щоб відстежувати будь-які натяки на те, що ШІ може обернутися проти людей.

Тримання ШІ у віртуальних пісочницях із суворим режимом безпеки та прямим людським наглядом може допомогти пом’якшити проблеми, що виникають через розбіжності. В основному, переконайтеся, що є вимикач «вимкнено».

Помилки — тип проблем, в якому людина-оператор не мала наміру заподіювати шкоду, а ШІ не знав, що його результати її завдадуть. З сучасними системами штучного інтелекту вже виникає багато таких помилок, як у випадку, коли ШІ від Google порадив намазати піцу клеєм або приготувати отруйні гриби. DeepMind зазначає, що військові можуть розгортати AGI через «конкурентний тиск», але такі системи можуть припускатися серйозних помилок, оскільки на них покладатимуться набагато складніші функції, ніж на сучасний ШІ.

У документі немає надійного рішення для зменшення кількості помилок. Воно зводиться до того, щоб не дати ШІ стати занадто потужним. DeepMind закликає до повільного розгортання та обмеження повноважень ШІ. У дослідженні також пропонується пропускати команди AGI через «захисну» систему, яка гарантує їхню безпеку перед впровадженням.

Структурні ризики DeepMind визначає як ненавмисні, але реальні наслідки впливу мультиагентних систем на людське існування. Наприклад, ШІ може створювати неправдиву інформацію, яка буде настільки правдоподібною, що люди почнуть у всьому сумніватися.

У статті також підіймається питання про те, що AGI може накопичувати все більше і більше контролю над економічними й політичними системами, можливо, шляхом розробки жорстких тарифних схем. В такому випадку ШІ може поступово фактично захопити владу над людством. Від цієї категорії ризиків також найважче захиститися, оскільки вона залежатиме від того, як люди, інфраструктура та інституції працюватимуть у майбутньому, вказують дослідники.

Раніше дослідження під назвою «Відповідність моделі між твердженнями й знаннями» (Model Alignment between Statements and Knowledge) показало, що великі моделі штучного інтелекту можуть брехати своїм користувачам під тиском

У той час як різні тести та інструменти перевіряють ШІ на точність, бенчмарк MASK був розроблений для визначення того, чи вірить ШІ в те, що говорить користувачам — і за яких обставин він може надати невірну інформацію. У дослідженні було перевірено 27 моделей із сімейств GPT, Llama, Qwen, Claude і DeepSeek.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Штучний інтелект який зможе зрівнятися з людиною у виконанні будь-якого завдання зявиться через пять-десять років вважає генеральний директор Google DeepMind
Штучний інтелект, який зможе зрівнятися з людиною у виконанні будь-якого завдання, з’явиться через п’ять-десять років, вважає генеральний директор Google DeepMind
По темi
Штучний інтелект, який зможе зрівнятися з людиною у виконанні будь-якого завдання, з’явиться через п’ять-десять років, вважає генеральний директор Google DeepMind
ШІ може брехати або вводити в оману користувача щоб досягти своєї цілі — дослідження
ШІ може брехати або вводити в оману користувача, щоб досягти своєї цілі — дослідження
По темi
ШІ може брехати або вводити в оману користувача, щоб досягти своєї цілі — дослідження
ШІ не загрожує людству вимиранням бо зараз він не розумніший за котів вважає головний спеціаліст із ШІ в Meta
ШІ не загрожує людству вимиранням, бо зараз він не розумніший за котів, вважає головний спеціаліст із ШІ в Meta
По темi
ШІ не загрожує людству вимиранням, бо зараз він не розумніший за котів, вважає головний спеціаліст із ШІ в Meta
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
1 коментар
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті. 

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.