💳 Потрібна європейська картка з лімітом 50к євро? Встановлюй Trustee Plus 👉
Стас ЮрасовГаряченьке
18 травня 2022, 16:47
2022-05-18
«The game is over». DeepMind від Google нібито на межі досягнення штучного інтелекту на рівні людини
New Gato AI — так називають програму DeepMind від компанії Google, яка була представлена на минулому тижні як так звана мультимодальна програма, яка може грати у відеоігри, спілкуватися, писати композиції, робити зображення і керувати роботизованою рукою, укладаючи блоки. Це єдина нейронна мережа, яка може працювати з кількома типами даних для виконання різноманітних завдань.
New Gato AI — так називають програму DeepMind від компанії Google, яка була представлена на минулому тижні як так звана мультимодальна програма, яка може грати у відеоігри, спілкуватися, писати композиції, робити зображення і керувати роботизованою рукою, укладаючи блоки. Це єдина нейронна мережа, яка може працювати з кількома типами даних для виконання різноманітних завдань.
Як пише The Independent, за словами провідного дослідника відділу Google DeepMind AI, штучний інтелект на рівні людини майже нарешті досягнутий.
Доктор Нандо де Фрейтас заявив, що «гра закінчена» у багаторічному прагненні реалізувати штучний загальний інтелект (Artificial general Intelligence, AGI) після того, як DeepMind представила систему, здатну виконувати широкий спектр складних завдань, від складання блоків до написання віршів.
AGI — це така система, де комп’ютер може загалом виконувати будь-яке інтелектуальне завдання, яке може людина, і навіть спілкуватися природною мовою, як це може зробити людина.
За словами доктора де Фрейтас, новий штучний інтелект Deep Mind Gato, описаний як «general agent», потрібно просто масштабувати, щоб створити штучний інтелект, здатний конкурувати з людським інтелектом.
Відповідаючи на думку, написану в The Next Web, в якій стверджується, що «люди ніколи не досягнуть AGI», керівник дослідження DeepMind написав, що, на його думку, такий результат є неминучим.
«Тепер усе залежить від масштабу! Гра закінчена!», написав він у Twitter.
Someone’s opinion article. My opinion: It’s all about scale now! The Game is Over! It’s about making these models bigger, safer, compute efficient, faster at sampling, smarter memory, more modalities, INNOVATIVE DATA, on/offline, … 1/N https://t.co/UJxSLZGc71
«Зараз мова йде тільки про те, щоб зробити ці моделі більшими, безпечнішими, ефективними в обчисленнях, швидшими під час вибору, з більшою пам’яттю, більшим числом модальностей, інноваційними даними, в режимі онлайн/офлайн… Вирішення цих проблем — це те, що забезпечить AGI».
На запитання дослідника машинного навчання Алекса Дімікаса, наскільки, на його думку, штучний інтелект Gato був далекий від проходження справжнього тесту Тьюринга — міри комп’ютерного інтелекту, якая вимагає, щоб людина не могла відрізнити машину від іншої людини — доктор де Фрейтас відповів: «Далеко досі».
Провідні дослідники штучного інтелекту попереджають, що поява AGI може призвести до екзистенційної катастрофи для людства, а професор Оксфордського університету Нік Бостром припускає, що «надрозумна» система, яка перевищує біологічний інтелект, може замінити людей як домінуючу форму життя на Землі.
Gato відповідає на питання
Одна з головних проблем із появою системи AGI, здатної навчатися самостійно і стати експоненціально розумнішою за людей, полягає в тому, що її неможливо буде вимкнути.
Відповідаючи на додаткові запитання дослідників ШІ у Twitter, д-р де Фрейтас сказав, що «безпека має першорядне значення» при розробці AGI.
«Це, мабуть, найбільша проблема, з якою ми стикаємося», — написав він. «Кожен повинен про це подумати».
Google, який придбав лондонську DeepMind у 2014 році, уже працює над «великою червоною кнопкою», щоб пом’якшити ризики, пов’язані з вибухом систем штучного інтелекту.
У статті 2016 року під назвою «Безпечні агенти, діяльніть яких можна перервати» дослідники DeepMind окреслили структуру для запобігання ігнорування розширеним штучним інтелектом команд вимкнення.
«Безпечне переривання роботи системи може бути корисною для того, щоб взяти під контроль робота, який поводиться неправильно і може призвести до незворотних наслідків», — йдеться у документі.
«Якщо такий агент працює в режимі реального часу під наглядом людини, то час від часу оператору-людині може знадобитися натиснути велику червону кнопку, щоб запобігти продовженню шкідливої послідовності дій, шкідливих для агента або для навколишнього середовища — і привести агента в більш безпечну ситуацію».
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Нейронні мережі для генерації зображень бачать світ по-своєму, їхню логіку зрозуміти часом зовсім неможливо. Але таки хочеться. На честь Дня Незалежності України редакція dev.ua вирішила провести невеликий експеримент.
Ми задали чотирьом різним нейронним мережам п’ять однакових запитів: «прапор України», «День Незалежності України», «український Крим», «перемога України» та «українці». Отриманими результатами ми ділимося з вами нижче.
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok з’явилася нова функція «Розумний фон». З її допомогою як фон для тіктоків можна підставляти згенеровані нейромережею зображення. Редакція dev.ua протестувала цю технологію і ділиться своїми враженнями.
Homo erectus приплыли...