Чи потрібна пауза, або це лише притягнутий за вуха ажіотаж. Хто та навіщо написав лист про призупинення розвитку штучного інтелекту

Днями в мережі поширився лист, підписаний 30 000 експертами, провідними дослідниками штучного інтелекту та відомими людьми, зокрема Ілоном Маском, Стівом Возняком, Ендрю Янгом. Більшість підписантів відмовилися від своїх позицій. Про це пише VICE.

Хто взяв участь у заході та як це вплине на розвиток штучного інтелекту у світовому маштабі.

1 коментар
Чи потрібна пауза, або це лише притягнутий за вуха ажіотаж. Хто та навіщо написав лист про призупинення розвитку штучного інтелекту

Днями в мережі поширився лист, підписаний 30 000 експертами, провідними дослідниками штучного інтелекту та відомими людьми, зокрема Ілоном Маском, Стівом Возняком, Ендрю Янгом. Більшість підписантів відмовилися від своїх позицій. Про це пише VICE.

Хто взяв участь у заході та як це вплине на розвиток штучного інтелекту у світовому маштабі.

Що йдеться в листі

Ось, що зазначається у листі:

  • «Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими. Тому ми закликаємо всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4».
  • «Лабораторії штучного інтелекту та незалежні експерти повинні використати цю паузу, щоб спільно розробити та впровадити набір спільних протоколів безпеки для просунутого проєктування та розробки ШІ, які ретельно перевіряються та контролюються незалежними сторонніми експертами».
  • «Це не означає призупинення розвитку штучного інтелекту в цілому, а просто відхід від небезпечних перегонів (змагання між технологічними компаніями, як Microsoft і Google) до все більших і непередбачуваних моделей чорного ящика з новими можливостями».

Про ініціатора та підписантів

Ініціатором листа стала некомерційна організація Інститут майбутнього життя, яка прагне «зменшення глобального катастрофічного та екзистенціального ризику від потужних технологій». Одним з таких ризиків вважається надрозумний штучний інтелект.

Ілон Маск  у 2015 році пожертвував інституту $10 млн.

Перевірку підписантів здійснював Інститут майбутнього життя Motherboard і вони були «незалежно перевірені через пряме спілкування». 

Крім вищеназваних імен, свої підписи під листом поставили генеральний директор Stability AI Емад Мостаке, письменник та історик Юваль Ной Харарі та співзасновник Pinterest Еван Шарп. Також є підписи працівників компаній Google DeepMind і Microsoft, які беруть участь у перегонах озброєнь ШІ.

Ніхто з OpenAI, компанії-розробника моделей GPT на основі штучного інтелекту, не підписав листа.

Але виявили фальшиві підписи генерального директора OpenAI Сема Альтмана, президента Китаю Сі Цзіньпіна та головного науковця зі штучного інтелекту Meta Янна Лекуна.

Від проджект менеджера до розробника. Найсвіжіші вакансії від кращих ІТ-компаній на jobs.dev.ua

Хто «ЗА»

Серед тих, хто висловився у підтримку листа Гарі Маркус, професор психології та нейронауки в Нью-Йоркському університеті, який сказав Reuters, що «буква не ідеальна, але дух правильний».

«Так, я не думаю, що шестимісячна пауза є найкращою ідеєю або погоджуюсь з усім, але в цьому листі є кілька цікавих речей», — твітнув Емад Мостаке, генеральний директор компанії Stability.AI, конкурента OpenAI.

На пресконференції в середу один із відомих підписантів Йошуа Бенгіо — канадський комп’ютерний вчений, який був одним із перших вчених, які розробили глибоке навчання, а також засновник і науковий директор дослідницького інституту Міла — сказав журналістам, що шестимісячна перерва необхідний органам управління, включно з урядами, для розуміння, аудиту та перевірки систем, щоб вони були безпечними для громадськості.

Макс Тегмарк, професор фізики в Інституті штучного інтелекту та фундаментальних взаємодій Массачусетського технологічного інституту NSF (IAIFI) і президент Інституту майбутнього життя, сказав, що найгірший сценарій полягає в тому, що люди поступово втрачатимуть все більше й більше контролю над цивілізацією.

Ажіотаж робить більше шкоди

Арвінд Нараянан, доцент кафедри комп’ютерних наук Принстонського університету, повторив, що відкритий лист був сповнений ажіотажу щодо штучного інтелекту, який «ускладнює боротьбу з реальною шкодою штучного інтелекту».

«Це, по суті, неправильне спрямування: привернення уваги всіх до гіпотетичних можливостей і шкоди LLM і пропонування (дуже розпливчастого та неефективного) способу їхнього усунення, замість того, щоб розглядати шкоду тут і зараз і вирішувати її — наприклад, вимагати більшої прозорості, коли це приходить до навчальних даних і можливостей магістратури або законодавства щодо того, де і коли їх можна використовувати», — сказав Motherboard Саша Лучіоні, науковий співробітник і керівник відділу клімату в Hugging Face.

Невірні трактування

Емілі М. Бендер, професор кафедри лінгвістики Вашингтонського університету та співавтор першої статті, на яку посилається лист, написала у Twitter, що цей відкритий лист «насичений #Aihype» і що в листі неправильно використовуються її дослідження.

У листі сказано: «Системи штучного інтелекту з інтелектом, що конкурує між людьми, можуть становити серйозні ризики для суспільства та людства, як показали численні дослідження». Але Бендер заперечує, це.

«Наприкінці 2020 року ми написали цілу статтю (Stochastic Parrots, опублікована у 2021 році), вказуючи на те, що цей стрімкий поспіх до все більших мовних моделей без урахування ризиків був поганою справою. Але ризики та шкода ніколи не стосувалися «надто потужного штучного інтелекту», — написала вона. 

Про заміну людей компʼютерами

Окремими питаннями в листі були:

«Чи повинні ми автоматизувати всі роботи, включно з тими, які виконують завдання? Чи повинні ми розвивати нелюдські уми, які з часом можуть перевершити, перехитрити, застаріти та замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією?»

Нараянан сказав, що ці запитання «нісенітниця» і «смішно». Він зазначає, що зрештою, ШІ вже інтегрується в робочі місця людей і зменшує потребу в певних професіях, не бувши «нелюдським розумом», який зробить нас «застарілими». А такі заклики відволікають від поточних проблем.

До сучасних проблем

Тімніт Гебру, комп’ютерний науковець і засновник Distributed Artificial Intelligence Research Institute, написав у Твіттері, що дивно, що вони закликають призупинити використання моделей, потужніших за GPT-4, але не враховують велику кількість проблем, пов’язаних із GPT-4. 

«Інші речі можуть бути „катастрофічними“, але теперішні речі, коли всім африканцям платять копійки за посттравматичний стресовий розлад, масову крадіжку даних тощо, я вважаю, що це „процвітання людини“ та „вигоди для всіх“», — додав Гебру.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
По темi
Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
Ubisoft розробляє штучний інтелект Ghostwriter який замінить сценаристів і буде сам писати діалоги
Ubisoft розробляє штучний інтелект Ghostwriter, який замінить сценаристів і буде сам писати діалоги
По темi
Ubisoft розробляє штучний інтелект Ghostwriter, який замінить сценаристів і буде сам писати діалоги
Work.ua винайняли на роботу штучний інтелект. На ресурсі вже опублікували вакансії для знавців AI 16 компаній
Work.ua винайняли на роботу штучний інтелект. На ресурсі вже опублікували вакансії для знавців AI 16 компаній
По темi
Work.ua винайняли на роботу штучний інтелект. На ресурсі вже опублікували вакансії для знавців AI 16 компаній
ChatGPT довелося закривати на один день. Що трапилося
ChatGPT довелося закривати на один день. Що трапилося
По темi
ChatGPT довелося закривати на один день. Що трапилося
Новий випуск «З фронту в IT» про айтівців, які повертаються до цивільного життя після ЗСУ.

Історія світчера з Тернопільщини, який змінив агро на IT, а IT на ЗСУ

УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).
Читайте також
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Roosh запускає нову освітню платформу AI HOUSE CLUB для ML/AI-спеціалістів та дата сайнтистів. Розповідаємо, як подати заявку та чому навчатимуть
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Як нейромережі бачать вільну та незалежну Україну? Тест dev.ua
Нейронні мережі для генерації зображень бачать світ по-своєму, їхню логіку зрозуміти часом зовсім неможливо. Але таки хочеться. На честь Дня Незалежності України редакція dev.ua вирішила провести невеликий експеримент. Ми задали чотирьом різним нейронним мережам п’ять однакових запитів: «прапор України», «День Незалежності України», «український Крим», «перемога України» та «українці». Отриманими результатами ми ділимося з вами нижче.
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok тепер можна генерувати фон за допомогою нейромережі. Ми протестували її та ділимося результатами
У TikTok з’явилася нова функція «Розумний фон». З її допомогою як фон для тіктоків можна підставляти згенеровані нейромережею зображення. Редакція dev.ua протестувала цю технологію і ділиться своїми враженнями.

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
0

Більшість великих проектів що займаються АІ вже відписали, що нічого призупиняти не збираються