💻 MayBee: френдлі HRM система. Просте та iнтуїтивне управління комплексними HR процесами 🔥

Співзасновники Skype, Apple разом з Ілоном Маском та 1000 експертів ініціюють паузу в розробці ШІ та навчанні нейромереж. Чого вони бояться? 

Ілон Маск, Стів Возняк і дослідники AI закликають поставити на паузу експерименти зі штучним інтелектом.

Залишити коментар
Співзасновники Skype, Apple разом з Ілоном Маском та 1000 експертів ініціюють паузу в розробці ШІ та навчанні нейромереж. Чого вони бояться? 

Ілон Маск, Стів Возняк і дослідники AI закликають поставити на паузу експерименти зі штучним інтелектом.

Декілька відомих дослідників штучного інтелекту й експертів у галузі, включно з Ілоном Маском, підписали відкритий лист, у якому закликають розробників штучного інтелекту призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на страхи щодо «глибоких ризиків для суспільства».

Як повідомляє The Verge, у листі, опублікованому некомерційною організацією Future of Life Institute, зазначається, що лабораторії штучного інтелекту наразі перебувають у «гонитві, що виходить з-під контролю» щодо розробки та розгортання систем машинного навчання, «які ніхто — навіть їхні творці — не можуть зрозуміти, передбачити або надійно контролювати».

Ознайомитися з листом повністю можна тут.

У листі наголошується, що потужні ШІ-системи повинні розроблятися лише після того, як людство буде впевнене в позитивних наслідках такого розвитку та в тому, що пов’язані з ними ризики будуть керованими. Також у листі згадується про потенційні загрози для суспільства та цивілізації з боку здатних конкурувати з людьми ІІ-систем, що може призвести до економічних чи політичних потрясінь. Розробників закликають тісно співпрацювати із регуляторами.

Публікуйте вакансії, отримуйте відгуки, закривайте позиції. Jobs.dev.ua — ефективний інструмент для хайринга

«Великі дослідження показали, що подібні системи зі штучним інтелектом, які конкурують із людиною, можуть становити серйозну небезпеку для всього людства», — йдеться в листі.

Лист опублікований після того, як до групи стурбованих розвитком ІІ приєднався Європол, який попередив про можливість зловживання зловмисниками системами на кшталт ChatGPT — їх можна використовувати для фішингу, дезінформації та кіберзлочинів. Маск, чия компанія Tesla досить давно використовує елементи штучного інтелекту у своїх системах автопілота, відкрито та неодноразово висловлював стурбованість небезпекою ІІ-систем.

З моменту релізу минулого року чат-бот ChatGPT компанії OpenAI, що підтримується Microsoft, продемонстрував такі якості, які змусили конкурентів терміново активізувати розробку власних великих мовних моделей. В результаті компанії почали швидко інтегрувати генеративний ІІ у свої продукти. Глава OpenAI Сем Альтман (Sam Altman), за даними представника Future of Life, листа не підписував, а в самій компанії відмовилися від коментарів.

За словами одного з експертів, необхідно уповільнити відповідні роботи, допоки людство не почне краще розуміти наслідки, оскільки ІІ-системи здатні завдати серйозної шкоди. Особливо з урахуванням того, що великі гравці зберігають у таємниці інформацію про те, над чим вони працюють, тому суспільству буде важко захиститися у разі, якщо побоювання виправдаються.

«Ми закликаємо всі лабораторії ШІ негайно призупинити принаймні на 6 місяців навчання систем ШІ, потужніших за GPT-4», — йдеться в листі.

Ця пауза, на думку дослідників, має бути загальнодоступною для перевірки та включати всіх ключових дійових осіб. Вони вважають, що якщо таку паузу не можна вжити швидко, уряди повинні втрутитися та запровадити мораторій.

Серед підписантів — співзасновник Apple Стів Возняк, співзасновник Skype Яан Таллінн, політик Ендрю Янг та низка відомих дослідників ШІ та генеральних директорів, зокрема Стюарт Рассел, Йошу Бенгіо, Гері Маркус та Емад Мостак.

Проте є повідомлення про те, що імена додаються до списку як жарт (наприклад, генеральний директор OpenAI Сем Альтман, особа, яка частково відповідає за поточну ситуацію).

Як зазначено в листі, навіть сам OpenAI висловив потребу в «незалежному перегляді» майбутніх систем ШІ, щоб переконатися, що вони відповідають стандартам безпеки. Підписанти кажуть, що цей час настав.

«Розробники штучного інтелекту та незалежні експерти повинні використати цей час, щоб спільно розробити та впровадити набір спільних протоколів безпеки для вдосконаленого проєктування та розробки штучного інтелекту. Вони мають ретельно перевірятись та контролюватись незалежними сторонніми експертами», — пишуть автори листа. «Ці протоколи повинні гарантувати, що системи, які їх дотримуються, безпечні поза сумнівом».

Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
По темi
Штучний інтелект руйнує ринок праці. Приблизно 300 млн людей можуть втратити роботу: хто в зоні ризику
Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Apple показала нові AirPods Pro. Що про них відомо
Apple показала нові AirPods Pro. Що про них відомо
Apple показала нові AirPods Pro. Що про них відомо
Apple Watch Series 8 та Apple Watch: що відомо про нові гаджети, які щойно показала компанія Apple
Apple Watch Series 8 та Apple Watch: що відомо про нові гаджети, які щойно показала компанія Apple
Apple Watch Series 8 та Apple Watch: що відомо про нові гаджети, які щойно показала компанія Apple
Як можуть виглядати нові Apple Watch, які ви побачите сьогодні ввечері. Є інсайд
Як можуть виглядати нові Apple Watch, які ви побачите сьогодні ввечері. Є інсайд
Як можуть виглядати нові Apple Watch, які ви побачите сьогодні ввечері. Є інсайд

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.