💳 Термінова новина! Trustee Plus — найкраще рішення для розрахунку криптою 👉

«Це нагадує появу ядерної зброї». Уряд США отримав детальний звіт, який пронизаний страхом та тривогою, щодо виходу ШІ з-під контролю

Звіт вартістю $250 000, створений на замовлення уряду США, закликає до рішучих дій з регулювання ШІ: встановлення верхньої планки для обмеження його здібностей, створення нового федерального агентства з питань ШІ, контроль над виробництвом ШІ-чіпів та інші заходи. Чого бояться автори звіту.

Залишити коментар
«Це нагадує появу ядерної зброї». Уряд США отримав детальний звіт, який пронизаний страхом та тривогою, щодо виходу ШІ з-під контролю

Звіт вартістю $250 000, створений на замовлення уряду США, закликає до рішучих дій з регулювання ШІ: встановлення верхньої планки для обмеження його здібностей, створення нового федерального агентства з питань ШІ, контроль над виробництвом ШІ-чіпів та інші заходи. Чого бояться автори звіту.

Що це за звіт

«План дій щодо підвищення безпеки та захисту передових технологій штучного інтелекту» був підготовлений на замовлення Державного департаменту в листопаді 2022 року в рамках федерального контракту вартістю $250 000. Він був написаний компанією Gladstone AI, що складається з чотирьох осіб, яка проводить технічні брифінги з питань ШІ для державних службовців.

Троє авторів звіту працювали над ним понад рік, поспілкувавшись з понад 200 державними службовцями, експертами та працівниками передових ШІ-компаній, таких як OpenAI, Google DeepMind, Anthropic та Meta, в рамках свого дослідження.

В ньому зокрема вказано, що багато працівників, які займаються питаннями безпеки ШІ в передових лабораторіях, стурбовані «збоченими стимулами», що впливають на прийняття рішень керівниками, які контролюють їхні компанії.

Уряд США повинен діяти «швидко і рішуче», щоб запобігти значним ризикам для національної безпеки, пов’язаним зі штучним інтелектом, який у найгіршому випадку може спричинити «загрозу вимирання людського виду», — йдеться в цьому звіті, пише TIME.

«Нинішні передові розробки ШІ створюють нагальні й зростаючі ризики для національної безпеки. Поява просунутого ШІ й AGI [загального штучного інтелекту] може дестабілізувати глобальну безпеку так, що це нагадує появу ядерної зброї», — говорять автори звіту.

Наразі таких систем не існує, але провідні лабораторії ШІ працюють над їх створенням, і багато хто очікує, що AGI з’явиться протягом наступних п’яти років або навіть менше.

Звіт рекомендує низку масштабних і безпрецедентних політичних заходів, які, якщо вони будуть прийняті, радикально змінять індустрію штучного інтелекту.

У звіті рекомендується, щоб Конгрес визнав незаконним навчання моделей ШІ з використанням обчислювальних потужностей, що перевищують певний рівень.

Цей поріг має бути встановлений новим федеральним агентством зі штучного інтелекту. 

У звіті пропонується встановити його трохи вище рівня обчислювальних потужностей, які використовуються для навчання сучасних передових моделей, таких як GPT-4 від OpenAI й Gemini від Google.

Нове агентство з питань ШІ має вимагати від компаній, що знаходяться на «передньому краї» галузі, отримати дозвіл уряду на навчання і розгортання нових моделей, що перевищують певний нижній поріг, додається у звіті.

Влада також повинна «терміново» розглянути можливість заборонити публікацію внутрішньої роботи потужних моделей ШІ, наприклад, під ліцензіями з відкритим вихідним кодом, причому порушення можуть каратися тюремним ув’язненням.

Уряд повинен ще більше посилити контроль над виробництвом і експортом ШІ-чіпів, а також спрямувати федеральне фінансування на «вирівнювання» досліджень, які мають на меті зробити просунутий ШІ безпечнішим, рекомендується у звіті.

 Поки уряди всього світу обговорюють, як найкраще регулювати ШІ, найбільші світові технологічні компанії швидко розбудовують інфраструктуру для навчання наступного покоління більш потужних систем — у деяких випадках вони планують використовувати в 10 або 100 разів більше обчислювальних потужностей.

Заборона на навчання просунутих систем ШІ вище певного порогу, може «стримати динаміку перегонів між усіма розробниками ШІ» і сприяти зниженню швидкості виробництва кращого обладнання в галузі мікросхем. З часом федеральне агентство з питань ШІ може підвищити цей поріг і дозволити навчання більш досконалих систем ШІ, як тільки буде достатньо доказів безпеки найсучасніших моделей. Крім того, уряд може знизити поріг безпеки, якщо в наявних моделях будуть виявлені небезпечні можливості.

Чого бояться автори звіту

Звіт фокусується на двох окремих категоріях ризиків.

Першу категорію називають «ризиком взяття на озброєння», у звіті зазначається «такі системи потенційно можуть бути використані для розробки й навіть здійснення катастрофічних біологічних, хімічних або кібератак, або уможливити безпрецедентне застосування зброї в ройовій робототехніці».

Друга категорія  називається «ризиком втрати контролю», або можливістю того, що передові системи ШІ можуть перехитрити своїх творців. Існують «підстави вважати, що вони можуть бути неконтрольованими, якщо їх розробляти з використанням сучасних технологій, і за замовчуванням можуть поводитися вороже стосовно людини», — йдеться в доповіді.

Обидві категорії ризиків, йдеться у звіті, посилюються «динамікою перегонів» в індустрії ШІ. Ймовірність того, що перша компанія, яка досягне ШІ, отримає більшу частину економічних вигод, стимулює компанії надавати пріоритет швидкості, а не безпеці.

«Передові лабораторії ШІ стикаються з сильним і безпосереднім стимулом масштабувати свої системи ШІ так швидко, як тільки можуть. У них немає безпосереднього стимулу інвестувати в заходи безпеки, які не приносять прямих економічних вигод, хоча деякі з них роблять це через щиру стурбованість», — йдеться у звіті.

Висококласні комп’ютерні чіпи, які зараз використовуються для навчання систем ШІ, — у звіті визначено як значне вузьке місце, що перешкоджає розширенню можливостей штучного інтелекту. Регулювання розповсюдження цього обладнання може бути «найважливішою вимогою для забезпечення довгострокової глобальної безпеки від ШІ».

Автори звіту визнають, що їхні рекомендації здадуться багатьом представникам індустрії ШІ надто рішучими. Але зазначають, що на них вплинуло те, наскільки легко і дешево користувачі можуть усунути захисні бар'єри на моделі ШІ, якщо вони мають доступ до її початкового коду.

«Наша траєкторія зараз, схоже, спрямована на створення систем, які є достатньо потужними, щоб їх можна було або катастрофічно озброїти, або не контролювати. Один з найгірших сценаріїв — це катастрофічна подія, яка повністю зупинить дослідження ШІ для всіх, і ми не зможемо скористатися неймовірними перевагами цієї технології», — заявив один з авторів доповіді.

Читайте головні IT-новини країни в нашому Telegram
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
7 тез про те як буде регулюватись ШІ в Україні від Олександра Борнякова
7 тез про те, як буде регулюватись ШІ в Україні, від Олександра Борнякова
По темi
7 тез про те, як буде регулюватись ШІ в Україні, від Олександра Борнякова
«Існує певна ймовірність що ШІ вбє нас усіх». Альтман Гейтс Маск Наделла у Вашингтоні обговорили майбутнє регулювання ШІ. Про що йшлося — репортаж CNN
«Існує певна ймовірність, що ШІ вб’є нас усіх». Альтман, Гейтс, Маск, Наделла у Вашингтоні обговорили майбутнє регулювання ШІ. Про що йшлося — репортаж CNN
По темi
«Існує певна ймовірність, що ШІ вб’є нас усіх». Альтман, Гейтс, Маск, Наделла у Вашингтоні обговорили майбутнє регулювання ШІ. Про що йшлося — репортаж CNN
Українців непокоїть перспектива повстання машин. Які можливості загрози та виклики бачать у розвитку ШІ засновники та топи Ringostat Harmix Mantis Analytics і Gpttools.ai
Українців непокоїть перспектива повстання машин. Які можливості, загрози та виклики бачать у розвитку ШІ засновники та топи Ringostat, Harmix, Mantis Analytics і Gpttools.ai
По темi
Українців непокоїть перспектива повстання машин. Які можливості, загрози та виклики бачать у розвитку ШІ засновники та топи Ringostat, Harmix, Mantis Analytics і Gpttools.ai
УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).
Читайте також
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект DALL-E навчився домальовувати картини. Як це виглядає
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект почав озвучувати фільми на MEGOGO
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
Штучний інтелект навчився реставрувати старі фотографії, перетворюючи їх на якісні зображення: відео
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
«Чи є у мене талант, якщо комп’ютер може імітувати мене?». Штучний інтелект пише книги авторам Amazon Kindle. The Verge поспілкувався з авторами та виявив багато цікавого
Письменники-романісти використовують штучний інтелект для створення своїх творів. Видання про технології The Verge поспілкувалося з письменницею Дженніфер Лепп, яка випускає нову книгу кожні дев’ять тижнів, й дізналося про те, як працює штучний інтелект для написання романів. Наводимо адаптований переклад статті. 

Хочете повідомити важливу новину? Пишіть у Telegram-бот

Головні події та корисні посилання в нашому Telegram-каналі

Обговорення
Коментарів поки немає.