💳 Термінова новина! Trustee Plus — найкраще рішення для розрахунку криптою 👉

«Это напоминает появление ядерного оружия». Правительство США получило подробный отчет, пронизанный страхом и тревогой, насчет выхода ИИ из-под контроля

Отчет стоимостью $250 000, созданный по заказу правительства США, призывает к решительным действиям по регулированию ИИ: установление верхней планки для ограничения его способностей, создание нового федерального агентства по ИИ, контроль над производством ИИ-чипов и другие мероприятия. Чего опасаются авторы отчета.

Оставить комментарий
«Это напоминает появление ядерного оружия». Правительство США получило подробный отчет, пронизанный страхом и тревогой, насчет выхода ИИ из-под контроля

Отчет стоимостью $250 000, созданный по заказу правительства США, призывает к решительным действиям по регулированию ИИ: установление верхней планки для ограничения его способностей, создание нового федерального агентства по ИИ, контроль над производством ИИ-чипов и другие мероприятия. Чего опасаются авторы отчета.

Что это за отчет

«План действий по повышению безопасности и защите передовых технологий искусственного интеллекта» был подготовлен по заказу Государственного департамента в ноябре 2022 года в рамках федерального контракта стоимостью $250 000. Он был написан компанией Gladstone AI, состоящей из четырех человек, проводящей технические брифинги по вопросам ИИ для государственных служащих.

Три автора отчета работали над ним более года, пообщавшись с более чем 200 государственными служащими, экспертами и работниками передовых ШИ-компаний, таких как OpenAI, Google DeepMind, Anthropic и Meta, в рамках своего исследования.

В нем, в частности, указано, что многие работники, занимающиеся вопросами безопасности ИИ в передовых лабораториях, озабочены «извращенными стимулами», влияющими на принятие решений руководителями, контролирующими их компании.

Правительство США должно действовать «быстро и решительно», чтобы предотвратить значительные риски для национальной безопасности, связанные с искусственным интеллектом, который в худшем случае может повлечь за собой «угрозу вымирания человеческого вида», — говорится в этом отчете, пишет TIME.

«Нынешние передовые разработки ИИ создают неотложные и растущие риски для национальной безопасности. Появление продвинутого ИИ и AGI [общего искусственного интеллекта] может дестабилизировать глобальную безопасность так, что это похоже на появление ядерного оружия», — говорят авторы отчета.

Пока таких систем не существует, но ведущие лаборатории ИИ работают над их созданием, и многие ожидают, что AGI появится в течение следующих пяти лет или даже меньше.

Отчет рекомендует ряд масштабных и беспрецедентных политических мер, которые, если они будут приняты, радикально изменят индустрию искусственного интеллекта .

В отчете рекомендуется, чтобы Конгресс признал незаконным обучение моделей ИИ с использованием вычислительных мощностей, превышающих определенный уровень.

Этот порог должен быть установлен новым федеральным агентством по искусственному интеллекту.

В отчете предлагается установить его несколько выше уровня вычислительных мощностей, используемых для обучения современным передовым моделям, таким как GPT-4 от OpenAI и Gemini от Google .

Новое агентство по вопросам ИИ должно требовать от компаний, находящихся на «переднем крае» отрасли, получить разрешение правительства на обучение и развертывание новых моделей, превышающих определенный нижний порог, добавляется в отчете.

Власти также должны «срочно» рассмотреть возможность запретить публикацию внутренней работы мощных моделей ИИ, например, под лицензиями с открытым исходным кодом, причем нарушения могут наказываться тюремным заключением.

Правительство должно еще больше усилить контроль над производством и экспортом ИИ-чипов, а также направить федеральное финансирование на «выравнивание» исследований, цель которых сделать продвинутый ИИ безопаснее, рекомендуется в отчете.

Пока правительства всего мира обсуждают, как лучше всего регулировать ИИ, крупнейшие мировые технологические компании быстро строят инфраструктуру для обучения следующего поколения более мощных систем — в некоторых случаях они планируют использовать в 10 или 100 раз больше вычислительных мощностей.

Запрет на обучение продвинутых систем ИИ выше определенного порога может «сдержать динамику гонки между всеми разработчиками ИИ» и способствовать снижению скорости производства лучшего оборудования в области микросхем. Со временем федеральное агентство по вопросам ИИ может повысить этот порог и разрешить обучение более совершенным системам ИИ, как только будет достаточно доказательств безопасности самых современных моделей. Кроме того, правительство может снизить порог безопасности, если в имеющихся моделях будут обнаружены опасные возможности.

Чего боятся авторы отчета

Отчет фокусируется на двух отдельных категориях рисков.

Первую категорию называют «риском взятия на вооружение», в отчете указывается «такие системы потенциально могут быть использованы для разработки и осуществления катастрофических биологических, химических или кибератак, или предотвратить беспрецедентное применение оружия в роевой робототехнике «.

Вторая категория называется «риском потери контроля» или возможностью того, что передовые системы ИИ могут перехитрить своих создателей. Существуют «основания считать, что они могут быть неконтролируемыми, если их разрабатывать с использованием современных технологий, и по умолчанию могут вести себя враждебно по отношению к человеку», — говорится в докладе.

Обе категории рисков, говорится в отчете, усиливаются «динамикой гонки» в индустрии ИИ. Вероятность того, что первая компания, которая достигнет ИИ, получит большую часть экономических выгод, стимулирует компании придавать приоритет скорости, а не безопасности.

«Передовые лаборатории ИИ сталкиваются с сильным и непосредственным стимулом масштабировать свои системы ИИ так быстро, как только могут. У них нет непосредственного стимула инвестировать в меры безопасности, которые не приносят прямых экономических выгод, хотя некоторые из них делают это из-за искренней озабоченности», — говорится в отчете.

Высококлассные компьютерные чипы, используемые сейчас для обучения систем ИИ, — в отчете определены как значительное узкое место, препятствующее расширению возможностей искусственного интеллекта. Регулирование распространения оборудования может быть «важнейшим требованием для обеспечения долгосрочной глобальной безопасности от ИИ».

Авторы отчета признают, что их рекомендации покажутся многим представителям индустрии ИИ слишком решительны. Но отмечают, что на них повлияло то, как легко и дешево пользователи могут устранить защитные барьеры на модели ИИ, если они имеют доступ к ее исходному коду.

«Наша траектория сейчас, похоже, направлена ​​на создание систем, которые достаточно мощны, чтобы их можно было либо катастрофически вооружить, либо не контролировать. Один из самых плохих сценариев — это катастрофическое событие, которое полностью остановит исследования ИИ для всех, и мы не сможем воспользоваться невероятными преимуществами этой технологии», — заявил один из авторов доклада.

Читайте главные IT-новости страны в нашем Telegram
Читайте главные IT-новости страны в нашем Telegram
По теме
Читайте главные IT-новости страны в нашем Telegram
7 тезисов о том, как будет регулироваться ИИ в Украине от Александра Борнякова
7 тезисов о том, как будет регулироваться ИИ в Украине, от Александра Борнякова
По теме
7 тезисов о том, как будет регулироваться ИИ в Украине, от Александра Борнякова
«Существует определенная вероятность, что ШИ убьет нас всех». Альтман Гейтс Маск Наделла в Вашингтоне обсудили будущее регулирование ИИ. О чем говорилось — репортаж CNN
«Существует определенная вероятность, что ИИ убьет всех нас». Альтман, Гейтс, Маск, Наделла в Вашингтоне обсудили будущее регулирование ИИ. О чем говорилось — репортаж CNN
По теме
«Существует определенная вероятность, что ИИ убьет всех нас». Альтман, Гейтс, Маск, Наделла в Вашингтоне обсудили будущее регулирование ИИ. О чем говорилось — репортаж CNN
Украинцев беспокоит перспектива восстания машин. Какие возможности угрозы и вызовы видят в развитии ИИ основатели и топы Ringostat Harmix Mantis Analytics и Gpttools.ai
Украинцев беспокоит перспектива восстания машин. Какие возможности, угрозы и вызовы видят в развитии ИИ основатели и топы Ringostat, Harmix, Mantis Analytics и Gpttools.ai
По теме
Украинцев беспокоит перспектива восстания машин. Какие возможности, угрозы и вызовы видят в развитии ИИ основатели и топы Ringostat, Harmix, Mantis Analytics и Gpttools.ai
УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).
Читайте также
Новое вооружение от США: чего ждать Украине
Новое вооружение от США: чего ждать Украине
Новое вооружение от США: чего ждать Украине
Айтишник-гражданин США: «Многие американцы уезжают из Украины»
Айтишник-гражданин США: «Многие американцы уезжают из Украины»
Айтишник-гражданин США: «Многие американцы уезжают из Украины»
США планируют ввести санкции против России. Первопричина - кибератаки на Украину
США планируют ввести санкции против России. Первопричина - кибератаки на Украину
США планируют ввести санкции против России. Первопричина - кибератаки на Украину
Collaba. Искусственный интеллект помог Ивану Дорну найти музыкальные таланты
Collaba. Искусственный интеллект помог Ивану Дорну найти музыкальные таланты
Collaba. Искусственный интеллект помог Ивану Дорну найти музыкальные таланты

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментариев пока нет.