💰🚀 USDT, BTC, ETH - це все просто купляється в Trustee Plus в пару кліків. Встановлюй 👉
Олександр КузьменкоШІ (ai)
13 марта 2024, 11:05
2024-03-13
«Это напоминает появление ядерного оружия». Правительство США получило подробный отчет, пронизанный страхом и тревогой, насчет выхода ИИ из-под контроля
Отчет стоимостью $250 000, созданный по заказу правительства США, призывает к решительным действиям по регулированию ИИ: установление верхней планки для ограничения его способностей, создание нового федерального агентства по ИИ, контроль над производством ИИ-чипов и другие мероприятия. Чего опасаются авторы отчета.
Правительство США должно действовать «быстро и решительно», чтобы предотвратить значительные риски для национальной безопасности, связанные с искусственным интеллектом, который в худшем случае может повлечь за собой «угрозу вымирания человеческого вида», — говорится в этом отчете, пишет TIME.
«Нынешние передовые разработки ИИ создают неотложные и растущие риски для национальной безопасности. Появление продвинутого ИИ и AGI [общего искусственного интеллекта] может дестабилизировать глобальную безопасность так, что это похоже на появление ядерного оружия», — говорят авторы отчета.
Пока таких систем не существует, но ведущие лаборатории ИИ работают над их созданием, и многие ожидают, что AGI появится в течение следующих пяти лет или даже меньше.
Отчет рекомендует ряд масштабных и беспрецедентных политических мер, которые, если они будут приняты, радикально изменят индустрию искусственного интеллекта .
В отчете рекомендуется, чтобы Конгресс признал незаконным обучение моделей ИИ с использованием вычислительных мощностей, превышающих определенный уровень.
Этот порог должен быть установлен новым федеральным агентством по искусственному интеллекту.
В отчете предлагается установить его несколько выше уровня вычислительных мощностей, используемых для обучения современным передовым моделям, таким как GPT-4 от OpenAI и Geminiот Google .
Новое агентство по вопросам ИИ должно требовать от компаний, находящихся на «переднем крае» отрасли, получить разрешение правительства на обучение и развертывание новых моделей, превышающих определенный нижний порог, добавляется в отчете.
Власти также должны «срочно» рассмотреть возможность запретить публикацию внутренней работы мощных моделей ИИ, например, под лицензиями с открытым исходным кодом, причем нарушения могут наказываться тюремным заключением.
Правительство должно еще больше усилить контроль над производством и экспортом ИИ-чипов, а также направить федеральное финансирование на «выравнивание» исследований, цель которых сделать продвинутый ИИ безопаснее, рекомендуется в отчете.
Пока правительства всего мира обсуждают, как лучше всего регулировать ИИ, крупнейшие мировые технологические компании быстро строят инфраструктуру для обучения следующего поколения более мощных систем — в некоторых случаях они планируют использовать в 10 или 100 раз больше вычислительных мощностей.
Запрет на обучение продвинутых систем ИИ выше определенного порога может «сдержать динамику гонки между всеми разработчиками ИИ» и способствовать снижению скорости производства лучшего оборудования в области микросхем. Со временем федеральное агентство по вопросам ИИ может повысить этот порог и разрешить обучение более совершенным системам ИИ, как только будет достаточно доказательств безопасности самых современных моделей. Кроме того, правительство может снизить порог безопасности, если в имеющихся моделях будут обнаружены опасные возможности.
Чего боятся авторы отчета
Отчет фокусируется на двух отдельных категориях рисков.
Первую категорию называют «риском взятия на вооружение», в отчете указывается «такие системы потенциально могут быть использованы для разработки и осуществления катастрофических биологических, химических или кибератак, или предотвратить беспрецедентное применение оружия в роевой робототехнике «.
Вторая категория называется «риском потери контроля» или возможностью того, что передовые системы ИИ могут перехитрить своих создателей. Существуют «основания считать, что они могут быть неконтролируемыми, если их разрабатывать с использованием современных технологий, и по умолчанию могут вести себя враждебно по отношению к человеку», — говорится в докладе.
Обе категории рисков, говорится в отчете, усиливаются «динамикой гонки» в индустрии ИИ. Вероятность того, что первая компания, которая достигнет ИИ, получит большую часть экономических выгод, стимулирует компании придавать приоритет скорости, а не безопасности.
«Передовые лаборатории ИИ сталкиваются с сильным и непосредственным стимулом масштабировать свои системы ИИ так быстро, как только могут. У них нет непосредственного стимула инвестировать в меры безопасности, которые не приносят прямых экономических выгод, хотя некоторые из них делают это из-за искренней озабоченности», — говорится в отчете.
Высококлассные компьютерные чипы, используемые сейчас для обучения систем ИИ, — в отчете определены как значительное узкое место, препятствующее расширению возможностей искусственного интеллекта. Регулирование распространения оборудования может быть «важнейшим требованием для обеспечения долгосрочной глобальной безопасности от ИИ».
Авторы отчета признают, что их рекомендации покажутся многим представителям индустрии ИИ слишком решительны. Но отмечают, что на них повлияло то, как легко и дешево пользователи могут устранить защитные барьеры на модели ИИ, если они имеют доступ к ее исходному коду.
«Наша траектория сейчас, похоже, направлена на создание систем, которые достаточно мощны, чтобы их можно было либо катастрофически вооружить, либо не контролировать. Один из самых плохих сценариев — это катастрофическое событие, которое полностью остановит исследования ИИ для всех, и мы не сможем воспользоваться невероятными преимуществами этой технологии», — заявил один из авторов доклада.
УЧАСТЬ В АЗАРТНИХ ІГРАХ МОЖЕ ВИКЛИКАТИ ІГРОВУ ЗАЛЕЖНІСТЬ. ДОТРИМУЙТЕСЯ ПРАВИЛ (ПРИНЦИПІВ) ВІДПОВІДАЛЬНОЇ ГРИ.
Ліцензія видана ТОВ "СЛОТС Ю.ЕЙ." на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 15.09.23 (рішення КРАІЛ №245 від 31.08.2023); ТОВ "СЛОТС Ю.ЕЙ." – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 26.04.2021 (рішення КРАІЛ №150 від 12.04.2021); ТОВ «СПЕЙСИКС» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 08.02.2021 (рішення КРАІЛ №34 від 02.02.2021); ТОВ «ГЕЙМДЕВ» – на провадження діяльності з організації та проведення азартних ігор казино у мережі Інтернет від 16.02.2021 (рішення № 47 від 10.02.2021).