😍 Спробуй Новий Trustee Plus на дотик - твій криптогаманець і платіжна картка тут 👉
Олександр КузьменкоШІ (ai)
7 июня 2024, 13:07
2024-06-07
Американские разработчики искусственного интеллекта выступают против закона, предусматривающего добавление «kill switch» технологии для отключения ИИ
Основывающиеся в Калифорнии ведущие разработчики искусственного интеллекта выступают против предложенного законопроекта, предусматривающего строгие стандарты безопасности, включая внедрение «аварийного выключателя» (kill switch) для отключения их передовых моделей искусственного интеллекта.
Основывающиеся в Калифорнии ведущие разработчики искусственного интеллекта выступают против предложенного законопроекта, предусматривающего строгие стандарты безопасности, включая внедрение «аварийного выключателя» (kill switch) для отключения их передовых моделей искусственного интеллекта.
Об этом говорится в материале Financial Times. В нем указано, что законодательный орган Калифорнии рассматривает меры, которые наложат новые ограничения на деятельность технологических компаний в штате. Эти условия касаются таких известных стартапов в сфере ИИ как OpenAI, Anthropic и Cohere, а также основных языковых моделей, используемых такими компаниями, как Meta.
Законопроект требует от калифорнийских групп разработчиков ИИ заверить государственные органы, что они не будут разрабатывать модели с опасными возможностями, которые могут создавать биологическое или ядерное оружие, или помогать в кибератаках. Кроме того, разработчики должны были отчитываться о своих протоколах тестирования безопасности и ввести «аварийный выключатель» для своих моделей.
Однако эти положения получили холодное восприятие многих представителей Кремниевой долины. Они утверждают, что эти законы могут вытеснить стартапы в области ИИ из штата и помешать таким платформам, как Meta, работать с моделями с открытым исходным кодом. Эндрю Ин, ученый-компьютерщик, руководивший проектами по созданию искусственного интеллекта для Google Alphabet и китайской Baidu, а также входящий в совет директоров Amazon, заявил, что эти правила могут иметь «удушающий эффект» на инновации.
Ранее Илон Маск, один из первых инвесторов OpenAI, называл эту технологию «экзистенциальной угрозой» для человечества. Недавно коллектив нынешних и бывших сотрудников OpenAI опубликовал открытое письмо, в котором подчеркнул, что ведущие фирмы, занимающиеся разработкой ИИ, не имеют достаточного государственного надзора и составляют «серьезные риски» для человечества.
В январе 2024 года глава OpenAI Сэм Альтман заявил, что не существует «магической красной кнопки», которая бы остановила ИИ. По его словам, безопасность — это не бинарный вопрос использования или неиспользования технологии; это «множество маленьких решений на этом пути». Альтман напомнил, что из-за этого запуск GPT-4 был отложен на 7–8 месяцев.
«Не существует красной кнопки, которая взорвала бы все дата-центры». 6 самых интересных тезисов о ИИ из разговора Сэма Альтмана и Сатья Наделли в Давосе
ИИ создает «риск вымирания» наравне с пандемией и ядерной войной. Такое заявление подписали более 350 ученых и IT-топов. Среди них — Сэм Альтман из Open AI, руководители Microsoft, Google AI, Skype, Quora и другие.
Підключай Megogo зі знижками за акційними тарифами.
Молчаливый копирайтер и дефицит «печенек». Украинский стартап знает, как будет выглядеть реклама в Facebook в будущем
CEO и фаундер Signum.AI Артем Гладких объявил в сентябре об официальном запуске решения по генерации рекламных постов для Facebook на базе одной из самых мощных на сегодня генеративных нейронных сетей — GPT-3. Последняя является детищем компании Open AI, которую запускали при участиии Илона Маска.
Хотите сообщить важную новость? Пишите в Telegram-бот
Главные события и полезные ссылки в нашем Telegram-канале