Законодатели ЕС видят угрозу ChatGPT и AI и не могут договориться, как регулировать такие системы
«Основные модели», или генеративный ИИ, стали главным препятствием в переговорах по предложенному ЕС Закону об искусственном интеллекте.
«Основные модели», или генеративный ИИ, стали главным препятствием в переговорах по предложенному ЕС Закону об искусственном интеллекте.
Базовые модели типа ChatGPT, созданной OpenAI при поддержке Microsoft (MSFT.O), — это системы искусственного интеллекта, обучающиеся на больших наборах данных и имеющие возможность учиться на новых данных для выполнения различных задач.
1 декабря законодатели ЕС собирались для дискуссии о регулировании ИИ накануне финальных переговоров запланированных на 6 декабря относительно Закона об искусственном интеллекте.
Законодатели ЕС не могут договориться о том, как регулировать такие системы, как ChatGPT, пишет Reuters, ссылаясь на шесть источников, из-за угрозы знаковому законодательству, направленному на контроль над искусственным интеллектом.
После двух лет переговоров в июне законопроект был одобрен Европарламентом. Проект правил искусственного интеллекта должен быть согласован на встречах между представителями Европейского парламента, Совета и Европейской комиссии.
Самая большая проблема для получения соглашения возникла со стороны Франции, Германии и Италии, выступающих за то, чтобы позволить производителям генеративных моделей искусственного интеллекта саморегулироваться вместо жестких правил.
По информации, на которую ссылается Reuters, на встрече министров экономики стран 30 октября в Риме Франция убедила Италию и Германию поддержать предложение.
К тому времени переговоры проходили гладко, законодатели шли на компромиссы в ряде других конфликтных сфер, таких как регулирование искусственного интеллекта высокого риска, сообщили источники.
Европейские парламентарии, еврокомиссар Тьерри Бретон и десятки исследователей ИИ критиковали саморегулирование.
В открытом письме этой недели такие исследователи, как Джеффри Хинтон, предупредили, что саморегуляция «вероятно, резко не отвечает стандартам, необходимым для безопасности модели основания».
Французская компания искусственного интеллекта Mistral и немецкая Aleph Alpha подвергли критике многоуровневый подход к регулированию моделей фундамента, заручившись поддержкой своих стран.
Источник, близкий к Mistral, сообщил, что компания предпочитает жесткие правила по продукции, а не технологии, на основе которой она построена.
«Хотя заинтересованные стороны прилагают все усилия, чтобы продолжить переговоры, растущая правовая неопределенность не приносит пользы европейским отраслям промышленности», — сказала Кирстен Рулф, партнер и заместитель директора Boston Consulting Group.
«Европейские компании хотели бы составить планы на следующий год, и многие хотят увидеть уверенность в Законе ЕС об искусственном интеллекте, который вступает в силу в 2024 году», — добавила Кирстен Рулф.
Другие вопросы, ожидающие переговоры, включают определение ИИ, оценку влияния на фундаментальные права, исключения для правоохранительных органов и исключения для национальной безопасности, сообщили Reuters источники.
Законодатели также разделились по использованию систем ИИ правоохранительными органами для биометрической идентификации лиц в общедоступных местах и не смогли прийти к согласию относительно нескольких из этих тем на встрече 29 ноября, сообщили источники.
Испания, председательствующая в ЕС до конца года, пытаясь ускорить процесс, предложила компромиссы.
Если соглашение не состоится в декабре, у следующего президентства Бельгии будет несколько месяцев до одного, прежде чем его, вероятно, отложат на полку накануне выборов в Европарламент.
«Если бы вы спросили меня шесть-семь недель назад, я бы сказал, что мы видим появляющиеся компромиссы по всем ключевым вопросам», — сказал Марк Брейкел, директор по политике в Институте будущей жизни, некоммерческой организации, направленной на снижение рисков, связанных с передовым ИИ. «Сейчас это стало гораздо сложнее», — сказал он.