Илон Маск, Стив Возняк и исследователи AI призывают поставить на паузу эксперименты с искусственным интеллектом.
Несколько известных исследователей искусственного интеллекта и экспертов в области, включая Илона Маска, подписали открытое письмо, в котором призывают разработчиков искусственного интеллекта приостановить работу над широкомасштабными системами искусственного интеллекта, ссылаясь на страхи по поводу «глубоких рисков для общества».
Как сообщает The Verge, в письме, опубликованном некоммерческой организацией Future of Life Institute, отмечается, что лаборатории искусственного интеллекта находятся в «гонке, выходящей из-под контроля» по разработке и развертыванию систем машинного обучения, «которые никто — даже их создатели — не могут понять, предусмотреть или надежно контролировать».
В письме отмечается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в положительных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми II-систем, что может привести к экономическим или политическим потрясениям. Разработчики призывают тесно сотрудничать с регуляторами.
«Большие исследования показали, что подобные системы с искусственным интеллектом, конкурирующие с человеком, могут представлять серьезную опасность для всего человечества», — говорится в письме.
Письмо опубликовано после того, как к группе обеспокоенных развитием II присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами типа ChatGPT — их можно использовать для фишинга, дезинформации и киберпреступлений. Маск, чья компания Tesla достаточно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью II-систем.
С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые заставили конкурентов срочно активизировать разработку собственных крупных языковых моделей. В результате компании начали быстро интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.
По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не станет лучше понимать последствия, поскольку II-системы способны нанести серьезный вред. Особенно с учетом того, что крупные игроки хранят в тайне информацию о том, над чем они работают, поэтому обществу трудно защититься в случае, если опасения оправдаются.
«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, мощнее GPT-4», — говорится в письме.
Эта пауза, по мнению исследователей, должна быть общедоступна для проверки и включать всех ключевых действующих лиц. Они считают, что если такую паузу нельзя применить быстро, правительства должны вмешаться и ввести мораторий.
Среди подписантов — соучредитель Apple Стив Возняк, соучредитель Skype Яан Таллин, политик Эндрю Янг и ряд известных исследователей ИИ и генеральных директоров, в частности Стюарт Рассел, Йошу Бенгио, Гэри Маркус и Эмад Мостак.
Однако есть сообщения о том, что имена добавляются в список как шутка (например, генеральный директор OpenAI Сэм Альтман, лицо, частично отвечающее за текущую ситуацию).
Как указано в письме,даже сам OpenAI выразил необходимость «независимого просмотра» будущих систем ИИ, чтобы убедиться, что они соответствуют стандартам безопасности. Подписанты говорят, что это время пришло.
«Разработчики искусственного интеллекта и независимые эксперты должны использовать это время, чтобы совместно разработать и внедрить набор общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта. Они должны тщательно проверяться и контролироваться независимыми сторонними экспертами», — пишут авторы письма. «Эти протоколы должны гарантировать, что придерживающиеся их системы безопасны несомненно».
Что делать, чтобы ваши твиты не блокировали кремлеботы. Инструкция
Социальная сеть Twitter — одна из главных площадок для распространения информации о войне в Украине западному сообществу. Но где правда о войне, там сразу появляются боты Кремля, бросающие забастовки. Рассказываем, что делать, чтобы ваши твиты не блокировали.
Хотите сообщить важную новость? Пишите в Telegram-бот
Главные события и полезные ссылки в нашем Telegram-канале