Вікторія ГорбікТакая жизнь
31 марта 2023, 10:37
2023-03-31
Нужна ли пауза или это только притянутый за уши ажиотаж. Кто и зачем написал письмо о приостановлении развития искусственного интеллекта
На днях в сети распространилось письмо, подписанное 30 000 экспертами, ведущими исследователями искусственного интеллекта и известными людьми, в частности Илоном Маском, Стивом Возняком, Эндрю Янгом. Большинство подписавшихся отказались от своих позиций. Об этом пишет VICE.
Кто принял участие в мероприятии и как это повлияет на развитие искусственного интеллекта в мировом масштабе.
На днях в сети распространилось письмо, подписанное 30 000 экспертами, ведущими исследователями искусственного интеллекта и известными людьми, в частности Илоном Маском, Стивом Возняком, Эндрю Янгом. Большинство подписавшихся отказались от своих позиций. Об этом пишет VICE.
Кто принял участие в мероприятии и как это повлияет на развитие искусственного интеллекта в мировом масштабе.
Что говорится в письме
Вот, что говорится в письме:
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми. Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучения систем искусственного интеллекта более мощных, чем GPT-4».
«Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов безопасности для продвинутого проектирования и разработки ИИ, тщательно проверяемых и контролируемых независимыми сторонними экспертами».
«Это не означает приостановку развития искусственного интеллекта в целом, а просто уход от опасной гонки (соревнования между технологическими компаниями, как Microsoft и Google) к все большим и непредсказуемым моделям черного ящика с новыми возможностями».
Об инициаторе и подписантах
Инициатором письма стала некоммерческая организация Институт будущей жизни, которая стремится «уменьшить глобальный катастрофический и экзистенциальный риск от мощных технологий». Одним из таких рисков считается сверхумный искусственный интеллект.
Илон Маск в 2015 году пожертвовал институту $10 млн.
Проверку подписантов осуществлял Институт будущей жизни Motherboard, и они были «независимо проверены через прямое общение».
Помимо вышеназванных имен свои подписи под письмом поставили генеральный директор Stability AI Эмад Мостаке, писатель и историк Юваль Ной Харари и соучредитель Pinterest Эван Шарп. Также есть подписи сотрудников компаний Google DeepMind и Microsoft, участвующих в гонке вооружений ИИ.
Никто из OpenAI, компании-разработчика моделей GPT на основе искусственного интеллекта, не подписал письмо.
Но обнаружили фальшивые подписи генерального директора OpenAI Сэма Альтмана, президента Китая Си Цзиньпина и главного ученого по искусственному интеллекту Meta Янна Лекуна.
Кто «ЗА»
Среди тех, кто выразился в поддержку письма Гарри Маркуса, профессора психологии и нейронауки в Нью-Йоркском университете, который сказал Reuters, что «буква не идеальна, но дух правильный».
«Да, я не думаю, что шестимесячная пауза является лучшей идеей или соглашаюсь со всем, но в этом письме есть несколько интересных вещей», — сказал Эмад Мостаке, генеральный директор компании Stability.AI, конкурента OpenAI.
На пресс-конференции в среду один из известных подписантов Йошуа Бенгио — канадский компьютерный ученый, который был одним из первых ученых, разработавших глубокую учебу, а также основатель и научный директор исследовательского института Мила — сказал журналистам, что шестимесячный перерыв необходим органам управления, включая правительства, для понимания, аудита и проверки систем, чтобы они были безопасны для общественности.
Макс Тегмарк, профессор физики в Институте искусственного интеллекта и фундаментальных взаимодействий Массачусетского технологического института NSF (IAIFI) и президент Института будущей жизни, сказал, что худший сценарий состоит в том, что люди будут постепенно терять все больше и больше контроля над цивилизацией.
Ажиотаж наносит больше вреда
Арвинд Нараянан, доцент кафедры компьютерных наук Принстонского университета, повторил, что открытое письмо было полон ажиотажа относительно искусственного интеллекта, который «усложняет борьбу с реальным вредом искусственного интеллекта».
«Это, по сути, неправильное направление: привлечение внимания всех к гипотетическим возможностям и ущербу LLM и предложение (очень расплывчатого и неэффективного) способа их устранения, вместо того чтобы рассматривать вред здесь и сейчас и решать его — например, требовать большей прозрачности, когда это приходит к учебным данным и возможностям магистратуры или законодательства по поводу того, где и когда их можно использовать», — сказал Motherboard Саша Лучиони, научный сотрудник и руководитель отдела климата в Hugging Face.
Неверные трактовки
Эмили М. Бендер, профессор кафедры лингвистики Вашингтонского университета и соавтор первой статьи, на которую ссылается письмо, написала в Twitter, что это открытое письмо «насыщенное #Aihype» и что в письме неправильно используются ее исследования.
В письме сказано: «Системы искусственного интеллекта с интеллектом, конкурирующим между людьми, могут представлять серьезные риски для общества и человечества, как показали многочисленные исследования». Но Бендер возражает, это.
«В конце 2020 года мы написали целую статью (Stochastic Parrots, опубликованная в 2021 году), указывая на то, что эта стремительная спешка ко все большим языковым моделям без учета рисков была плохим делом. Но риски и вред никогда не касались «слишком мощного искусственного интеллекта», — написала она.
О замене людей компьютерами
Отдельными вопросами в письме были:
«Должны ли мы автоматизировать все работы, включая выполняющие задания? Должны ли мы развивать бесчеловечные умы, которые со временем могут превзойти, перехитрить, устареть и заменить нас? Следует ли рисковать потерей контроля над нашей цивилизацией?»
Нараянан сказал, что эти вопросы «ерунда» и «смешно». Он отмечает, что, наконец, ИИ уже интегрируется в рабочие места людей и уменьшает потребность в определенных профессиях, не будучи «бесчеловечным умом», который сделает нас «устаревшими». А такие призывы отвлекают от текущих проблем.
К современным проблемам
Тимнит Гебру, компьютерный ученый и основатель Distributed Artificial Intelligence Research Institute, написал в Твиттере, что удивительно, что они призывают приостановить использование моделей более мощных, чем GPT-4, но не учитывают большое количество проблем, связанных с GPT-4. 4 себя.
«Другие вещи могут быть „катастрофическими“, но нынешние вещи, когда всем африканцам платят копейки за посттравматическое стрессовое расстройство, массовое воровство данных и т. п., я считаю, что это „процветание человека“ и „удобства для всех“», — добавил Гебру.
Roosh запускает новую образовательную платформу AI HOUSE CLUB для ML/AI-специалистов и дата сайнтистов. Рассказываем, как подать заявку и чему будут учить
Как нейросети видят свободную и независимую Украину? Тест dev.ua
Нейронные сети для генерации изображений видят мир по-своему, их логику понять порой совершенно невозможно. Но все-таки хочется. И в честь Дня Независимости Украины редакция dev.ua решила провести небольшой эксперимент.
Мы задали четырем разным нейронным сетям пять одинаковых запросов: «флаг Украины», «День Независимости Украины», «украинский Крым», «победа Украины» и «украинцы». Получившимися результатами мы делимся с вами ниже.
В TikTok теперь можно генерировать фон при помощи нейросети. Мы протестировали ее и делимся результатами
В TikTok появилась новая функция «Умный фон». С ее помощью в качестве фонов для тиктоков можно подставлять сгенерированные нейросетью изображения. Редакция dev.ua протестировала эту возможность и делится своими впечатлениями.
Більшість великих проектів що займаються АІ вже відписали, що нічого призупиняти не збираються