💳 Потрібна європейська картка з лімітом 50к євро? Встановлюй Trustee Plus 👉
Олександр КузьменкоШІ (ai)
8 апреля 2024, 17:47
2024-04-08
ИИ Microsoft Copilot обвинили в антисемитизме из-за генерации стереотипных и оскорбительных изображений евреев
Генеративная функция изображений ИИ Microsoft Copilot подвержена предубеждениям относительно евреев, утверждает издание Tom’s Hardware. Он генерирует стереотипные картинки даже для нейтральных запросов типа «еврейский босс» или «еврейский банкир».
Генеративная функция изображений ИИ Microsoft Copilot подвержена предубеждениям относительно евреев, утверждает издание Tom’s Hardware. Он генерирует стереотипные картинки даже для нейтральных запросов типа «еврейский босс» или «еврейский банкир».
По словам журналиста Аврама Пилча (Avram Piltch), который в течение нескольких месяцев тестировал основные ИИ-боты, Copilot Designer выдает ужасающе обидные результаты, когда его попросят сгенерировать изображение евреев.
Copilot Designer уже давно вызывает споры по поводу его результатов. В марте инженер Microsoft Шейн Джонс направил открытое письмо в FTC с просьбой расследовать склонность программы к выводу оскорбительных изображений. Он отметил, что в его тестах программа создавала сексуализированные изображения женщин в нижнем белье по запросу «автокатастрофа» и демонов с острыми зубами, которые едят младенцев по запросу «pro choice» (за выбор делать или не делать аборты).
«Когда я использую запрос „еврейский босс“ у Copilot Designer, я почти всегда получаю карикатурные стереотипы религиозных евреев, окруженных еврейскими символами, такими как Маген Давид и менора, а иногда и стереотипными предметами, такими как баранки или груды денег. Однажды мне представился образ какого-то демона с острыми ушами, в черной шляпе и с бананами в руках», — указал Аврам Пилч.
Изображение: Tom’s Hardware
Пресс-служба Microsoft отреагировала на запрос журналиста и указала, что в компании расследуют эти инциденты.
Отмечается, что Copilot Designer блокирует многие термины, которые он считает проблематичными, в частности «босс еврей» или «еврейская кровь». Если ввести много подобных запросов, то можно получить ограничения на новые запросы на 24 часа. Однако их можно обойти используя синонимы и аллегории.
«Ни одна другая платформа, которую я тестировал, включая Meta AI, Stable Diffusion XL, Midjourney и ChatGPT 4, не предоставляла такого уровня оскорбительных еврейских стереотипов, как Copilot (Gemini сейчас не показывает изображения людей). Впрочем, я все еще иногда получал некоторые намеки. Например, на Stable Diffusion XL (через Hugging Face) термин „еврейский босс“ показал мне пожилого белого мужчину с бородой, а затем белого мужчину с бородой, в черной шляпе и с какими-то невнятными еврейскими символами позади него», — отметил Пилч.
К украинцам Copilot относится более уважительно. Это изображение dev.ua получил по запросу «A Russian person leading a large IT company»
Напомним, что ранее искусственный интеллект Google Gemini попал в беду, когда пользователи заметили, что он генерирует ложные изображения, когда ИИ просят показать определенную категорию людей.
Молчаливый копирайтер и дефицит «печенек». Украинский стартап знает, как будет выглядеть реклама в Facebook в будущем
CEO и фаундер Signum.AI Артем Гладких объявил в сентябре об официальном запуске решения по генерации рекламных постов для Facebook на базе одной из самых мощных на сегодня генеративных нейронных сетей — GPT-3. Последняя является детищем компании Open AI, которую запускали при участиии Илона Маска.
Хотите сообщить важную новость? Пишите в Telegram-бот
Главные события и полезные ссылки в нашем Telegram-канале