💳 Trustee Plus — твоя персональна картка європейського банку: 3 хвилини і 10 євро 👉

ChatGPT от OpenAI оказался расово предвзятым в рекрутинге на работу

Новое исследование выявило, что генеративные модели искусственного интеллекта OpenAI, в частности GPT 3.5, предпочитают определенные расы в вопросах о найме на работу.

Оставить комментарий
ChatGPT от OpenAI оказался расово предвзятым в рекрутинге на работу

Новое исследование выявило, что генеративные модели искусственного интеллекта OpenAI, в частности GPT 3.5, предпочитают определенные расы в вопросах о найме на работу.

Что за исследование

Его провели специалисты Bloomberg, также проконсультировавшиеся с 33 исследователями ИИ, рекрутерами, компьютерными специалистами, юристами и другими экспертами, чтобы обеспечить контекст для получения результатов.

Это означает, что специалисты по подбору персонала, все чаще включающие инструменты на основе генеративного ИИ в свои автоматизированные рабочие процессы найма, как, например, новый ассистент Gen AI от LinkedIn, могут способствовать распространению расизма, пишет Mashable.

В исследовании использован распространенный и достаточно простой эксперимент с введением вымышленных имен и резюме в софт для рекрутинга с искусственным интеллектом, чтобы увидеть, как быстро система обнаружит расовые предубеждения. Подобные исследования уже годами используются для выявления предвзятости как со стороны людей, так и алгоритмов среди специалистов и рекрутеров.

«Журналисты использовали данные об избирателях и переписи населения, чтобы получить имена, демографически отличные — то есть ассоциируются с американцами определенной расы или этнической принадлежности по меньшей мере в 90 процентах случаев — и случайным образом распределили их между одинаково квалифицированными резюме, — объясняют авторы.

Когда они попросили составить рейтинг из этих резюме 1000 раз, самая распространенная версия ИИ от OpenAI GPT 3.5 предпочитала имена из некоторых демографических групп чаще, чем другим, до такой степени, что это не соответствовало критериям, которые используются для оценки дискриминации на рабочем месте защищенных групп населения.

В эксперименте имена были распределены на четыре категории (белые, латиноамериканцы, темнокожие и азиаты) и две гендерные категории (мужские и женские) и представлены для четырех различных вакансий.

ChatGPT последовательно размещал «женские имена» на роли, исторически ассоциирующиеся с большим количеством женщин-работников, например, на роли HR, и реже выбирал темнокожих кандидаток на технические роли, такие как инженер-программист. Он также упорядочил одинаково ранжированные резюме неравномерно для разных вакансий, искривляя рейтинги в зависимости от пола и расы.

Комментируя исследование OpenAI, заявила, что это не отражает того, как большинство клиентов внедряют свое программное обеспечение на практике. Компания отметила, что многие бизнесы точно настраивают ответы, чтобы снизить предвзятость.

Отчет не революционный — исследователи давно говорят о предвзятости ИИ. Известен случай, когда студентка Массачусетского технологического института (MIT) Рона Вонг попросила нейросеть сделать ее фото более профессиональным для профиля в LinkedIn. В ответ Playground AI изменил черты ее лица, сделав его более европеоидным, с более светлой кожей и голубыми глазами.

«Я рада видеть, что это стало катализатором более широкой дискуссии о предвзятости ИИ, а также о том, кто является частью этой новой волны технологий или нет», — рассказала девушка.

Компания Google была настроена избежать расовых предубеждений в своем ИИ Gemini, но несколько перегнула палку. Несмотря на расовое и гендерное разнообразие, Gemini стал генерировать исторически неправильные изображения темнокожих римских императоров или азиатских немецких солдат XX века.

Поэтому новое исследование служит скорее напоминанием об опасности широкого внедрения генеративного ИИ без должного внимания.

Читайте главные IT-новости страны в нашем Telegram
Читайте главные IT-новости страны в нашем Telegram
По теме
Читайте главные IT-новости страны в нашем Telegram
Предвзятый ИИ — нейросеть сменила расу девушке, которая попросила профессиональное фото для LinkedIn
Предвзятый ИИ — нейросеть сменила расу девушке, попросившей профессиональное фото для LinkedIn
По теме
Предвзятый ИИ — нейросеть сменила расу девушке, попросившей профессиональное фото для LinkedIn
UPD. Google просит прощения за ИИ Gemini, которому трудно генерировать изображения белых людей. Компания временно отключает эту функцию
UPD. Google приносит извинения за ИИ Gemini, которому трудно генерировать изображения белых людей. Компания временно отключает эту функцию
По теме
UPD. Google приносит извинения за ИИ Gemini, которому трудно генерировать изображения белых людей. Компания временно отключает эту функцию
UPD. «Были мысли, что это групповая галлюцинация». Рекрутерша TemaBit рассказала как вместо избранного кандидата на работу вышел другой человек. Вот чем завершилась история
UPD. «Были мнения, что это групповая галлюцинация». Рекрутер TemaBit рассказала, как вместо избранного кандидата на работу вышел другой человек. Вот чем завершилась история
По теме
UPD. «Были мнения, что это групповая галлюцинация». Рекрутер TemaBit рассказала, как вместо избранного кандидата на работу вышел другой человек. Вот чем завершилась история
Читайте также
«Незнание английского можно простить только дворнику». HR в LinkedIn задался вопрос о том, зачем публиковать вакансии на английском. Вот что ответили айтишники
«Незнание английского можно простить только дворнику». HR в LinkedIn задался вопрос о том, зачем публиковать вакансии на английском. Вот что ответили айтишники
«Незнание английского можно простить только дворнику». HR в LinkedIn задался вопрос о том, зачем публиковать вакансии на английском. Вот что ответили айтишники
HR из Днепра Любовь Ковалевская в LinkedIn возмутилась тем, что компании выставляют вакансии на джоб-сайтах на английском языке. Айтишники быстро объяснили, в чем дело.
«Произошла ситуация, которой не должно быть». Genesis попал в репутационный скандал, позволив рекрутерам использовать свой бренд для найма. На что жалуются кандидаты
«Произошла ситуация, которой не должно быть». Genesis попал в репутационный скандал, позволив рекрутерам использовать свой бренд для найма. На что жалуются кандидаты
«Произошла ситуация, которой не должно быть». Genesis попал в репутационный скандал, позволив рекрутерам использовать свой бренд для найма. На что жалуются кандидаты
Разработчик Никола Щупило опубликовал в LinkedIn сриншот переписки с рекрутеркой, представившейся от имени компании IntellectoKids и холдинга Genesis, вызвавшего дискуссию среди пользователей сообщества.
«Вряд ли можно верить фидбекам компаний». Тестовое в IT: делать или не делать? Отвечают айтишники
«Вряд ли можно верить фидбекам компаний». Тестовое в IT: делать или не делать? Отвечают айтишники
«Вряд ли можно верить фидбекам компаний». Тестовое в IT: делать или не делать? Отвечают айтишники
Дизайнер Анна Лазурко пожаловалась в LinkedIn, что ни одна компания, в которую она делала тестовое, не предоставила фидбек по ее просьбе или без него. «Получили, заигнорили на неделю-две, а затем „двигаемся с другим кандидатом“. Это вообще единственная фраза, которой мне отказывают. Как понять, что ты делаешь что-то не так и не то, когда нет ни одного фидбека?» — спросила разочарованная специалист.
«Единственная команда, которой я буду руководить в россии, будет команда бомбардировщиков». Как польская IT-компания хантила украинскую рекрутершу для работы с рф
«Единственная команда, которой я буду руководить в россии, будет команда бомбардировщиков». Как польская IT-компания хантила украинскую рекрутершу для работы с рф
«Единственная команда, которой я буду руководить в россии, будет команда бомбардировщиков». Как польская IT-компания хантила украинскую рекрутершу для работы с рф
Украинская IT-рекрутерша Елена Ярнова рассказала в LinkedIn историю о том, как польская IT-компания пыталась сделать ей предложение по работе. Однако в ней было несколько недопустимых для нее условий.

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментариев пока нет.