OpenAI запустила інструмент для розпізнавання дипфейків, створених DALL-E 3
OpenAI запускає інструмент, який може виявляти зображення, створені його генератором перетворення тексту в зображення DALL-E 3.
OpenAI запускає інструмент, який може виявляти зображення, створені його генератором перетворення тексту в зображення DALL-E 3.
Поява нової розробки назріла через занепокоєння з приводу впливу контенту, створеного штучним інтелектом, на цьогорічні глобальні вибори.
Компанія заявила, що під час внутрішнього тестування інструмент правильно ідентифікував зображення, створені DALL-E 3, приблизно у 98% випадків, і може обробляти такі поширені модифікації, як стиснення, обрізання і зміна насиченості, з мінімальним впливом.
Творець ChatGPT також планує додати стійкі до підробки водяні знаки для позначення цифрового контенту, такого як фотографії або аудіо, сигналом, який буде важко видалити.
В рамках цих зусиль OpenAI також приєднався до галузевої групи, до якої входять Google, Microsoft і Adobe, і планує створити стандарт, який допоможе відстежувати походження різних медіа.
У квітні, під час загальних виборів в Індії, фальшиві відео з двома акторами Боллівуду, які критикують прем'єр-міністра Нарендра Моді, стали вірусними в інтернеті.
Поширення контенту, створеного штучним інтелектом, і глибокі фейки все частіше використовуються в Індії та на виборах в інших країнах світу, зокрема в США, Пакистані та Індонезії.
OpenAI заявила, що приєднується до Microsoft у створенні фонду «суспільної стійкості» у розмірі $2 млн для підтримки освіти в галузі ШІ.