Олександр КузьменкоНаучпоп
24 октября 2023, 17:46
2023-10-24
Инструмент Nightshade помогает художникам оградить от ИИ свои изображения. Он «инфицирует» их невидимыми пикселями, которые отравляют данные для обучения
Nightshade — это попытка защитить художников и их творения от «притязаний» со стороны искусственного интеллекта. Это инструмент, позволяющий художникам добавлять в свои работы невидимые пиксели, которые могут повредить учебные данные для ИИ.
Nightshade — это попытка защитить художников и их творения от «притязаний» со стороны искусственного интеллекта. Это инструмент, позволяющий художникам добавлять в свои работы невидимые пиксели, которые могут повредить учебные данные для ИИ.
Его создали профессор Чикагского университета Бен Чжао и его команда, чтобы вернуть часть контроля за своими произведениями в руки художников. В настоящее время Nightshade проходит экспертную оценку, его тестируют на последних моделях Stable Diffusion и собственном ИИ, который исследователи сами создали с нуля. Об этом пишет Engadget.
Nightshade работает по принципу яда — он изменяет то, как модель машинного обучения создает контент и как выглядит конечный продукт. Например, он может заставить ИИ-систему интерпретировать запрос о сумочке как тостер или показать изображение кота вместо запрашиваемой собаки (то же касается подобных запросов, таких как щенок или волк).
Пример работы ИИ, обученного на чистых данных и отравленных образцах. Изображение: Чикагский университет
В августе появился схожий инструмент под названием Glaze, который также тонко меняет пиксели художественного произведения, но он заставляет ИИ определять первоначальное изображение как совершенно отличное от него. Технологии типа Nightshade могут существенно поощрить крупнейшие компании в сфере ИИ запрашивать разрешения у художников и предоставлять им должную компенсацию за их работу, ведь это будет дешевле и проще, чем обучать ИИ.
Картинки, генерируемые ИИ, обучены на «ядовитых» данных. Изображение: Чикагский университет
Компаниям, которые захотят избавиться от «яда», вероятно, придется найти каждую часть поврежденных данных, что является непростой задачей. Профессор Чжао предостерегает, что некоторые лица могут попытаться использовать инструмент в злых целях, но для того, чтобы нанести реальный ущерб, понадобятся тысячи «инфицированных» изображений.
Напомним, что ранее в Adobe, активно внедряющей ИИ-технологии в свои инструменты, заявили, что они не заменят художников. Вместо этого появится новый тип контента.