Яд для ИИ. В Чикагском университете придумали ПО, чтобы искусственный интеллект не мог использовать произведения искусства для самообучения
«Это как добавить острый соус в обед, чтобы его не украли из холодильника на рабочем месте».
«Это как добавить острый соус в обед, чтобы его не украли из холодильника на рабочем месте».
В Чикагском университете разработали программное обеспечение Nightshade, которое отравляет данные изображений, препятствуя обучению ШИ-моделей.
Бен Чжао, возглавивший проект профессор компьютерных наук сравнил Nightshade с «добавлением острого соуса в обед, чтобы его не украли из холодильника на рабочем месте».
Nightshade изменяет пиксели на изображениях, чтобы заставить ШИ-модели интерпретировать их не так, как видит человек в реальном мире. Искусственный интеллект неправильно классифицирует признаки заштрихованных изображений. Сообщается, что для искажения подсказок для Stable Diffusion (нейросеть, превращающая текст в изображение — ред.) может потребоваться менее 100 «отравленных» образцов.
Вот как это выглядит для человека и ИИ:
«Отравленный» образец картины ИИ «увидит» в виде кота в халате.
Бен Чжао говорит, что Nightshade является абсолютно легальным инструментом. Его конечная цель — взимать дополнительную цену за каждый фрагмент данных, изъятых ИИ без разрешения. В идеале компаниям придется лицензировать сбор данных для обучения своих моделей, гарантируя, что художники дадут на это согласие и получат компенсацию за свою работу.