«Идея этого инструмента заключается в том, чтобы сбалансировать ситуацию между людьми, обучающими ИИ-модели и создателями контента, — пишут авторы Nightshade. — В настоящее время люди, обучающие ИИ, имеют стопроцентную власть. Единственными инструментами, которые могут замедлить работу краулеров, являются opt-out списки и директивы do-not-crawl, причем все это опционально и остается на совести ИИ-компаний. И, конечно, все это не поддается проверке и принудительному исполнению, и компании могут безнаказанно говорить одно, а делать другое. [Nightshade] станет первым инструментом, который позволит владельцам контента оказать существенное противодействие несанкционированному обучению ИИ-моделей».
«Цель Nightshade — не разрушение ИИ-моделей. Цель в том, чтобы воспрепятствовать несанкционированному использованию данных для обучения и поощрить использование легального лицензионного контента для этих целей. Для моделей, которые соблюдают opt-out и не занимаются скраппингом, последствия будут минимальными или вообще нулевыми», — заявили разработчики.