MIT Technology Review的文章介绍了一种名为Nightshade的新工具,它允许艺术家在上传艺术作品到网上之前,对图片像素进行微妙的改动。这种改动旨在“毒化”数据,如果这些数据被用于AI训练集,可能会导致AI模型出现故障。Nightshade的目的是干扰如DALL-E、Midjourney和Stable Diffusion这样的图像生成AI模型,使它们产生错误的输出,例如将狗误认为是猫,或将汽车误认为是牛。
Nightshade的开发是艺术家们对AI公司未经许可或补偿就使用其版权材料的回应。这个工具是更广泛努力的一部分,旨在通过提供一种威慑手段,保护艺术家的知识产权,防止他们的作品被未经授权的使用。
文章还提到了数据毒化技术潜在的滥用问题,但指出要对更大的AI模型造成显著损害需要数千个毒化样本,因为这些模型的训练数据量巨大。领域专家承认需要开发出对抗此类攻击的坚固防御,因为随着时间的推移,AI模型的漏洞可能会变得更加严重。
文章暗示,Nightshade可能会影响AI公司更多地尊重艺术家的权利,可能导致更好的实践,例如支付版税。一些艺术家表示希望Nightshade能改变现状,将一些权力还给创作者。
https://www.technologyreview.com/2023/10/23/1082189/data-poisoning-artists-fight-generative-ai/
MIT 新科技Nightshade,给AI投毒,版权保护人类画师
最新推荐文章于 2025-12-07 16:32:33 发布
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Qwen3-8B
文本生成
Qwen3
Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供了一整套密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面取得了突破性进展
259

被折叠的 条评论
为什么被折叠?



