-
Nightshade用向图像“投毒”的方法以阻止AI训练并帮助保护艺术家
周五,芝加哥大学的研究团队发布了一篇研究论文,描述了"Nightshade"这一数据投毒技术。该技术旨在破坏AI模型的训练过程,MIT Technology Review和VentureBeat对此进行了报道。其目标是帮助视觉艺术家和出版商防止其作品被用于训练如Midjourney、DALL-E 3和Stable Diffusion等生成性AI图像合成模型。芝加哥大学称其为…- 27
- 0
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!