csiro的研究人员说,他们已经开发了一种新算法,可以阻止图像被用来创造深层蛋糕,因为澳大利亚州政府争先恐后地将性明确的AI生成的内容定为定为犯罪。
使用生成的AI深fakes的使用来创建非自愿性的深层图像,在流行的公众中却在广泛的公众中涌现。维多利亚于2022年禁止基于图像的性虐待,新南威尔士州和南澳大利亚州政府都遵循。
CSIRO researchers say they’ve developed a new algorithm that can block images from being used to create deepfakes.Credit: Bloomberg
Now, a scientific breakthrough developed by Australian researchers could stop a用户的照片完全用于创建深层。关于是否应使用受版权保护的材料来训练大型语言模型的辩论。上周,生产力委员会宣布正在调查如何更轻松地对澳大利亚版权所有的内容进行培训,此举引起了人们对创意行业的强烈抗议。
csiro的算法
csiro的算法也可以帮助辩护组织还可以帮助他们的敏感卫星成像造成敏感的卫星成像,例如被吸收到AI模型中。 wnq-j“ data-testid =“ image”> CSIRO研究可能会阻止图像创建深层。
csiro研究科学家Derui(Derek)Wang说,该技术说该技术更改了图像的像素,因此无法用来保证该培训的人工智能模型。尝试。
广告“现有方法取决于AI模型的试验和错误或假设,”他说。我们可以在数学上保证未经授权的机器学习模型不能从一定阈值之外的内容中学习。他说,这项技术可以自动应用于大规模应用:例如,社交媒体平台可以将保护层嵌入到每个图像中。
“这可以遏制深层的兴起,请限制他们的内容,他说<
There are plans to expand the development to text, music and videos. The paper, Provably Unlearnable Data Examples, was presented at the 2025 Network and Distributed System Security Symposium, where it received the distinguished paper award.
To date, the算法仍然是理论上的。 注册每个工作日早上 。
澳洲中文论坛热点