8月30日,人工智能研究人员表示,他们已经从一个用于训练流行的人工智能图像生成工具的数据集中删除了2000多个涉嫌儿童性虐待图像的网络链接。
LAION研究数据集是一个巨大的在线图像和字幕索引,一直是领先的人工智能图像制造商(如Stable Diffusion和Midjourney)的来源。
但斯坦福互联网观测站(Stanford Internet Observatory)去年的一份报告发现,该网站包含儿童露骨色情图片的链接,这使得一些人工智能工具能够轻松地制作出描绘儿童的逼真深度假照片。
去年12月的报告导致非盈利组织大规模人工智能开放网络(LAION)立即删除了它的数据集。8个月后,LAION在一篇博客文章中表示,它与斯坦福大学监督组织以及加拿大和英国的反滥用组织合作,解决了这个问题,并为未来的人工智能研究发布了一个清理后的数据集。
斯坦福大学研究员大卫·蒂尔是去年12月报告的作者,他赞扬了LAION的重大改进,但他说,下一步是停止分发那些仍然能够产生虐待儿童图像的“受污染的模型”。
斯坦福大学认定的“最受欢迎的生成清晰图像的模型”之一——一个较老的、经过轻微过滤的Stable Diffusion版本——一直很容易访问,直到8月29日,总部位于纽约的Runway ML公司将它从人工智能模型库“拥抱脸”中删除。Runway在周五的一份声明中表示,这是“有计划地弃用没有积极维护的研究模型和代码”。
目前,世界各国政府正密切关注一些科技工具是如何被用来制作或传播非法儿童图像的。
本月早些时候,旧金山市检察官提起诉讼,试图关闭一组允许创建人工智能生成的妇女和女孩裸体的网站。法国当局周三对该平台的创始人兼首席执行官帕维尔·杜罗夫(Pavel Durov)提出指控,部分原因是消息应用Telegram涉嫌传播儿童性虐待图片。
杜罗夫的被捕“标志着整个科技行业的一个真正重大变化,这些平台的创始人可以被追究个人责任,”加州大学伯克利分校(University of California, Berkeley)的研究员戴维·埃文·哈里斯(David Evan Harris)说。哈里斯最近联系了Runway,询问为什么这个有问题的人工智能图像生成器仍然可以公开访问。几天后就被撤下了。——美联社
×
2025-04-17 21:29:04
2025-04-17 21:22:22
2025-04-17 21:15:38
2025-04-17 21:08:57
2025-04-17 21:02:15
2025-04-17 20:02:16
2025-04-17 19:55:11
2025-04-17 19:48:23
发表评论