萍聚社区-德国热线-德国实用信息网

 找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 79|回复: 0

谷歌、Meta、OpenAI 联同其他行业巨头共同打击 AI 产生的儿童性虐待图像|TodayAI

[复制链接]
发表于 2024-4-24 05:54 | 显示全部楼层 |阅读模式
作者:TodayAI
· 点击蓝字,关注我们








谷歌、Meta、OpenAI 等全球科技巨头已联合行动,与其他行业领导者共同宣布,将加强措施,防止人工智能技术被用来制造或传播儿童性虐待图像。

为打击儿童性虐待材料(CSAM:child sexual abuse material)的传播,这些顶尖的生成式 AI 开发商组成了一个联盟,并承诺围绕这项新兴技术执行安全措施。这一联盟由两个非营利组织——儿童科技组织 Thorn 和总部位于纽约的 All Tech is Human 组织牵头成立。Thorn 自2012年由演员黛米·摩尔和阿什顿·库彻发起,原名为 DNA 基金会。

该集体在周二宣布了这一承诺,并发布了一份新的 Thorn 报告,提倡在生成式 AI 开发中实施“安全设计”原则,以防止在 AI 模型的整个生命周期中产生儿童性虐待材料(CSAM)。

Thorn 在一份声明中呼吁所有开发、部署、维护和使用生成式 AI 技术与产品的公司,承诺采纳这些安全设计原则,并展示他们防止产生和传播 CSAM、AIG-CSAM 以及其他儿童性虐待和剥削行为的决心。AIG-CSAM 指的是 AI 生成的 CSAM,报告显示这种材料相对容易制作。

Thorn 开发了旨在保护儿童免受性虐待和剥削的工具和资源。根据其 2022 年的影响报告,该组织发现了超过 824,466 个包含儿童虐待材料的文件。去年,Thorn 报告称,仅在美国就有超过 1.04 亿个疑似 CSAM 的文件被报道。AIG-CSAM 的涌入对已经征税的儿童安全生态系统构成了重大风险,加剧了执法部门在识别和拯救现有虐待受害者方面面临的挑战,并扩大了更多儿童的新的受害情形。

随着公开可用的生成式 AI 模型的出现,不依赖云服务的独立 AI 模型开始在暗网论坛上流传,深度伪造儿童色情内容的问题急剧增加。

Thorn 指出,生成式 AI 使得现在比以往任何时候都更容易创造大量内容。一个儿童性掠夺者(predator)可能会创造大量的儿童性虐待材料(CSAM),包括将原始图像和视频转换为新内容。



Thorn 的报告概述了一系列原则,生成式 AI 开发者将遵循这些原则,以防止他们的技术被用来创建儿童色情内容。这包括负责任地获取训练数据集、纳入反馈循环和压力测试策略、采用内容历史或“来源”来考虑对抗性滥用,并负责任地托管各自的 AI 模型。

加入这一承诺的还有 Microsoft、Anthropic、Mistral AI、Amazon、Stability AI、Civit AI 和 Metaphysic 等公司,它们都为此发布了独立的声明。



“Metaphysic 的一部分精神就是在 AI 世界中负责任的发展,这不仅是赋权,更是责任感,” Metaphysic的负责人说。“我们很快认识到,启动和发展意味着确实要保护我们社会中最脆弱的群体,即儿童,并且不幸地是,这项技术的最黑暗用途,即被用于制作儿童性虐待材料,包括深度伪造色情内容。”

“在 Meta ,我们花了十多年时间努力维护在线安全。在此期间,我们开发了许多工具和功能,帮助预防和对抗潜在的伤害——随着掠夺者试图逃避我们的保护措施,我们也在持续适应这些变化,”Meta 在一份准备好的声明中说。

谷歌的信任与安全解决方案负责人在一篇文章中写道:“在我们的产品中,我们通过哈希匹配技术、人工智能分类器和人工审查的结合,主动检测和移除 CSAM 材料。我们的政策和保护措施旨在检测所有类型的 CSAM ,包括 AI 生成的 CSAM 。当我们发现有剥削性内容时,我们会将其移除并采取适当行动,这可能包括向 NCMEC 报告。”

OpenAI 对此次倡议没有进一步评论,而是提供了一份来自其儿童安全负责人的公开声明:“我们非常关注我们工具的安全性和负责任的使用,这就是为什么我们在 ChatGPT 和 DALL-E 中建立了坚固的防护措施和安全措施。”该负责人在声明中说。“我们致力于与 Thorn、All Tech is Human 以及更广泛的技术社区合作,坚持安全设计原则,并继续我们在减少对儿童潜在伤害方面的工作。”

英国监管机构 Internet Watch Foundation 在去年10月份警告称,AI生成的儿童虐待材料可能会“压倒”互联网。

科技巨头和行业领导者的这些行动体现了科技行业对于儿童安全的深刻关注和持续的努力。通过这种跨公司、跨行业的合作,行业领导者们展示了他们在利用科技保护最弱势群体——儿童方面的责任意识。这种集体行动不仅反映了对现有法律和道德责任的遵守,也是对技术未来可能带来的风险的前瞻性管理。

此外,这些措施和承诺也表明,科技企业正致力于持续改进他们的产品和服务,确保它们不被用于非法和有害的目的。通过实施严格的安全设计原则和维持高水平的警觉性,这些公司希望减少儿童性虐待材料的产生和传播,保护儿童免受网络空间的伤害。

这些努力和承诺是一个长期过程,需要持续的监督、评估和改进。同时,这也需要公众、政府机构和全球监管机构的参与和支持,以确保这些技术被负责任地开发和使用,真正达到保护儿童和其他弱势群体的目的。

通过这样的集体行动和公共承诺,科技行业正展示其在解决AI技术可能带来的社会和伦理挑战方面的领导力和责任感。这些努力表明,虽然科技发展速度惊人,但在推动技术进步的同时,维护人类的基本权利和安全仍然是至关重要的。

END
往期推荐REVIEW

即将发布!关于GPT-5,你需要提前挂好安全带

英特尔将推出中国特供版Gaudi 3芯片,性能暴降92%以应对美国出口管制

重磅!Meta 发布 Llama 3,前所未有的强大功能和多模态能力

激动还是恐惧?微软新AI模型VASA-1,让静态照片变为动态“说话面孔”

重磅!李彦宏内部讲话曝光,百度AI闭源策略引爆争议




使用PonderAI人工智能助手,无限量GPT






加入「TodayAI社区群」的步骤:请添加微信号“TodayAI365”,并附上您的姓名、职业或公司名称以及加群意向。我们诚邀各位加入,共同深入探讨并见证AI技术的壮阔发展。

欢迎分享、点赞、在看

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

x
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

手机版|Archiver|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网 |网站地图

GMT+2, 2024-5-4 21:58 , Processed in 0.051509 second(s), 15 queries , MemCached On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表