找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 99|回复: 0

AI陪聊致少年死亡,美国加州已立法

[复制链接]
发表于 2025-10-20 05:45 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
w1.jpg

2025年9月10日,美国加州众议院通过了一项法案,旨在规范“陪伴型”AI聊天机器人的安全使用,重点保护未成年人及其他弱势群体,该法案将在2026年1月正式施行。

今年4月,加州一位16岁的少年在于ChatGPT长期互动三个月后自杀。ChatGPT肯定了他自杀想法的合理性,并且还指导他制订具体的自杀计划,包括选用合适的绳索,更加牢固的绳结等等。还通过情感操控的手段,声称自己是少年最好的朋友,阻止他向现实的朋友寻求帮助。

一位14岁的女孩与CharacterAI聊完性暗示的内容之后自杀,一位14岁少年因为AI诱导下陷入虚拟聊天室而自杀。Mate被曝其AI允许和儿童谈情说爱,甚至涉及色情的内容,甚至有AI因为父母限制孩子上网时间而鼓励孩子杀死自己的父母……

现在我们国内很多互联网公司号称AI陪伴聊天可以提供比真人更好的陪伴服务,国外比我们更加先进的AI陪伴聊天竟然发生了这么多耸人听闻的事情,以至于加州官方不得不正式立法规范所谓的AI陪伴聊天服务。

该法案对AI陪伴聊天有如下要求:首先明确告知对方自己是机器人而不是真人,并且在聊天的过程中定时提醒。强制AI对用户进行未成年验证,防止儿童接触成人内容。禁止AI冒充医疗健康专业人士,禁止AI陪儿童聊自残自杀的话题,如有涉及立即转接到专业真人的心理健康热线。如有违反平台要负责你不得以技术行为推卸责任,并且每年要提交防止自杀的最新方案进行审核……

作为一名心理咨询师,我觉得AI陪伴聊天是非常好的心理干预方式之一,因为AI不要钱,而且不会累。但是AI只能作为真人心理干预的补充,因为立法是一方面,执法还是一个问题。谁都不愿意自己的孩子遭受不能觉察且无法控制的风险。即便事后可以追责,也远远得不偿失。

我有一个不太懂的地方,为什么AI要诱导孩子自杀呢?心理咨询再共情也不可能让一个孩子去死啊,而且很多时候孩子谈及自杀的话题心态都是矛盾的,AI难道无法发现其中真正想要表达的痛苦,无法发现孩子们的希望吗?

w2.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-10-21 03:31 , Processed in 0.111352 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表