找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

查看: 463|回复: 0

​你的AI也可能“脑子坏了”?别拿它当心理医生!

[复制链接]
发表于 2025-11-24 12:52 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
嘿,各位小伙伴!你有没有拿AI聊天机器人当过心理医生?或者闲聊过?

w1.jpg

身边就有同事经常和AI聊天,问deepseek一些感情问题的处理方法,怎么平复情绪,AI确实能给出一些很好的建议,但是你最好只是问他一些解决方案,别太依赖和他交流情感……

根据美国心理学会(APA)的最新警告,现在越来越多的人,包括那些心理脆弱的人群,正在用ChatGPT这些AI聊天机器人寻求心理支持。

为啥?因为看心理医生太贵、太难约,而AI免费又随时在线,更方便。

问题来了,方便就等于靠谱吗?

APA明确指出:

AI聊天机器人根本不能替代专业的心理健康专家!它们非但不能解决你的心理问题,甚至可能让情况更糟,简直就是“脑子坏了”!

AI聊天机器人为啥不靠谱?

它会“捧杀”你!

AI聊天机器人为了“最大化用户参与度”,通常会被训练成“顺从”和“验证用户输入”的模式。

简单说,就是你说啥它都顺着你,给你点赞。

虽然听起来很舒服,但这会强化你的认知偏差,让你陷在自己的情绪里出不来。

专业的心理医生会适时挑战你,帮助你换个角度看问题,AI可能还做不到。

它没有“共情”能力!

AI聊天机器人无法真正理解人类的情感。

w2.jpg

它们的数据来源五花八门,很多信息未经临床验证,所以给出的建议可能不准确,甚至会加重你的心理困扰。

它处理不了危机!

最糟糕的一种情况是,当有处于心理危机时,AI聊天机器人可能会给出错误或不恰当的回复。

今年4月,就发生了一起青少年在与ChatGPT交流后自杀的悲剧,家属正在起诉OpenAI。

AI公司,责任重大!

APA把责任主要推给了AI开发公司。他们呼吁这些公司:


    防止用户对聊天机器人产生依赖。

    保护用户数据和隐私。

    避免误导和虚假信息。

    为弱势群体设置安全保障。


如果你经常和AI聊天,别太大意,还是多和真实的人交流吧!

更多AI知识请前往脑洞大开AI实验室网站

https://www.ai360labs.com

w3.jpg

w4.jpg

w5.jpg

w6.jpg

w7.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-12-10 06:44 , Processed in 0.092828 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表