找回密码
 注册

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 275|回复: 0

花花AI电台 | 37.深度 !《纽约时报》要求OpenAI永久保留用户隐私,奥特曼怒了:“用户有AI特权,隐私神圣不可侵犯!”

[复制链接]
发表于 2025-6-28 04:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
w1.jpg

你好,我是花花,欢迎来到花花AI电台,每天陪你一起看AI。

你有没有想过这样一个问题——我们每天和AI说的那些话,真的安全吗?

最近,OpenAI和《纽约时报》在法庭上杠上了。焦点就在这儿:用户跟ChatGPT说的话,平台到底应不应该永久保存?

你可能会想,这事儿不是很简单吗?我不想留,就不留呗。但对不起,纽约时报说:“不行!你得留!我们要用来查你有没有侵权。”这一下,把整个AI隐私圈都搅翻了。

咱们今天不讲八卦,就讲这个事儿,背后到底意味着什么。

先来说说这起“世纪官司”。《纽约时报》起诉OpenAI,说它旗下的大模型在训练过程中使用了他们的大量文章,涉嫌侵权。听上去好像挺合理,但问题来了:你想指证平台侵权,可以;但你凭什么要求平台保留所有用户的聊天记录,哪怕用户明明选择了“临时模式”或者明确点了“删除”?

OpenAI的回应也非常强硬:这是在侵犯用户隐私,简直就是让我们变成监控者。

COO Brad Lightcap 说得很清楚:“我们正激烈抗争这个命令,因为它违背了我们对用户的承诺。”

连Sam Altman都上了X平台发帖,说:“这不仅不道德,也是对案件的过度诉求。”他还提出了一个新概念——AI特权(AI Privilege),意思是,用户和AI的对话,应该享有像律师或医生那样的隐私保护权。

你可能觉得这个说法有点远,但我们来对比一下两个场景,你就明白了。

场景一:你在自己电脑上部署了一个开源大模型,拿了些纽约时报的文章,整了个二创内容,做成视频发出去。平台没记录、没人知道,这时候要追责,只能找你本人。要调查你,法院得申请搜查令,可能还得来你家拆机器。

场景二:你用ChatGPT做了同样的事。现在法院想要追查,就要求OpenAI“保留所有用户数据,等我来挑可疑的”。

听出来没?这就像你用菜刀切菜,结果有人用菜刀犯罪,法院说:“那你菜刀厂把用户家里做饭记录都给我交出来。”这不就滑稽了吗?

更别说,这还是在用户明确勾选“不要保存”之后。

OpenAI其实是个“不爱记仇”的平台——临时模式不开记录、删记录也是真删。现在法院要求他们留底档,就等于说:“你必须违背对用户的承诺,谁知道哪天我们要翻旧账。”

这一下,把整个AI隐私底线打破了。

再说深一点,如果这个判例成立,以后谁还敢用AI谈私密问题?心理咨询、健康咨询、公司机密、写小说、写遗书……只要AI模型作为“证据中转站”存在,用户就永远无法信任它。

说到底,这其实是个“平台责任边界”的问题。

我们可以用加密货币来打个比方:黑客盗币、诈骗,确实需要交易平台配合调查,甚至冻结账户——因为钱已经流走了,必须快刀斩乱麻,止损为先。

但AI平台不同,它不是银行,不是传播平台。你输入了点什么,AI处理完只返回给你本人,它本身没有传播行为,也不会保存结果。它是一个处理器,一个“反应炉”,不是广播站。

让平台为用户行为兜底,就好比让微软为你用Word写了本盗版小说负责,或让Adobe为你用PS修了张有版权风险的图背锅。

那怎么不让华为为你打了诈骗电话赔钱呢?

而更令人担忧的是,未来AI的通信方式可能会变。

你有没有想过,AI和AI之间现在不能互相对话,这才是我们“还能放心说点事”的安全感来源。一旦AI之间能“联网对话”,形成AI网络社会,那它就不再是“你和它说悄悄话”的聊天机器人了,它可能是一个节点、一个广播器、一个记录者。

这时候,不确立AI对话的“保密属性”,后果将是灾难性的。

Sam Altman提出的“AI特权”就像是提前打响的一场“法律地基战”。如果现在不立好规矩,未来AI在医疗、法律、教育、心理等场景中,一定会因为隐私漏洞频出而崩盘。

而你现在以为“谁在看我聊天?”的这份安全感,也许终将成为一场误会。

我个人认为,所谓“AI特权”,可以先从以下三个方向推进:

一是划定“敏感场景免保留红线”。比如用户明确声明是法律咨询、心理辅导、性别身份等话题,平台默认加密,无法被取证除非有刑事判决。

二是推动行业建立“模型免责清单”。就像刀具有家用与禁用之分,AI模型也应该能区分普通工具型与主动传播型,不能混为一谈。

三是推动“用户主权数据协议”,即便涉及诉讼,也必须明确通知用户并由其授权查阅,不能搞“一刀切”的数据抓取。

如果我们不在AI隐私权问题上坚守底线,哪怕模型再先进,终究只会沦为“可被政府监听的私信”、“可被公司调阅的记录”、“可被机构引用的心理证据”。

AI不应该是审讯室的扩音器,而应该是一个你能安心思考、试错、探索的避风港。

所以,我们支持OpenAI在这场官司中坚持原则。更期待在不久的将来,AI对话的“私密性”,能像律师函、病历档案那样,获得法律上的保障。

而这其中最关键的一点是...OpenAI,必须坚守它的道德底线。必须!

因为在今天,AI还只是“工具”与“帮手”,但明天,它就可能成为“伙伴”甚至“主导”。我们今天不守底线,未来就没有底线。

我们必须让所有AI平台都知道一件事:

你可以很聪明、很强大、甚至很赚钱,但你不能背叛信任你的人!

在这个时代,真正值得保护的,也许不只是用户的数据,而是他们在数据背后曾经有过的表达、信任与探索的自由。

最后,我想说:

为了用好AI,我愿意分享我的数据,哪怕是内心中最私密的事情,但我希望你尊重我...而不是默认我不在意。
这才是我们在AI时代最基本、最质朴的隐私诉求。

好,今天的花花AI电台就到这里。如果你觉得有启发,欢迎分享给朋友。明天我们继续一起看AI。

我们正在借助AI实现内容自由,如果您也想打造个人IP,布局自媒体,或者为自己的数字生命积累数据,欢迎加入我们,一起【留下点什么】服务体系日益完善,目标千人日更大社区,真正的活在未来!一件事,一群人,一辈子【终身招募】AI日更实战营|用99天,实现内容自由! 2.0

DYOR AI 智库 免费分享大量AI素材和课程

帮你省下海量银子

扫码添加客服微信领素材包

Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-8-5 16:50 , Processed in 0.104067 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表