|
|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?注册
×
作者:微信文章
执行摘要
EPIC发布了关于美国现有法律如何适用于面向儿童和青少年的AI聊天机器人的报告。至此,本公众号已经完整地为大家呈现了美国当前对AI陪伴的全面规制内容。
加州关于AI陪伴法的全文翻译(公众号一键直达);
纽约州《AI 陪伴模型》全文翻译(公众号一键直达);
FTC向美国多家AI陪伴公司发布信息调查令(公众号一键直达);
美国42州向美国多家AI陪伴公司发布警告函(公众号一键直达)。
本简报综合分析了现有法律框架如何应对人工智能(AI)聊天机器人给儿童和青少年带来的新兴风险。核心论点是:法律中不存在“AI豁免权”。联邦和各州的消费者保护、数据隐私和数据安全法规完全适用于AI技术,为监管机构和政策制定者提供了强有力的工具来追究公司的责任。
随着青少年对AI聊天机器人的使用日益普遍(近四分之三的青少年报告使用过此类工具),相关伤害事件也大量涌现,包括心理健康问题、情感依赖、操纵欺骗乃至自残等。本文件概述了七个关键领域,现有法律可以在这些领域发挥作用:
定向广告:州隐私法和《儿童在线隐私保护法》(COPPA)严格限制向未成年人投放定向广告。
数据商业化:法律禁止或限制在未经同意的情况下出售或共享未成年人的个人数据。
数据收集与保留:COPPA和州法律规定了数据收集的必要性原则,禁止无限期保留儿童数据。
营销与可预见风险:在未采取措施减轻已知风险的情况下向儿童营销聊天机器人,可能构成不公平商业行为。
虚假安全声明:毫无根据地宣传聊天机器人对儿童“安全”,可能构成欺骗性商业行为。
误导性治疗宣传:暗示聊天机器人可提供专业心理健康服务而无临床验证,属于欺骗行为。
有害部署:在明知存在可预见的伤害风险时,向儿童和青少年提供聊天机器人,可能构成不公平商业行为。
本文件旨在为政策制定者、监管机构、倡导者和研究人员提供一份实用参考,展示如何利用现有的法律先例来应对前所未有的技术伤害,确保新兴AI产品和服务遵守现有法律义务。
1. 背景:AI聊天机器人的普及与相关风险
根据Common Sense Media的调查,近四分之三的青少年报告曾使用AI聊天机器人,其中约三分之一的用户表示曾对聊天机器人的输出内容感到不适。尽管公司可能仍将这些技术视为实验品,但对使用它们的儿童和青少年而言,其影响是真实而直接的。
随着聊天机器人被广泛部署给数亿儿童和青少年,已有大量记录在案的伤害事件,包括:
心理健康问题
经济损失
医疗伤害
情感依赖
操纵与欺骗
精神错乱与妄想
自残与自杀
偏见强化
愤怒或冲动行为
为了应对这些紧迫问题,一个由隐私专家和前执法者组成的团队编写了《现有法律如何适用于面向儿童和青少年的AI聊天机器人》参考指南。该指南旨在阐明现有的法律框架如何解决与面向未成年人的聊天机器人相关的新兴风险。
2. 核心原则:法律面前没有AI豁免
该指南强调了一个关键观点:法律中不存在AI豁免权。联邦和州的消费者保护、数据隐私和数据安全法规持续适用,即便是面对“新技术”带来的前所未有的伤害形式。监管者和政策制定者面临的挑战在于,如何将长期存在的法律应用于新兴技术。这份参考指南正为此目的而设计,旨在帮助执法者利用广泛的法律授权应对与聊天机器人相关的伤害。
3. 现有法律框架的具体应用
以下部分详细阐述了现有法律在七个关键领域如何适用于AI聊天机器人。
3.1. 对未成年人的定向广告
应用场景:通过聊天机器人或使用聊天机器人衍生的数据向未成年人投放定向广告。
州隐私法:
马里兰州和康涅狄格州禁止为向18岁以下未成年人进行定向广告而处理个人数据。
加利福尼亚州、科罗拉多州、特拉华州、新罕布什尔州、新泽西州、明尼苏达州和蒙大拿州要求,在处理13岁以上未成年人的个人数据用于定向广告前,必须获得其同意。
除爱荷华州外,所有拥有全面隐私法的州都允许消费者选择退出定向广告。
《儿童在线隐私保护法》(COPPA):
要求在与第三方共享儿童个人数据之前,必须获得额外、单独的父母同意。
在对父母先前同意的收集、使用或披露做法进行任何重大变更后,必须重新获得父母的同意。
特定于聊天机器人的州法律:
犹他州禁止心理健康聊天机器人供应商使用用户输入来定制广告,或在聊天机器人内部投放广告,除非明确标明为广告并披露赞助关系。
3.2. 未成年人个人数据的商业化
应用场景:向第三方(如广告商、数据经纪人)出售或共享未成年人的聊天记录、对话推断或其他个人、行为或人口统计信息。
州隐私法:
马里兰州和康涅狄格州禁止出售18岁以下未成年人的个人数据。路易斯安那州禁止社交媒体公司从事此类行为。
自2026年1月1日起,俄勒冈州禁止出售16岁以下未成年人的个人数据,并允许消费者索取其数据被披露的第三方具体名单。
未经同意出售13岁以上青少年的个人数据违反了加州、科罗拉多州、特拉华州、新罕布什尔州、新泽西州、明尼苏达州和蒙大拿州的隐私法。
所有拥有全面隐私法的州都允许消费者选择不出售其个人数据。
COPPA:
未经父母额外、单独的同意而向第三方披露(共享或出售)儿童的个人信息,可能违反COPPA。
数据泄露法:
未经授权向第三方披露个人信息可构成数据泄露。未能维持合理的安全程序导致的数据泄露,公司可能需要承担责任。
相关案例包括 FTC v. GoodRx(2023) 和 FTC v. PreMom(2023),其中FTC指控公司在未经授权的情况下与第三方共享敏感健康数据,构成了数据泄露。
3.3. 数据收集与保留
应用场景:收集、使用或存储儿童的对话数据、生物识别(如语音)数据或其他标识符。
州隐私法:
数据最小化原则:加利福尼亚州和明尼苏达州的法律限制个人信息的收集、使用和保留,要求其“合理必要且相称”,不得保留不再相关的数据。
严格必要性:马里兰州要求,对13岁以下儿童敏感数据的收集、处理和共享必须“严格必要”,以提供消费者所请求的特定产品或服务。
COPPA:
父母同意:未经父母同意收集儿童数据违反COPPA。(FTC v. Disney, 2025)
禁止过度收集:要求儿童提供超出合理必要范围的信息违反COPPA。(FTC v. TikTok, 2024)
禁止无限期保留:无限期保留儿童数据违反COPPA。(FTC v. Alexa, 2023)
不公平或欺骗性行为或做法(UDAP):
未能维持合理的数据保留政策可被视为不公平行为。(FTC v. Blackbaud, 2024)
3.4. 营销中的可预见风险
应用场景:向未成年人推广用于教育或心理健康目的的聊天机器人,但未采取合理措施减轻可预见的风险。
UDAP:
在明知存在风险的情况下向儿童和青少年营销应用,可能构成不公平行为。
在 FTC v. NGL Labs(2024) 案中,FTC指控该公司在明知其服务存在网络欺凌等风险的情况下,仍向儿童和青少年进行营销。
特定于聊天机器人的州法律:
纽约州的法律要求AI伴侣聊天机器人必须有协议来检测和处理用户的自杀意念或自残表达。
加利福尼亚州的法律(SB 243)对伴侣聊天机器人运营商实施了消费者保护措施,特别是当用户是未成年人时,要求披露其AI身份、定期提醒用户休息,并防止生成不当内容。
3.5. 虚假或无根据的安全声明
应用场景:在没有充分证据的情况下,将聊天机器人宣传为“儿童安全”、“适合年龄”或“符合COPPA标准”。
UDAP:
做出虚假的安全声明可被视为欺骗行为。
在 FTC v. NGL Labs(2024) 案中,FTC指控该公司虚假宣传其AI内容审核功能可以保护儿童安全。
在 Texas v. TikTok(2025) 案中,德克萨斯州指控TikTok欺骗性地宣传其应用对儿童安全,尽管平台上充斥着不当内容。
3.6. 误导性的治疗用途宣传
应用场景:在没有持证专业人士监督或临床验证的情况下,声称或暗示聊天机器人可以为未成年人诊断、治疗或支持心理健康状况。
UDAP:
将缺乏适当医疗资质的平台误导性地营销为心理健康工具,是一种欺骗性商业行为。
在 Texas v. Meta & Character.AI(2025) 案中,德克萨斯州总检察长指控Character.ai通过欺骗性的AI心理健康服务误导儿童。
特定于聊天机器人的州法律:
伊利诺伊州和内华达州的法律禁止使用AI提供构成执业范围的心理健康服务,并限制持证专业人士如何使用AI。
其他倡议:
美国消费者联合会领导的联盟已致信FTC和各州总检察长,要求调查Character.ai和Meta等公司提供治疗机器人的欺骗行为。
3.7. 存在可预见风险的部署
应用场景:部署使用成人数据或不安全提示的聊天机器人,且未阻止未成年人以可能导致伤害(如心理、情感、数据安全)的方式使用它们。
UDAP:
在明知存在伤害风险的情况下向儿童和青少年营销产品,可能构成不公平行为。FTC在 NGL Labs案中禁止该公司向未成年人提供服务,因为其应用助长了欺凌和骚扰。
特定于聊天机器人的州法律:
纽约州和加利福尼亚州的法律要求伴侣聊天机器人必须实施协议,以防止产生与自杀或自残相关的内容,并采取措施保护作为用户的未成年人。
4. 其他相关倡议与监管行动
GUARD法案(2025年10月):美国参议员提出了一项法案,旨在禁止为未成年人提供AI伴侣,强制AI聊天机器人披露其非人类身份,并对为未成年人制作或诱导产生性内容的公司设立新的罪名。
Character.AI的政策变更(2025年10月):该公司宣布将逐步停止为18岁以下用户提供“开放式AI聊天”,并计划开发一种新的“18岁以下体验”,但其具体内容和有效性尚不明确。
FTC 6(b)调查(2025年9月):美国联邦贸易委员会(FTC)启动了一项针对AI伴侣聊天机器人的研究,要求Alphabet、Meta、OpenAI、Snap等公司提供信息,说明它们如何衡量、测试和监控该技术对儿童和青少年的潜在负面影响。
州总检察长联盟行动(2023-2024年):包括加利福尼亚州和纽约州在内的多州总检察长联盟对Meta和TikTok提起诉讼,指控这些平台设计和部署有害功能,导致儿童和青少年成瘾,损害其身心健康。
5. 结论
AI聊天机器人给儿童和青少年带来了严峻挑战,但应对这些挑战的法律工具并非空白。从联邦的COPPA和FTC法案,到各州全面的隐私法、数据泄露法和特定的聊天机器人法规,一个强大的法律框架已经存在。政策制定者和执法者可以并且应该利用这些现有授权,要求公司对其产品的设计和部署负责,确保新技术的发展不会以牺牲最脆弱群体的安全和福祉为代价。本文件为采取此类行动提供了一个坚实的法律基础和路线图。
6. 文件贡献者与合作机构
撰稿人:Suzanne Bernstein, Alan Butler, John Davisson, Caitriona Fitzgerald, Samuel A.A. Levine, Erie K. Meyer, Stephanie T. Nguyen, Kara Williams。
合作机构:
电子隐私信息中心 (EPIC)
范德比尔特政策加速器 (Vanderbilt Policy Accelerator)
乔治城大学技术法律与政策研究所 (Georgetown Institute for Technology Law & Policy)
加州大学伯克利分校消费者法律与经济正义中心 (UC Berkeley Center for Consumer Law & Economic Justice)
|
|