加州大学伯克利分校不仅通过 BAIR 实验室和众多科技项目引领着人工智能技术的发展,也在 AI 政策制定方面走在前沿。作为一名UCB两位小熊的家长、伯克利居民,以及 Haddee Education 创始人(我们的一个中心就位于伯克利,大学校园附近),我深感自豪。
随着美国及全球的决策者考虑如何监管人工智能技术,伯克利的研究人员与其他专家合作,提出了制定循证 AI 政策(evidence-based AI policy)的建议。Jennifer Chayes、Ion Stoica、Dawn Song 和 Emma Pierson 与 Rishi Bommasani 等人共同撰写了题为《推动基于科学与证据的 AI 政策》的文章,该文于 7 月 31 日发表在《Science》期刊上,提出了应对“日益强大的 AI”所带来机遇与挑战的政策机制。
其他合著者还包括来自斯坦福大学、普林斯顿大学、卡内基国际和平基金会、哈佛大学、高等研究院以及布朗大学的 AI 专家与学者。
这篇最新文章紧随不久前加州 AI 前沿模型政策联合工作组发布的一份报告之后,该工作组由 Chayes(加州大学伯克利分校计算、数据科学与社会学院教授兼院长)共同领导。
上个月,应加州州长 Gavin Newsom 的要求,工作组提交了最终报告——《加州前沿 AI 政策报告》。该报告在审视现有最佳 AI 证据的基础上,提出了关键政策原则,以指导加州在 AI 使用、评估和治理方面的决策。这份报告已被加州州参议员和众议员、州政府机构、科技行业领导者以及民间组织引用,用于起草相关立法。
7 月 31 日发表在《Science》上的文章面向更广泛的美国及全球政策制定者提出建议:“AI 政策应通过确保 AI 潜在利益的负责任实现与广泛共享,来推动 AI 创新。为实现这一目标,AI 政策制定应高度重视证据:科学理解与系统分析应指导政策,而政策反过来也应加速证据的产生。”
文章阐述了循证 AI 政策的发展愿景,包括三个核心部分:证据应如何指导政策;当前证据的状况;以及政策如何加速新证据的生成。
推动基于科学与证据的 AI 政策》指出,“在 AI 语境中界定什么是(可信的)证据,是将循证政策应用于 AI 的首要难题——这一任务尤为关键,因为不同政策领域的证据标准各不相同。”
主讲教师:
Coach Liam——曾担任 UC Berkeley 多门数学与计算机课程助教,包括 CS 70 Discrete Math & Probability Theory、CS 170 Algorithms、EECS 126 Probability & Random Processes、CS 182 Deep Learning 以及 Real Analysis 等高等数学课程。