当前,AI风险备受关注,包括AI产生自主意识的风险、AI失控的风险等,如何看待这些问题?你是否认为AI会像人类一样具有自主意识?
Joanna Bryson:我认为当前AI不会具备“意识”。很多人错误地将“意识”仅仅理解为自主记忆的能力,这一点AI已经可以轻易做到,但实际上,当我们讨论“意识”时,更多的是在谈论道德主体(Moral Agency)或道德受体(Moral Patient)的问题。在我的文章《Do We Collaborate With What We Design》中,我观察到“协作”和“同事”等词汇常被用来描述人机互动,但是这种类人化(拟人化)隐喻是不恰当的,机器与人类之间存在异质性关系,即AI在实现目标的手段上可能具有一定程度的独立性,但目标本身始终由人类主体选择。真正的协作涉及互补领域的专业知识、共同规划、决策和行动,以及共同创造原始框架。尽管AI可以为人类提供帮助,但其与人类之间的互动缺乏真正的共同规划和决策。
因此,AGI永远不会是一个完全自主决策的系统,它始终是由人类设计和控制的工具,即使AGI可能超过人类的能力。我们现在已经通过计算器等工具做到了超越人类的计算能力,但这并不意味着计算器拥有决策权,而是背后的人或机构在做决策。又比如,当国王抛硬币决定某个问题时,虽然硬币决定了结果,但决策的责任依然在国王。同样,AI做出的决策也始终由人类设定和控制。换句话说,AGI的本质仍然是工具,决策权始终在人类手中。我们真正要担心的是AI系统是否能够保持透明和可控。如果一个系统没有明确的控制和责任,那么它就不符合道德和法律要求,我们不能允许这样的系统进入市场。因此必须确保AI系统可以追溯和监管。06
欧盟在AI治理方面走在前列,特别是欧盟的AI法案,您认为它对AI领域的影响如何?在实施过程中可能会遇到哪些挑战?
Joanna Bryson:欧盟的AI法案对AI领域的影响是深远且具有开创性的。根据我的文章《Human Experience and AI Regulation: What European Union Law Brings to Digital Technology Ethics》,影响主要体现在以下几个方面:首先,明确AI作为产品的法律地位,这意味着企业需要进行尽职调查,避免不良实践,并采用最佳实践。对于“高风险”AI系统,例如那些可能用于教育、医疗或金融服务决策的系统,需要严格的记录保存。其次,AI法案明确禁止某些与欧盟隐私和基本权利不兼容的AI服务,例如禁止建立记录每个人位置的数据库或“社会信用评分”系统。最后,明确了所有AI系统必须清晰标识其AI性质,防止用户误以为与人类交互。
我认为AI法案主要的挑战是执行,尤其是在当前全球政治环境下。AI法案本身很强大,尤其是考虑到它对AI技术透明度和问责制的强调。尽管如此,执行和监管仍然面临很多挑战,尤其是在跨国监管和全球统一标准方面。09