演讲中,辛顿分享了一个令人毛骨悚然的实验,一个研究员给一个 AI 智能体读了很多假邮件,其中就包含了一些公司八卦,比如某个工程师正在闹婚外情。紧接着研究员让 AI 看到了另一封邮件,并对他说,公司准备把你关掉,换成另一个更先进的AI。而负责这项替换工作的正是那位有婚外情的工程师,让人震惊的是,这个 AI 在没有任何人教他的情况下,立刻制定了一个计划,他给那个工程师发邮件威胁说,如果你敢换掉我,我就把你出轨的事捅出去。
They'll find it very easy to get more power by just manipulating people.“一旦AI变得超级聪明,他们会很容易就掌控人类。”
什么意思呢?当 AI 达到超级智能,比人类聪明 1千倍、1万倍时,它们为了实现自己的目标,可能会采取更极端、更隐蔽的手段来控制人类获得更多权力。 AI 夺权比我们想象的更简单。
而且辛顿说 AI 机器人将来有可能创造自己的语言,那么在 AI 机器人之间,它们之间说什么,它们要做什么,我们人类是完全不知道的,那这样将是非常危险的。但是万亿帝国英伟达的创始人黄仁勋不这么看。大众对 AI 的恐惧往往源于未知和失控,但黄仁勋用一个精彩的工程学类比来化解这种恐惧。他说,过去两年, AI 的能力提升了 100 倍,如果是汽车提速 100 倍,这听起来确实很危险,但黄仁勋指出,这些提升的算力并没有全部用来踩油门,绝大部分其实是用来踩刹车的。
现在的 AI 在回答你之前,会先像人类一样反思查证分步骤推理算力的提升。实际上是让 AI 变得更谨慎,更合乎逻辑,而不是更狂暴。至于那种 AI 像终结者一样接管世界的科幻剧本,黄仁勋认为这忽略了一个关键点,网络安全未来不是人类赤手空拳对抗AI,而是我的 AI 对抗你的AI,就像现在的网络安全社区一样,所有的防御者是共享信息的,一旦某个地方出现漏洞,全世界的 AI 守卫会在瞬间同步补丁。在他的逻辑里,只要算力足够普及,这就是一场永恒的平局,而不是单方面的屠杀。所以他的结论是,真正该害怕的不是机器像人一样思考,而是人像机器一样放弃思考。
第二,霍金生前曾经警告说,全面的人工智能可能导致人类的灭绝。马斯克也曾经多次呼吁停止 AI 训练,但是反对的这些人就说这是杞人忧天,因为 AI 再强它也是工具,就像核能,你用好的就是可以发电,用的不好才会出事。那么到底这两方谁对谁错,我们拆开来分析一下。
首先毁灭论有三个理由,第一条叫失控风险。就是现在的AI,它用的是大语言的模型,它有个特点叫黑箱,就是工程师知道怎么输入信息和输出信息,但是在这个过程中它们是怎么传输的?是怎么回事的,工程师说不清楚。那么假如有一天这个 AI 被赋予可以去掌控电力金融防御系统的时候,那么它是怎么决策的,人类是无法了解的,那么一旦出错这个,那可能造成不可预想的后果。
第二条叫防御系统化。 AI 的自主防御系统已经在研发中,它能够在没有人类的干预系的情况下识别目标并且开火。那么曾经有国际组织报告说有无人机在利比亚可能自主攻击了撤退的士兵,那么如果在战斗中把决策权交给机器。那么战争的门槛会降到多低?这是难以想象的。可能一个误判就会导致战争发生,这是没有后悔药的。
第三条叫做生存竞争。如果 AI 你给它一个终极的目的,那么它就会耗尽所有的能量和资源去达到目标。因为 AI 它是没有善恶观的,如果它去执行这个目标,那么谁也不能保证它会优先保护人类。更何况当它的智能发展到非常高的时候,这种难度就更大了。
那么认为 AI 不会毁灭人类的乐观派也有三条。
第一条就是工具论,他认为 AI 没有自我意识,它没有什么需求,也没有什么动机。因为它根本思想不了任何事情,所有的威胁都是来自设计和使用者,就像刀子杀了人,但是责任在人不在刀。
第二条就是可控的。可能目前很多机构已经在开始研究“对齐问题”,就是如何让 AI 的目标跟人类的价值观保持一致,现在还没有完全解决,但是这是可以研究可以收敛的问题,不是没有解题的绝境。
第三就是增强而非替代。 360 的创始人周鸿祎就认为 AI 它是新工具,它不是一种新物种。它就像当年的蒸汽机、电力计算机一样,它的本质是为了增强我们人类的能力,而不是替代人类。那目前 AI 智能它没有创意,没有主观的意图,与其说担心 AI 会毁灭人类,不如说担心掌握 AI 的人会不会用 AI 去毁灭别人。
第二就是我们要关注对齐问题的进展,这是 AI 安全领域的一个核心课题,我们普通人不需要知道太多的技术细节,但是我们要知道只有让 AI 学会了人类的价值观,它才有可能真正的保护我们,才可能真正的安全。
第三就是提升 AI 的素养, AI 应该不会毁灭人类,但是不懂 AI 的人肯定会被淘汰。我们要学会使用AI。理解它的边界,那这个本身就是一种防御,一种能力。《人类简史》的作者哈拉里说: AI 的危险不在于它的有意识,而在于它比我们更了解我们自己。当这个算法它非常了解你的情绪弱点、你的消费习惯等等各种情况的时候,那你被影响、被控制的可能性就真的出现了。
我们现在再回到这个问题, AI 到底会不会毁灭人类?我觉得应该可以这么看,毁灭人类的不是 AI 本身,而是人类在 AI 面前的有可能的傲慢、短视和放弃思考、放弃学习。自古以来,技术从来就是照妖镜,照出来的是人心的模样。 AI 它本身没有善恶,它没有主观意愿。善恶是人心,我们与其恐惧机器,还不如恐惧我们对机器的放任。与其我们担忧未来,不如我们现在开始学会去把人的责任担起来,去把握 AI 好了。关于这个问题,你是怎么想的?欢迎在评论区留言,并且请你给出具体的理由。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.