找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 164|回复: 0

AI 闻不到花香

[复制链接]
发表于 2025-5-21 10:06 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
明斯基在70年代提出了一个关于人工智能发展的重要观点:

人们普遍认为的常识实际上比专业技术要复杂得多。例如解决逻辑或微积分这样的「专家」程序,最多只表达了一百多个「事实」,而且每个都差不多,这就足够解决大学问题了。相比之下,一个孩子要建造一个积木房子,就需要知道很多内容,包括形状和颜色、空间和时间、支持与平衡的知识,还要能记录自己在做什么。

对于一个重于思考并且通过逻辑和理性获得生命掌控感的人来说。AI 会让人陷入存在主义危机。

最近看了一篇关于讲什么是智能的文章:人类通过图灵测试,判断人与机器的区别,从目前来看所有的大模型无意外都会通过图灵测试,这样就足够判断机器具备了「人智能」吗?
1. 技能获取效率(Skill-Acquisition Efficiency)

    当前 AI 的局限性:大多数 AI 系统需要大量的训练数据和计算资源来学习特定任务。例如,深度学习模型通常需要大量的标记数据来训练,而且训练过程非常耗时。人类的表现:人类,尤其是儿童,能够通过少量的示例快速学习新技能。例如,儿童可以通过观察几次就能学会一个新游戏的规则,而 AI 系统通常需要成千上万次的训练才能达到类似的水平。
2. 泛化能力(Generalization Ability)

    当前 AI 的局限性:AI 系统在处理与训练数据相似的任务时表现良好,但在面对新的、未见过的任务时往往表现不佳。例如,一个在特定棋类游戏中训练的 AI 系统可能无法适应规则略有不同的新游戏。人类的表现:人类能够将已有的知识和技能应用到新的情境中,展现出强大的泛化能力。例如,一个会下棋的人可以快速适应新的棋类游戏,即使规则有所不同。
3. 先验知识和经验(Priors and Experience)

    当前 AI 的局限性:AI 系统通常依赖于大量的先验知识和经验数据,这些数据需要手动设计或收集。例如,一个图像识别系统可能需要大量的标记图像来学习识别特定物体。人类的表现:人类天生具有一些先验知识,例如对物体的感知和对因果关系的理解,这些知识帮助我们在学习新任务时更加高效。例如,儿童在没有大量数据的情况下就能理解物体的物理属性。
4. 抽象和推理能力(Abstraction and Reasoning)

    当前 AI 的局限性:AI 系统在处理抽象和推理任务时往往表现不佳。例如,AI 系统在解决逻辑推理问题或理解复杂概念时需要大量的训练数据和复杂的模型结构。人类的表现:人类能够通过抽象思维和推理来解决复杂问题。例如,人类可以通过逻辑推理来解决数学问题或理解抽象概念。
5. 灵活性和适应性(Flexibility and Adaptability)

    当前 AI 的局限性:AI 系统通常需要针对特定任务进行设计和训练,缺乏灵活性和适应性。例如,一个在特定环境中训练的自动驾驶系统可能无法适应新的道路条件或交通规则。人类的表现:人类能够灵活地适应新环境和新任务。例如,人类可以在不同的环境中快速调整行为以适应新的挑战。
6. 极端泛化(Extreme Generalization)

    当前 AI 的局限性:AI 系统在处理完全未知的任务时往往表现不佳。例如,一个在特定游戏中训练的 AI 系统可能无法适应完全不同的新游戏。人类的表现:人类能够处理完全未知的任务,通过学习和适应来解决问题。例如,人类可以通过学习和实践来掌握新的技能或解决新的问题。

Mechanize 的创始人也从物理限制、系统复杂性等角度论证 AGI 可能还需 30 年,为当前的「智能爆炸」叙事泼了一盆冷水
1. 物理限制(Hardware Limitations)

    当前计算硬件的性能尚不足以支持 AGI 的复杂计算需求。类脑模型需要巨大的并行计算能力和能效,而现有芯片在能耗、速度、散热等方面仍然受限。即使算力持续提升,摩尔定律也在趋缓,不能保证能在短期内突破这些物理瓶颈。

2. 系统复杂性(System Complexity)

    人脑的结构和机制极其复杂,我们仍远未真正理解意识、情感、动机、推理等高级认知过程。当前的 AI 模型(如 GPT 系列)虽然在特定任务上表现出色,但依赖大规模数据训练,缺乏通用性和真正的理解能力。构建一个具备自主学习、常识推理、长期记忆等综合能力的系统,仍然是一个极其困难的挑战。

3. 工程难题(Engineering Bottlenecks)

    将现有的 AI 技术扩展为稳定、可控、可靠的通用智能系统,涉及诸如:
      模块化架构设计多模态协调长期任务执行能力与现实世界互动的鲁棒性
    单靠算法优化和大模型堆叠无法解决这些工程问题。

4. 安全与可控性(Safety and Control)

    在缺乏充分理解 AGI 内部工作机制的前提下贸然推进,有巨大的不确定性和潜在风险。构建一个既强大又可控的 AGI 系统,不仅技术难度高,伦理和安全框架也远未成熟。

5. 「智能爆炸」是误导性的叙事

    当前的「智能爆炸」概念容易被夸大,被资本、媒体和一些乐观主义者炒作。他认为我们需要将注意力从 hype 转向冷静的基础研究与工程积累。


这位创始人的核心结论是:AGI 不太可能在短期(如 5–10 年)内实现,可能仍需 30 年或更久。我们应保持理性预期,脚踏实地推进核心技术。
更具体地说,它包括以下几个方面:

1. 感知误差的容忍能力

    现实中,传感器(如摄像头、麦克风)可能采集到模糊、被遮挡、被噪声干扰的数据。AGI 必须能在感知不完美的情况下仍然判断正确,比如看不清红绿灯但能安全开车。
2. 对意外情况的适应能力

    现实世界中经常发生「黑天鹅」事件,比如设备故障、人类行为反常、环境突然变化。AGI 不能一崩就死,而应有异常检测、自我修正或请求帮助的机制。
3. 对多模态信息的整合能力

    AGI 要能同时理解视觉、听觉、语言等多种信息源,并且在它们矛盾时能做出合理判断。比如,看到一个人在微笑但语气愤怒,AGI 需理解其中的社交语境。
4. 稳定性与任务坚持性

    在现实世界中任务往往冗长复杂,有很多干扰因素。AGI 需要能长期追踪目标、记住中间步骤、处理意外打断,并最终完成任务。
5. 对物理环境的操作鲁棒性

    如果 AGI 控制机器人或车辆,它必须面对不确定的地面、风雨、机械磨损等物理因素。例如在下雨天导航机器人送货,它必须在滑地上稳住、避障并找到门铃。

也许这也是人类神性的地方,身体也许比你想象的更具有神性:
    身体是智能的基础
      智能体的形态(如机器人的机械结构、传感器的布局)直接影响其对环境的理解和行为策略。例如:双足机器人需通过身体平衡学习行走,而无人机需适应空气动力学。
    感知-行动闭环驱动学习
      智能体通过与环境实时交互(如触觉反馈、运动尝试)主动构建知识,而非仅依赖预先标注的数据或规则。例如:机器人通过反复抓取物体学习「如何用力」。
    环境作为智能的延伸
      智能体利用环境中的物理规律(如重力、摩擦力)和工具(如杠杆、视觉标记)完成任务,而非完全依赖内部计算。例如:扫地机器人通过碰撞墙壁调整路径。
    动态适应与具身涌现
      复杂智能行为(如避障、协作)从身体与环境的动态互动中「涌现」,而非通过预设程序完全控制。

Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

我是开心果

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-6-1 02:40 , Processed in 0.085410 second(s), 28 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表