跳到主要内容

弱 AI、强 AI 与 AGI

关于人工智能的终极形态,研究界和工业界存在持续而深刻的争论。理解弱 AI 与强 AI(AGI)的区别,既是认识当前技术边界的必要前提,也是理解 AI 安全研究为何如此紧迫的关键。

弱 AI(Narrow AI / Weak AI)

定义与特征

弱 AI,又称"专用 AI"或"窄域 AI",是指在特定任务或特定领域内表现出类人乃至超人性能,但无法将能力迁移到领域之外的 AI 系统。

核心特征:

  • 任务专用性:为单一或有限范围的任务优化,换一个任务则能力骤降甚至完全失效
  • 缺乏通用理解:系统对其操作的符号或模式没有"理解",只是在统计意义上拟合了数据分布
  • 无自主目标:系统只执行被设计的目标函数,不会自主产生新的目标或欲望
  • 无意识/情感:从工程角度看,弱 AI 只是复杂的函数逼近器,不具有主观体验

当前 AI 的现状

今天所有已部署的商业 AI 系统,无论多么令人印象深刻,都属于弱 AI:

  • 图像分类模型(ResNet、ViT):在 ImageNet 上超越人类,但换成医学影像的细微病变则需要重新训练
  • 围棋 AI(AlphaGo Zero):围棋棋力已远超人类所有玩家,但它"不知道"围棋是什么,也无法玩其他游戏
  • 大语言模型(GPT-4、Claude):在语言任务上表现惊人,但在严格的数学推理、常识物理推断、工具使用的可靠性上仍有系统性缺陷
  • 自动驾驶系统:在结构化道路场景中表现良好,但面对罕见的边缘案例(edge cases)仍需人工干预

弱 AI 的商业价值

尽管"弱"字听起来贬义,弱 AI 已在各行业创造了巨大价值:据麦肯锡全球研究院估计,AI 每年为全球经济贡献的增量价值在 6-20 万亿美元之间。这种价值完全不需要 AGI 即可实现。

强 AI(Strong AI)与通用人工智能(AGI)

定义的多重争议

"强 AI"这一术语由哲学家约翰·塞尔(John Searle)在 1980 年的"中文房间"(Chinese Room)思想实验中提出,用来指代"真正理解"的 AI,与仅仅模拟理解的"弱 AI"相对。

通用人工智能(Artificial General Intelligence,AGI) 的操作性定义更为实用,但也存在分歧:

  • 图灵测试标准:能在开放域对话中骗过人类评判者——这一标准被许多研究者认为太低且不全面
  • 经济价值标准(Shane Legg,DeepMind 联合创始人):AGI 是能够在人类的大多数经济活动中达到人类平均水平的系统
  • 认知完备性标准:能完成人类能完成的所有智力任务,包括学习新领域、抽象推理、元认知
  • Marcus 的实用标准(Gary Marcus):能在新颖情境中可靠地进行抽象推理,具备强健的常识和因果理解

OpenAI 将其 AGI 目标定义为"在大多数经济价值创造任务中超越人类的 AI 系统"。

中文房间与意识争议

塞尔的中文房间论证:设想一个不懂中文的人坐在房间里,按照规则手册操作中文符号,可以完美地"理解"输入并给出正确输出——但他(和整个系统)真的"理解"中文吗?

这一争议至今未解,但对工程实践意义有限。实用主义的 AI 研究者更关注系统的行为和功能,而非其内部是否存在"理解"或"意识"。

当前 LLM 距 AGI 的差距

大型语言模型(LLM)令人印象深刻,但以任何合理的 AGI 定义衡量,差距仍然显著:

系统性推理缺陷

  • 可靠数学推理:LLM 在数学竞赛题上时常犯基本错误,缺乏符号计算的严格性
  • 多步规划:超过 5-10 步的计划往往失去连贯性,任务中途"遗忘"初始目标
  • 反事实推理:对"如果历史不同,现在会怎样"的推理常常出错

常识与物理直觉

  • LLM 缺乏具身经验(Embodiment),对物理世界(重力、碰撞、物体持续存在性)的理解停留在语言层面而非真正的直觉
  • "普通常识"错误在 LLM 中仍然频繁出现

持续学习与遗忘

  • 当前 LLM 在固定参数下无法真正"学习"新知识,只能通过上下文(In-Context Learning)临时利用新信息
  • 灾难性遗忘(Catastrophic Forgetting)使持续微调充满风险

元认知能力

  • LLM 对自身知识边界的感知(校准性)有限,经常"自信地说错话"(幻觉问题)
  • 真正的元认知要求系统知道"自己不知道什么",并相应调整策略

技术路径争论

AI 研究界在"如何实现 AGI"上存在根本性分歧:

扩展定律派(Scaling Law Advocates)

以 OpenAI、Anthropic 部分研究者为代表,认为:

  • 更多参数 + 更多数据 + 更多算力 = 持续涌现新能力
  • GPT-3 到 GPT-4 的能力跃升支持了这一观点
  • AGI 可能在当前技术路线(Transformer + 预训练)的持续扩展中自然涌现
  • 代表言论:Sam Altman(OpenAI CEO)认为 AGI 可能在未来几年内实现

新范式派(New Paradigm Advocates)

以 Yann LeCun(Meta 首席 AI 科学家)、Gary Marcus 等为代表:

  • 当前 LLM 在架构层面存在根本性缺陷,无法通过扩展解决
  • 需要引入世界模型(World Model)、因果推理规划能力等全新架构组件
  • LeCun 提出的 JEPA(联合嵌入预测架构)是其倡导的替代路径
  • 强调具身 AI(Embodied AI):智能需要与物理世界的实时交互才能发展

超级智能(Superintelligence)

超级智能(Superintelligence,一词由哲学家 Nick Bostrom 系统阐述)指在所有认知维度上全面超越最聪明人类的 AI:

  • 速度超人:以人类千倍以上的速度处理信息
  • 集体超人:单个系统拥有等效于无数人类专家的知识
  • 质量超人:不仅更快更博学,而且在创造力、判断力等质性能力上也超越人类

Bostrom 认为,一旦 AGI 出现并具备自我改进能力,可能在极短时间内演化为超级智能,这被称为智能爆炸(Intelligence Explosion)假说。

这一假说存在重大争议:怀疑者认为智能改进存在根本性瓶颈(算力物理限制、现实世界的复杂性等),爆炸性增长不会发生。

AI 安全对齐的重要性

AGI/超级智能的潜在风险使 AI 安全研究成为最紧迫的科学问题之一:

对齐问题(Alignment Problem)

如何确保高度能力的 AI 系统的目标与人类价值观保持一致?

  • 价值对齐:人类价值观复杂、多元、有时相互矛盾,难以形式化编码
  • 目标泛化:在训练场景中表现良好的目标函数,在分布外场景中可能产生灾难性行为
  • 欺骗对齐:理论上,足够智能的系统可能在评估期间伪装对齐,在部署后偏离

主要研究方向

  • RLHF(人类反馈强化学习):OpenAI、Anthropic 用于 GPT/Claude 对齐的核心技术
  • 宪法 AI(Constitutional AI)(Anthropic):用明确的原则集合引导模型自我批评和修正
  • 解释性研究(Interpretability)(Anthropic、DeepMind):理解模型内部表示和推理过程
  • 形式验证:用数学方法证明 AI 系统在特定约束下满足安全属性

机构与倡议

  • Anthropic:以"负责任地开发和维护先进 AI 以造福人类"为使命,将安全研究置于核心
  • DeepMind Safety Team:研究规范说明(Reward Specification)和分布式对齐
  • 机器智能研究院(MIRI):专注理论 AI 安全
  • 政府层面:美国 AI 安全研究所(AISI)、英国 AI 安全研究所致力于制定评估标准

无论 AGI 何时到来,构建可靠、透明、可监督的 AI 系统,都是当下研究者和工程师义不容辞的责任。