泡泡资讯网

抽象谬误:为什么人工智能只能模拟而不能实例化意识作者:Google DeepMi

抽象谬误:为什么人工智能只能模拟而不能实例化意识作者:Google DeepMind 研究员 Alexander Lerchner

计算功能主义(Computational functionalism)主导着当前关于人工智能意识的争论。该假设认为,主观体验完全源自抽象的因果拓扑结构,而与底层的物理基质无关。我们认为,这一观点从根本上错误地描述了物理学与信息之间的关系。我们将这一错误称为**“抽象谬误” (Abstraction Fallacy)**。

通过追溯抽象的因果起源可以发现,符号计算并不是一种固有的物理过程。相反,它是一种“地图绘制者依赖型”(mapmaker-dependent)的描述。它需要一个主动的、具有体验能力的认知主体,将连续的物理过程“字母化”为一组有限的有意义状态。

因此,我们不需要一套完整、最终的意识理论来评估 AI 的感知能力——这种需求只会将问题推向短期内无法解决的境地,并加深“AI 福利陷阱”。我们真正需要的是一套严谨的计算本体论。

本文提出的框架明确区分了**“模拟”(simulation,由媒介因果律驱动的行为模仿)与“实例化”**(instantiation,由内容因果律驱动的内在物理构成)。建立这一本体论边界表明,算法符号操作在结构上无法“实例化”体验。至关重要的是,这一论点并不依赖于生物排他性:如果一个人工系统曾拥有意识,那也将是因为其特定的物理构成,而非其句法架构。

最终,该框架通过物理接地(physically grounded)的方式驳斥了计算功能主义,旨在解决当前围绕人工智能意识存在的不确定性。