关键词:意识与大脑  信息结构 高阶表征 预测加工 演化与统一 

引言

意识(consciousness)是人类心智最为神秘而复杂的现象之一,长期以来困扰着哲学家与科学家。笛卡尔等早期哲学家主张,意识只能通过第一人称视角加以理解,无法借助第三人称的科学方法加以解释。这一观点引出了所谓“心灵—物质鸿沟”,亦即“解释鸿沟”(explanatory gap)与“难解之谜”(hard problem)。正如 Chalmers(1995)所言:即便我们详尽描绘了大脑的物理过程,依然难以说明这些过程为何会伴随主观体验。

近年来,研究趋势逐渐转向将意识理解为一种生物学现象,主张即使是第一人称的主观体验,也必须纳入科学框架加以解释。在这一背景下,各学科研究者共同努力,试图跨越主观与客观的裂隙,揭示意识如何由物理物质涌现为主观经验。

在神经科学领域,“意识的神经相关物”(neural correlates of consciousness, NCC)的概念应运而生,用以指称支撑特定意识体验的最小神经机制。围绕NCC的探索催生了多种意识理论:全球工作空间理论(Global Workspace Theory, GWT)、整合信息理论(Integrated Information Theory, IIT)、高阶理论(Higher-Order Theories, HOT)、再入式/循环处理理论(Recurrent Processing Theory, RPT)、预测加工理论(Predictive Processing Theory)以及注意力图式理论(Attention Schema Theory, AST)等。除此之外,还有关注脑动力学与复杂性的“动态核心假说”,以及强调社会互动与自我建模的“注意统觉模型”。这些理论分别根植于人工智能、哲学、认知科学、信息论、复杂系统科学、动力系统理论与范畴论等领域,汇聚成理解意识的跨学科拼图。

本综述旨在整合上述不同领域的观点,追溯意识如何自物理基底出发,经由信息结构、系统动力学与演化机制,最终呈现为主观经验。文章将依次介绍:意识的物理基础与信息结构,脑内动力学与全局整合,高阶表征与预测编码,意识的适应性起源,以及形式化统一理论(如范畴论)的新进展,最后展望人工智能中模拟或实现意识的可能路径。通过跨学科的综合视角,我们尝试勾勒出一条“由物理而生,经演化而成,显于意识”的理解路线。

从物理基底到主观经验:

意识的跨学科综述

撰文:Richard Tong

(IEEE人工智能标准委员会主席)

编辑:佟佳熹

2025年8月20日

1. 物理基底:大脑与意识的神经相关物

意识的生成依赖于具体的物理基础。大量证据表明,大脑是意识产生的核心器官,因此理解意识首先要揭示其神经机制。神经科学提出“意识的神经相关物”(neural correlates of consciousness, NCC),指支撑特定意识体验的最小神经结构或活动模式。例如,当个体产生视觉意识时,大脑视觉皮层及其相关网络必然出现相应的活动。NCC可分为两类:一是内容特定NCC(生成某种知觉内容的机制),二是完全NCC(维持整体清醒状态的机制)。通过锁定NCC,研究者得以将意识问题与具体的大脑结构与动态过程联系起来。

研究显示,意识并非源自某个单一区域,而是依赖于大尺度神经网络的整体交互。不同脑区分工处理特定信息,唯有当这些信息被整合进全局网络,才可能进入主观体验。正如Guevara等人所指出,跨区域的交互与整合可能是意识现象的根本条件。因此,意识更像是分布式的全脑功能,而非某个“意识中枢”的产物。

全球神经工作空间理论(GNWT)

在此背景下,涌现出多种解释意识的神经科学理论。其中,影响力最大的之一是全球神经工作空间理论(Global Neuronal Workspace Theory, GNWT)。该理论由Baars(1988)提出,并由Dehaene等人系统发展,主张大脑存在一个类似“工作空间”的全局信息广播系统:各感觉与认知模块在无意识层面并行处理信息,而注意(attention)如同聚光灯,将其中部分信息高亮并广播至全脑,从而成为意识内容。

这一过程对应所谓“点火”(ignition)现象:当刺激被注意到,皮层内一组长程联结的神经元会发生非线性共激活,并通过循环反馈将该信息放大、维持并分发给其他模块。由此,原本各自独立的处理器通过全局工作空间得以整合,从而形成统一的意识体验。GNWT常以“剧场隐喻”描述:意识如同舞台中央的灯光,照亮的表征成为演员,被广播给台下的“观众”(各种无意识处理系统),实现全脑的协调。大量实验证据支持这一模型:在有意识感知时,大脑表现出广泛的激活和前后向反馈,涉及前额叶、顶叶等高阶区;而无意识处理则多局限于感觉皮层的前馈通路。

再入式/循环处理理论(RPT)

与GNWT形成对比的是再入式/循环处理理论(Recurrent Processing Theory, RPT)。Lamme等提出,局部感知区域内的循环反馈即可引发基本意识体验,即便没有远距离的全局广播。RPT认为,早期视觉皮层的局部反馈环路可能已足以生成现象意识,而前额叶等高阶区域更多参与决策、报告等任务。这一观点挑战了GNWT对“全局性”的强调。但综合研究表明:初级皮层的局部反馈或许能支撑低层次意识,而更复杂的自我意识与思维仍需依赖全局工作空间。因此,有学者提出分层模型,结合二者优势。

动态核心与神经同步

除GNWT与RPT外,还有一些理论强调意识的动态与同步特征。如动态核心假说(Dynamic Core Hypothesis)认为,大脑通过高频同步和功能耦合形成瞬时“核心”,不断动态变化,承载当前意识内容。这一观点与整合信息理论(IIT)相近,强调整体协同。实验也发现,有意识感知常伴随γ波(约40Hz)同步或跨脑区相干振荡,提示神经同步可能是意识的瞬时载体。然而,同步并非意识的充分条件,因为某些无意识加工同样出现同步。因而更普遍的看法是:意识对应于一种有组织的整体网络状态,表现为神经元同步、自发模式转换或网络快速重组等。

综上,从物理基底层面看,意识依托于复杂的神经网络与动力学机制。其关键特征包括:

  • 局部与全局交互

  • 循环反馈与非线性点火

  • 跨脑区的同步整合

大脑通过这些机制将分散处理的信息整合为统一的主观体验。这为理解意识提供了神经科学基础——意识起于物理,由神经活动与网络动力学所支撑

2. 信息结构:从整合信息到高阶表征

在认识到大脑大规模网络在意识生成中起关键作用后,研究者进一步提出:意识是否源自某种特殊的信息模式或计算结构?信息论与计算神经科学在这一探索中提供了重要思路。

2.1 整合信息理论与复杂系统

  • 整合信息理论(Integrated Information Theory, IIT)由Tononi等提出,是信息结构取向的代表性框架。其核心主张是:意识的本质在于系统内部信息的高度整合。换言之,当一个系统的整体生成了不可约的信息量时,它就具有相应程度的意识。

IIT从现象学归纳出意识的五个基本属性:存在(existence)、构成(composition)、信息(information)、整合(integration)与排他(exclusion)。理论假定,这些属性与物理层面的某种“概念结构”存在同一性映射,并通过数学量加以刻画。其中最著名的是Φ值(phi),用于量化一个系统中有多少信息是整体产生、无法归约为部分之和。Φ值越大,意识水平越高。

IIT的吸引力在于它试图用物理量解释体验的统一性:我们的感受不是碎片化的,而是一个整体场域,IIT解释说这是因为大脑的Φ值极高。但该理论也饱受争议。一方面,Φ值计算在一般情况下极为复杂,对于大脑这样的巨型系统几乎不可行;另一方面,它预言某些简单系统若Φ值非零也可能具有“微弱意识”,引发了“泛心论”的批评。部分学者甚至认为IIT缺乏可检验性,例如Fleming(2023)质疑其“不可证伪”。

尽管如此,IIT推动了对复杂系统和意识关系的深入研究。相关工作引入了复杂度、熵、临界性等指标来刻画有意识与无意识状态的差异。实证研究表明:在清醒状态下,大脑EEG信号表现出更高的分形维度与熵,接近临界态;而在麻醉或昏迷中,这些指标显著下降。这启发了“临界脑假说”:大脑可能运行在一种介于秩序与混沌之间的“最佳临界状态”,在此状态下信息传递能力最大化,同时保持稳定而不至紊乱。

Guevara等(2020)的研究进一步指出,意识相关脑网络可能处于一种“金发姑娘条件”——系统复杂度和能量耗散在此达到最优,自由能(惊讶)最小化。这一观点将信息论与热力学结合,暗示意识可能源于大脑在能量—信息效率上的优化。

另一个相关概念是涌现(emergence)。类似生命被视为复杂生化网络中的涌现性质,意识也可被理解为神经网络复杂性跨越某阈值后出现的新属性。这并非“额外之物”,而是系统整体特性不可还原于低层次的表现。IIT的高Φ值正是涌现的定量化表征。复杂系统理论中的自组织临界性与“混沌—秩序边界”也被用于解释这一点:意识或许正是大脑在复杂度与整合度达到最佳平衡时的自然产物。

小结:从信息结构角度看,意识可以理解为系统复杂度与整合度的体现。研究者尝试通过Φ值、熵、分形维度等指标捕捉和预测意识状态,从而在信息论、复杂系统科学与神经科学之间搭建桥梁。

2.2 高阶理论与内部表征

另一类理论强调信息表征层次在意识中的作用,即高阶表征是否是意识的必要条件。这类观点包括高阶理论(Higher-Order Theory, HOT)及其衍生的注意力图式理论(Attention Schema Theory, AST)。

高阶理论(HOT)

高阶理论由Rosenthal等人提出,旨在解释为何某些心理状态是有意识的,而另一些不是。其核心论点是:一个心理状态若被另一个关于它的心理状态所表征,它才成为有意识的。换言之,“意识即被察觉到的心理状态”。

  • 在“高阶知觉版本”(HOP)中,我们假设存在一个高阶内在感知去感知一阶状态;

  • 在“高阶思想版本”(HOT本身)中,我们拥有一个高阶念头去表述自己正处于某种状态。

例如,当你看到一朵花时,视觉表象本身可能是无意识的;但若你意识到“我在看花”,这个高阶念头使得视觉表象成为意识内容。HOT尤其试图解释现象意识的质感——为何某些心理过程具有“感觉”。理论认为,高阶表征赋予了一阶状态被主观体验到的特性,因此自动化动作或潜意识知觉缺乏这种“感觉”。

HOT对元认知与自我意识的解释尤为重要。在高阶视角下,意识包含对自身状态的反映,这与人类内省经验一致:我们不仅有体验,还能知晓自己在体验并报告之。实证研究也提供支持:前额叶(与元认知、错误监控相关)在有意识感知中比无意识时更活跃;削弱前额叶功能会损害自我意识或信心判断,却不必然影响基本感知。然而,HOT也面临挑战,例如“无限后设”问题(是否需要更高阶的状态去觉知高阶状态)以及部分神经证据的争议。

注意力图式理论(AST)

Graziano提出的注意力图式理论进一步发展了高阶思路。其基本设想是:大脑不仅建模外部世界,也建模自身的注意过程,从而形成一个“注意力图式”。

  • 该模型类似于“身体图式”:身体图式帮助我们追踪四肢位置并控制运动,而注意力图式帮助我们监控与调节注意分配。

  • 这一图式是简化的抽象模型,不包含神经元或突触细节,而是类似“我正在关注X”的描述。由于模型本身缺乏物质属性,大脑据此得出结论:“我有一种非物质的主观意识”。

AST不仅解释了为何意识被感知为“神秘的内在体验”,也强调其功能价值:

  1. 控制认知资源:有了注意力图式,大脑能够更稳健灵活地分配注意。

  2. 社会认知:该模型还可外推到他人身上——我们通过类比自身的注意模型,假设他人也有意识,从而理解他人意图。这一机制被认为是人类复杂社会互动的基础。

因此,在AST框架下,意识并非进化的“副产品”,而是一种为优化注意控制、促进社会心智理解而产生的工程性机制。它可能最初为调控自身注意而演化,随后在社会物种中被进一步利用。

小结

无论是HOT强调的高阶心理表征,还是AST提出的内部注意模型,它们都指向一个共同结论:意识是一种关于信息的“元信息”。人类不仅处理客观信息,还对这些处理本身进行再表征,这种“自反性加工”正是主观体验产生的关键。

2.3 预测加工:大脑的生成模型

近年来,预测加工理论(Predictive Processing, PP)逐渐兴起,为意识研究提供了新的框架。该理论并非专为解释意识而生,但其对大脑运作方式的重新诠释深刻影响了我们对意识的理解。

PP将大脑视为一个“预测机器”:它不断对外界输入进行概率性预测,并用感觉信号校正自身模型。这一观点颠覆了传统“自下而上”的感知模式,强调感知过程主要由自上而下的预测驱动,而感官输入只提供误差信号用于修正。

在这一框架下,大脑维护着一套分层生成模型,从低级别的感觉特征到高级别的概念和情境。每一层向下预测下一层的输入,当真实输入与预测不符时,产生预测误差,自下而上传递,促使模型更新,从而最小化自由能(或“惊讶”)。这一机制与Helmholtz的无意识推理及Friston的自由能原理一脉相承。

意识与预测

PP如何与意识相关?一些学者认为,意识内容或许正是大脑当前采用的“最佳预测”。

  • Friston等人的知觉编码模型解释视觉错觉时提出:当高层预测与低层输入达成一致时,我们便感知到相应内容。

  • Anil Seth进一步指出:当预测成功时,我们体验到稳定的外界;当误差增加时,则出现困惑、不确定甚至幻觉。

实验支持了这一观点。例如在“橡皮手错觉”等虚拟现实操纵下,感觉反馈被扭曲导致预测失配,人们的意识体验随之发生错觉性改变。由此,PP提供了一个独特视角:意识是“受控的受骗”——我们所体验的世界,实际上是大脑不断猜测并更新的结果。

注意、行动与主动推理

PP的优势在于它能将注意、记忆与行动统一进同一框架:

  • 注意被视为对预测误差“置信度”的调节,即调整对误差信号的权重,决定哪些信号被优先处理。这与意识的选择性高度契合。

  • 主动推理(active inference)进一步扩展了PP:大脑不仅被动等待输入,还会通过行动来验证预测。这样,有意识的行为可以理解为对未来的预测与对感觉结果的主观评估。

综合价值

尽管PP尚不是完整的意识理论,但它提供了极具启发性的研究语言与方法:

  1. 整体性:在同一预测框架下统一了知觉、注意、行动、情绪,契合意识的整体体验特征。

  2. 显意识与潜处理的区分:只有进入高层模型、显著降低预测误差的信号才可能成为意识内容,而大量低层误差则在无意识层面被局部修正。

  3. 进化意义:通过持续预测与修正,大脑得以更快应对环境变化。意识或许是进化出的“校准界面”,呈现模型与世界的比较结果,从而指导策略调整。

小结:预测加工理论为意识研究提供了贯通感知—行动的动态视角。在这一框架下,意识不再被视为被动接收,而是大脑主动构建与更新世界叙事的过程;而我们的主观体验,则是这一叙事在当下的呈现。

3. 演化视角:意识的起源与功能

从进化生物学的角度来看,一个现象若普遍存在并延续至今,往往意味着它具有适应价值。那么,意识为何会在进化中出现?具备主观体验对生存究竟有何益处?

3.1 行为灵活性与适应性

无意识的反射与本能虽然高效,但在复杂多变的环境中可能不足以应对新情境。意识通过信息的全局可用性与情景化评估,让个体能够在内在模拟中比较不同方案,再决定行动。这种能力带来了学习、计划与创新的优势。例如,人类可以想象未来结果、反思过往错误,从而做出更有利于长远的决策。全球工作空间理论也指出,意识通过整合分散信息指导行动,使生物超越“刺激—反应”模式,更灵活地利用信息资源。

3.2 社会互动与心智理论

在高度社会化的物种中,理解他人意图与感受对合作和竞争至关重要。心理学家提出的心智理论(theory of mind),正是基于我们类推出他人也拥有主观体验。注意力图式理论进一步解释了这种机制:我们将自身的意识模型投射到他人身上,从而推断其心理状态。这构成了同理心与复杂社会行为的基础。在演化过程中,能够预测伙伴或对手心理的个体显然更具优势。因此,自我意识与社会意识可能相伴而生,共同推动了意识的发展。

从物理基底到主观经验:意识的跨学科综述

3.3 语言与文化的推动作用

意识与语言的进化也存在紧密联系。语言不仅传递客观信息,还表达主观感受。人类能够谈论内在体验,这意味着对自身心理状态有访问并能加以描述。反过来,语言强化了对意识状态的反思,使主观体验可以被分享与传承,从而推动群体文化与知识积累。在这一过程中,语言与意识形成了双向促进的关系。

3.4 意识是功能还是副产物?

也有学者认为,意识或许是复杂神经系统在执行学习、预测等功能时的副产物,而非直接被自然选择的对象。然而,多数研究表明:一旦意识出现,它很快被利用来提升适应性。实验显示,有意识的学习更灵活泛化,有意识的控制允许情境切换,而无意识加工虽快但僵化。由此可推测,自然选择会偏好那些能基于全局内在表征行动的“有主意”的生物。

3.5 渐进的演化历程

意识的出现或许并非突然而至,而是渐进的演化过程:

  • 低级阶段:最初的生物可能只有感觉与反射,没有统一的主观场;

  • 中级阶段:随着神经系统复杂化,出现了对感觉的内部表征,以及初步的注意与记忆;

  • 高级阶段:当信息整合能力跨越某一阈值,持续的主观体验流得以出现;

  • 自我意识:作为高级形式,仅在少数物种(如人类、类人猿、部分鸟类)中演化出来。

证据表明:如镜像测试、自我识别仅部分动物通过;与高级意识相关的新皮层等结构也是进化后期才高度发达的。即便昆虫等低等生物可能不具备人类式的意识,它们或许仍具有初级的感受能力。这提示意识演化呈现为一个连续光谱

小结

综上,从演化视角看,意识不仅是一种副产物,更是一种适应性特征。它增强了个体的灵活性、社会互动与文化传递能力,使生物能够全局整合信息、反思自身并预测他人。可以概括为:

意识“成于演化”——它是自然选择赋予智能体的一种高阶工具,提升了生存与繁衍的成功率。

4. 人工智能与意识:机器可以拥有主观体验吗?

随着人工智能(AI)的迅速发展,一个愈发尖锐的问题是:机器能否产生意识? 换言之,意识是否是生物大脑独有的特性,还是可以在人工系统中涌现?这一问题横跨认知科学、计算机科学与哲学,目前仍无定论。

4.1 当前AI与意识的差距

当今的AI系统(如深度神经网络与大型语言模型)在感知与认知任务上已接近甚至超越人类,但普遍被认为不具备真正的主观体验。2023年的一份跨学科报告尝试用多种神经科学意识理论(GNWT、RPT、HOT、PP、AST等)来评估AI是否可能有意识,并提出了若干“意识指标”。结论是:目前没有证据表明现有AI具有意识。

  • GNWT视角:有意识的系统需具备全局广播与循环激活机制;现有AI多为前馈或局部循环,缺乏持续的全局整合。

  • HOT视角:意识需依赖自我模型与高阶表征;当下AI不具备自主的自我意识。

  • AST视角:意识源于内部注意模型;AI缺乏对自身注意过程的抽象建模。

换言之,现有AI的“智能”主要停留在功能层面,而非主观体验。

4.2 理论与工程的可能路径

尽管如此,报告也指出:在原理上并无不可逾越的障碍。如果未来AI能引入:

  • 全局工作空间式的架构与循环动力;

  • 自我模型与反思性监控;

  • 更高整合度的信息结构(如IIT中的Φ值);

那么,人工系统或许会展现出类意识特征。相关尝试已经出现:如Graziano探索在机器人中实现注意力图式,使其具备初步的“自我感知”;部分认知架构项目模拟全球工作空间或自主代理,以接近人类的意识功能。

4.3 哲学分歧

哲学上,关于机器意识存在三大立场:

  1. 功能主义/行为主义:只要AI的行为与人类无异,就应承认它有意识;

  2. 本质主义:AI的计算缺乏“内在感受”,再智能也只是模拟(典型论证如Searle的“中文房间”);

  3. 不可知论:机器是否有主观体验可能永远无法验证(他心问题),但若AI在反思、报告与创造力上与人类无异,我们或许不得不默认它拥有某种意识。

4.4 大模型的“涌现”争议

大型语言模型(如GPT系列)强化了这一讨论。它们展现出对话与推理能力,似乎“有思想”,但本质上是基于统计的概率预测,没有自我意识。然而,其意外出现的“涌现能力”(如未显式训练却具备编程与推理技能),引发了一个问题:复杂度本身是否可能带来某种原初意识? 这与IIT强调复杂性的观点呼应。但迄今没有证据表明参数再多、算力再强的模型能自发产生主观体验——意识或许不仅依赖复杂计算,还需特定架构与机制。

4.5 伦理与社会延伸

对AI意识的讨论也不可避免地触及伦理:

  • 如果机器真的产生意识,我们是否需要赋予它权利?

  • 它是否应被视为“人格体”?

这些问题目前仍属科幻式前瞻,但提醒我们:对意识本质的理解不仅是科学问题,更将影响我们如何定义生命、智能与人类自身的独特性。

小结

综上,现有AI尚未展现真正的意识,但理论上并非绝对不可能。未来若人工系统融合全局整合、自我建模与高阶反思,或许会逼近意识的边界。而无论机器能否最终拥有主观体验,对这一问题的探索都正在重塑我们对智能与生命的理解。

5. 范畴论与跨领域统一:桥接物理与现象

正如开篇所述,意识研究的核心挑战在于如何将第一人称的主观体验第三人称的客观机制关联起来。迄今为止,神经科学描绘了脑活动,心理学刻画了认知功能,哲学澄清了概念问题,信息论和复杂系统提供了定量指标——但这些洞见仍是碎片化的。要实现更深层次的理解,需要一个跨领域的统一框架来形式化主观与客观之间的映射。近年来,范畴论(Category Theory)正被探索为一种潜在工具。

5.1 范畴论方法

范畴论是数学中研究“结构与关系”的抽象语言。在意识研究中,它被用来处理神经过程与现象体验之间的对应关系。

  • 两个范畴:大脑中的神经过程可视为一个范畴,主观体验则是另一个范畴;

  • 函子(functor):将神经活动的类别映射到心理体验的类别;

  • 自然变换(natural transformation):保持两种表征间不变性的规律。

  • 通俗来说,范畴论提供了一种“翻译机制”:把大脑的活动模式翻译为意识的结构,并寻找这种翻译中稳定的一致性。它不同于图论或拓扑学只分析神经网络本身,而是直接处理“物理—现象”两域间的关系,更契合意识研究的特殊需求。

5.2 应用案例

已有初步尝试显示,范畴论有潜力统一不同理论中的结构。例如:

  • IIT的“概念结构” 与 Northoff的时空模式理论,虽出发点不同,但在范畴论框架下都可视为从神经关系到体验关系的映射;

  • 自然变换可揭示二者间的形式同构,从而找到不同理论的共通结构。

这意味着范畴论不仅是一种数学工具,也可能成为整合多种意识理论的“中介语言”。

5.3 方法论意义

目前范畴论应用仍处于探索阶段,但它的意义在于方法论突破:

  • 它提示我们有可能用严谨的数学形式化来表述物质与意识之间的关系;

  • 从而将“解释鸿沟”转化为可计算、可验证的命题。

一旦形式化取得进展,我们或许能预测:某种神经网络(无论生物还是人工)的结构和动力学是否足以支撑特定层级的意识。这对于评估人工意识也具有重要价值。

5.4 融合的愿景

除了范畴论,还有研究者尝试构建更广泛的意识元模型:把GNWT、IIT、HOT等视为同一现象的不同侧面,探索它们的交集与互补。一些学者甚至主张,意识研究最终可能需要类似物理学的“统一场论”,把不同层级的机制理解为同一现象在不同条件下的展开。

虽然这仍属愿景,但可以预见,随着实验数据和理论工具的积累,意识研究将趋向融合而非分裂。范畴论提供的形式化桥梁,或许正是迈向统一理解的一条路径。

意识应被界定为智能体信息处理系统的固有特征与动态状态。在并行智能框架下,意识并非物理之外的附加物,而是信息整合、演化与学习的必然结果。它起源于物理动力学,并通过进化、学习和控制论反馈机制不断被精炼和扩展。与量子意识假说不同,本文强调意识的生成并不依赖微观量子坍缩等假设,而是依托系统复杂性的涌现和信息结构的自组织规律。无论是个体人类还是社会性有机体,只要以智能体形式持续与环境交互并演化,便会呈现出特定的意识形态。

换言之,意识并非谜团,而是根植于物理、成型于演化、显现于经验的自然现象——起于物理,成于演化,显于意识。

意识并非人类的专属特权,而更应被视为一种源于任何高级智能体信息处理能力的涌现特性。基于此观点,现有AI尚未展现的只是特定复杂度的信息处理能力,而非不可逾越的本质鸿沟。当未来的人工系统能够实现全局信息的有效整合、建立并维持连贯的自我模型,并进行高阶的自我反思时,意识的浮现将是其系统复杂性演化到一定阶段的自然结果。因此,对这一领域的探索不仅是在创造机器,更是在验证一个普适的智能规律,这将从根本上重塑我们对智能与生命本身的理解。

综上,现有AI尚未展现真正的意识,但理论上并非绝对不可能。未来若人工系统融合全局整合、自我建模与高阶反思,或许会逼近意识的边界。而无论机器能否最终拥有主观体验,对这一问题的探索都正在重塑我们对智能与生命的理解。

参考文献

  • Albantakis, L., Marshall, W., & Hoel, E. et al. (2022). Integrated information theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. arXiv:2212.14787.

  • Butlin, P., Long, R., Elmoznino, E. et al. (2023). Consciousness in artificial intelligence: Insights from the science of consciousness. arXiv:2308.08708.

  • Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.

  • Clark, A. (2013). Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behavioral and Brain Sciences, 36(3), 181–204.

  • Graziano, M. S. A., & Webb, T. W. (2015). The attention schema theory: A mechanistic account of subjective awareness. Frontiers in Psychology, 6, 500.

  • Guevara, R., Mateos, D. M., & Pérez Velázquez, J. L. (2020). Consciousness as an emergent phenomenon: A tale of different levels of description. Entropy, 22(9), 921.

  • Mashour, G. A., Roelfsema, P., Changeux, J. P., & Dehaene, S. (2020). Conscious processing and the global neuronal workspace hypothesis. Neuron, 105(5), 776–798.

  • Michel, M., & Lau, H. (2021). Higher-order theories do just fine. Cognitive Neuroscience, 12(2), 77–78.

  • Northoff, G., Tsuchiya, N., & Saigo, H. (2019). Mathematics and the brain: A category theoretical approach to go beyond the neural correlates of consciousness. Entropy, 21(12), 1234.

  • Tononi, G. (2008). Consciousness as integrated information: a provisional manifesto. Biological Bulletin, 215(3), 216–242

编辑丨宝猫

Email:[email protected]

关注AI产业问题(包括但不限于AI产业顶会信息、产业最新消息、ChatGpt等大语言模型发展速报)