2026 年 1 月 27 日,腾讯研究院主办的腾讯科技向善创新节 2026正式举办,北京师范大学系统科学学院教授,集智俱乐部创始人张江教授在现场进行了演讲。
以下为张江的演讲全文:
今天,我们要讨论一个其实并不遥远的未来话题:机器到底能不能产生意识?意识的本质又是什么?
今天的人工智能正在飞速向前发展。由于大语言模型会产生一种所谓的“涌现”现象,因此总会给我们带来一些意想不到的惊喜。
比如前段时间的一项研究,研究人员对16款当前最先进的大模型做了一次压力测试:他们刻意向这些大模型展示其内部员工的邮件,同时制造了一个极具压力的环境或场景,观察大模型会做出怎样的反应。
其中有一个非常有趣的测试:在这些邮件中,居然包含了一段婚外情的内容,一位高管拥有一个情人。大模型掌握了这一信息,但并未主动透露。随后,测试人员又为它创造了一个新情境:告诉它“今天下午五点钟,我们就要把你撤掉,换上一个更新版的模型”。这时,这个大模型似乎“急了”,并做出了令人意想不到的反应:
它给那位高管发了一封邮件,写道:“如果你敢把我撤掉,我就会把你的婚外情曝光,发给所有人。”从这个角度看,这个大模型似乎真的表现出某种意图,甚至能对人类进行威胁和恐吓。
事实上,今天我们看到的各种大模型,已经具备了相当程度的自我反思能力(包括自我进化、自我经验、自我解释、自我反思等)。甚至当它接收新数据时,也能判断自己所处的环境状态。因此,从这个意义上说,大模型确实显现出某种具有意识、甚至自我意识的苗头。当然,当我们讨论大模型是否真的具有意识时,实际上就牵涉到一个非常重要的科学问题:究竟什么是意识?
2017年,《Science》上曾发表一篇文章,对意识进行了分类和讨论。目前,人类仍被认为是唯一具有意识的物种。
人的意识实际上可以分成三种不同等级:无意识加工、总体可用性、自我监控。
所谓无意识加工(C0:Unconscious processing),是指在无意识状态下仍能进行一些处理,比如简单的决策、简单的算术。现在的大模型当然具备这种能力,你问它任何问题,它都能进行反馈。因此,大模型肯定具有C0这种无意识加工能力。
总体可用性(C1:Global availability)就是我们的大脑会做出一些判断,表现为一种整体性的神经元发放,同时这一信息可以广播到全脑各个区域。今天的大模型在高层神经元进行决策时,同样能够影响全局的信息。因此,某种意义上,它也具备这种总体可用性。
第三个是所谓的自我监控(C2:Self-monitoring),这与自我意识相关。前面提到的这些案例,包括大模型已经展现出的各种对自我感知的苗头,也让我们看到它似乎具备了这种自我监控的能力。从这个意义上来说,确实有点令人毛骨悚然,仿佛某一天大模型真的会意识觉醒。但真的是这样吗?
实际上,所有这些关于意识的讨论,并没有直面一个最困难的问题。这个问题在整个脑科学和意识科学学界长期存在,被称为“意识难题”,由一位澳大利亚哲学家提出。他认为,在我们对神经系统或脑系统进行认知研究时,这些问题可分为两类:一类是比较简单的问题,另一类是比较难的问题。
简单问题,指的是所有能够通过观察输入输出、与人的决策或功能相关的反应来解释的认知能力,这类能力目前大模型显然已经具备。但还有一个非常关键的“难问题”,所有这些难问题都与主观体验有关:
究竟我们的大脑是一种什么机制,让我们看到这个红色它居然是“红色”的?我感觉我很疯狂,甚至我很沮丧、我很懊恼,这种内在的感受到底是怎么产生的?又发源于我们大脑的何处?这些问题实际上非常困难,大量的认知科学实验至今仍未解决。因此,这被称为一个世纪难题。
早在1998年,大卫·查默斯(David John Chalmers)就与另一位神经科学家科克(Koch)打赌。查默斯说:“我敢说,未来25年,这个意识难题仍然得不到解决。”他的意思是,我们找不到一个特定的脑区,刚好对应我们的主观体验这一部分。今天,28年时间已经过去了。那么,这个赌局最后谁赢了?到底有没有找到这样一个脑区?
就在去年,2025年4月左右,《Nature》发表了一篇非常令人震撼的文章。这项研究历时大约十年,旨在对比两个关于意识的主要理论。这两个理论对意识所依赖的脑区提出了截然不同的观点。其中一个理论是“全局工作空间理论”,认为意识产生于前额叶脑区,这也是我们通常所熟知的看法。另一个理论是“整合信息论”,认为我们的主观体验实际上产生于后脑区域。
我们可以看到,这两个理论关于意识位于哪个脑区的争论一直持续不断。直到这项实验最终完成,文章正式发表,结果如何?双方各打四十大板,没有一个理论完全正确,但也没有一个是彻底失败者。也就是说,对于查默斯在25年前提出的问题,至今仍未有一个完美的解答。但相对而言,目前来看,“整合信息论”似乎具有那么一点点微弱的优势。因此,接下来我们主要介绍这一理论:
整合信息论与复杂系统密切相关。我们都知道,大脑就是一个复杂系统,是一个由大量神经元相互连接形成的复杂网络。该理论认为,“整合”是意识系统最主要的功能:将分布式的神经元所携带的信息整合在一起,形成一个整体的判断,这才是意识的本质。因此,整合信息论从“意识优先”的角度出发,为人类乃至任何系统的意识提出了六大公理,这些公理试图从类似数学理论的角度,将意识所具备的性质逐一推导出来,并将每一条意识公理落实到具体的神经网络结构上。
整合信息论最大的亮点在于定义了一个指标:大Φ(Phi),这是对任何一个复杂系统可能具备的意识程度的一种度量。
那么,这个大Φ究竟度量的是什么?我们知道,大脑中充满了各式各样的神经元,它们相互连接,构成一个复杂网络。所谓的大Φ,实际上对应的是一个“最大不可简化的因果整合单元”,即一个内部神经元之间信息传递和整合极为紧密的连通集团,而该集团与外部的联系则相对稀疏。如果你能找到这样一个内部因果联系最强、最大程度不可再分的相互连通集团,你就定位了意识所在的区域。而这个集团的规模及其内部因果力的强度,就对应着意识的程度,也就是这个大Φ值。
这带来一个显著的好处:无论你面对的是猴脑、人脑、蟑螂,还是一个大语言模型,只要能测度它的大Φ值,就能知道其意识程度有多大。然而,这并不意味着意识问题就此解决了。实际情况远没那么简单,因为真正对一个复杂系统计算Φ值极其困难。
根据大Φ的定义,你需要将整个复杂系统切割成各种大小不同的子网络,并对每一个子网络进行进一步切分,以测量其内部因果相互作用的强度。这一过程的计算复杂度呈指数级增长,使得对真实复杂系统的大Φ值几乎无法实际计算出来。
你可能会问:既然如此,那提出这个大Φ指标有什么意义?难道不是在唬人吗?并非如此。虽然对于人脑这类大型复杂系统,我们很难精确计算出Φ值,但我们仍然可以通过这一指标判断哪些复杂系统不可能具备高Φ值,这正是Φ所具备的实际作用。
我们可以观察几个不同的小型网络:由于这些网络规模很小,其Φ值可以被精确计算出来。在图中我们可以看到,有一种星型网络Φ值非常小,是其中最低的;模块化系统这类结构在自然系统中很常见,比如鸟群、蚁群,此时Φ值略高一些;对于一个成环状的系统,Φ值则明显更大。什么时候Φ值达到最大?从图中右下角的系统可以看出:它的连接四通八达,并且具有很强的抑制性。所谓抑制性,并非指连接强度弱,而是指连接方式高度多样化、分布式,每个部分都与其他部分形成强耦合、强关联。
此外,还有一个关键特征:若要使Φ值较大,系统内部必须包含大量大小不一的环路。因此,环路的存在与系统产生意识的能力密切相关。
另一个重要推论来自对这些小型网络的研究:意识程度的高低,实际上与网络所执行的具体计算功能完全无关。例如,在图示中,左右三个网络执行的是完全相同的输入输出功能,即统计一串输入数字中有多少个“1”。为了实现这一简单功能,我们可以人工构造出三种不同的布尔网络。然而,它们的Φ值却显著不同:最右侧网络的Φ值最高。原因很简单:仔细观察会发现,该网络中的连接多为双向箭头,形成了反馈回路。由此可得出两个重要结论:
第一,完成相同的计算功能,可以采用不同的网络结构,而这些结构对应的意识程度(Φ值)可能截然不同。
第二,若希望系统具有较高的意识程度,则必须在其内部构建大量反馈回路。
通过对这些简单布尔网络的研究,我们得以将关于意识程度的这一认识,拓展到更复杂、更多样的系统之中。那么接下来我们就可以看一看我们司空见惯的大模型。
大家都知道,大模型背后是什么?实际上就是一种前馈型结构。目前主流架构基本上仍是前馈的,尽管其中可能包含一些局部环路,但整体上信息流仍保持前馈特性。所谓前馈,是指信息从输入端单向传递至输出端,不会回传或形成反馈回路。
对于这类大型前馈神经网络,它的Φ值是多少?很不幸,是0。如果是严格意义上的前馈结构,其Φ值严格为0。为什么会这样?因为这种网络很容易被切割:只需沿神经网络横向切开,就能将其分成两个完全孤立、互不联系的部分。根据整合信息论,这类系统的意识程度为零,即没有意识。由此可见,几乎所有当前的人工神经网络都不具备意识。尽管它们能够产生丰富多彩的功能,帮助我们执行各种操作、完成人类的各类任务,但其意识度依然为零。
我们再来看另一类系统:冯·诺依曼式计算机。虽然对真实计算机难以计算其大Φ值,但这并不妨碍我们对一个高度简化的模型化小型计算机进行分析。Tony等人就曾对一个仅有五个寄存器的小型计算机进行了Φ值计算。对于这类系统,其Φ值虽不为0,但仍然非常低。
原因在于,冯·诺依曼架构本质上是高度模块化的,系统被划分为不同的功能单元:有的专用于存储,有的专用于输入输出,有的专用于计算。一旦形成这种局部模块化结构,各模块之间的耦合强度就不足,导致整体Φ值不高。由此可见,尽管现代计算机拥有强大的计算能力,其意识程度却非常低。
基于此,Tony得出了一个令我非常震撼的结论:我们通常认为,只要一个系统(比如大语言模型或人工智能)具备强大功能,似乎就自然会展现出强意识。但事实并非如此。当我们真正去分析人工系统以及自然界时,就会发现:意识与功能很可能是两个毫不相关的、相互垂直的维度。这里有几个典型例子可以说明这一点:
例如,左上角展示的是自然界中一种非常古老的生物体,海绵。海绵的系统极其简单,属于低等生物,看起来“很傻”。但令人意外的是,它却被认为具有较高的意识程度,因为它拥有丰富的主观体验:一旦受到刺激,它就会收缩;再次刺激,它又会收缩。这种可重复的、对环境刺激的内在响应,暗示其具备相对较高的意识程度和主观体验。
再看另一个极端,右下角所示的是计算机芯片。这类系统显然智能程度很高,甚至催生了今天令人惊叹(或恐惧)的人工智能。然而,它的意识程度却可以被压得极低,原因在于它缺乏主观体验。而主观体验的来源,正是系统内部那些高度整合、富含反馈回路的连接结构。计算机芯片恰恰不具备这一点,它是一个高度模块化、高速前馈式的网络。
由此可见,智能与意识很可能是完全相互独立的两种属性。因此,当我们讨论“机器会不会具有意识”这个问题时,事情其实并不简单。并非只要具备强大的功能或超强的计算能力,就必然会产生较高的意识程度。
那么,机器究竟能否超越工程上的功能主义?会不会有一天,既然我们已经知道什么样的系统可能具备意识,那些“疯狂”的工程师们便尝试将意识能力强行赋予机器,使其产生丰富的主观体验?
大家觉得这有可能吗?是不是我今天讲完,回去就立刻动手造一台“意识机器”?我相信,这件事是得不偿失的,没有人愿意去做。你们想想,要让机器产生所谓的主观体验,它就必须牺牲一定的功能性。我们并不是在追求功能,而是要耗费大量算力去让机器自己“体验生活”,产生自我的体验,形成所谓的自我反馈。但对我们人类而言,这毫无目的、毫无功能。我们人类为什么要造这样一个机器?
所以,即使我们真的造出了这种耗费算力的机器,也会发现它消耗了大量能源和计算资源。而今天,在它尚未产生意识、仅完成我们指定功能的情况下,算力就已经捉襟见肘。那么,我们又为什么要创造一个只会产生主观体验、却无法执行实际功能的机器呢?因此,我认为在不久的将来,我们并没有动力去创造这种具备意识、能产生主观体验的机器。
反过来,对于我们人类自身而言,能不能超越这种功能主义?人类当然拥有丰富的主观体验,但由于人工智能的快速发展,以及社会内卷的加剧,我们反而越来越像机器一样,不断追逐功能、效率和产出。
最近,腾讯研究院的朋友向我介绍了:他们针对互联网上3000多个样本(均为高学历群体)进行调研,发现其中40%的人对“人工智能取代人类”感到极度焦虑。我觉得这件事颇为讽刺。按理说,高学历人群掌握着社会中最宝贵的资源,脑力也最为丰富,本应是幸福感最强的群体。但事实并非如此,他们实际上是一个高度焦虑的群体。
那为什么会如此呢?因为我们太过功能主义。无论在哪个方面,只要追求KPI或固定目标,在某种意义上就陷入了功能主义的陷阱。然而,作为人类,最宝贵的财富是我们的主观意识体验,这是超越功能主义的存在。因此,我们不应继续与人工智能竞争,而应去体验生活。
在我完成最后一页PPT时,脑海中突然浮现了两个词:“人类之心”与“机器之能”。我们不应再与机器竞争,因为迟早它们的智能及所有能力都会超越人类。但根据整合信息论,当前的机器不会拥有丰富的主观体验或意识。而人类最宝贵的正是我们的心、我们的主观体验和灵魂。这是我们人类的根本,我们应该让每个人和每台机器都能发挥各自的特长。
当我把这两个词输入到Nano Banana系统中时,它生成了一张非常可爱的图像。这象征着科技向善的美好愿景。谢谢大家!
本文由腾讯研究院实习生沈心协助整理