Cell子刊批判性发文,AI 在短期内不可能产生意识

  • A+
所属分类:关注

chatGPT账号

和大语言模型(LLM)交互,我们总会隐约觉得它们可能真的有意识。然而,从神经科学家们的视角来看,这种观点似乎很难站得住脚。

最近,一篇发表于Cell子刊Trends in Neurosciences的论文中,三位分别来自计算机科学、生物学和神经科学的学者深层剖析了“人工智能能否产生意识?”这个问题。

从结论上看,他们一致认为:LLM在目前的形式下不可能具有意识。这么斩钉截铁的观点是怎么来的呢?来看他们的具体阐述。

Cell子刊批判性发文,AI 在短期内不可能产生意识

图源:Cell

LLM 与意识

长期以来,人们一直在追问,哪些动物具有意识,以及除了动物之外还有哪些实体拥有意识。最近LLM的出现为这个问题带来了全新的视角。它向我们展现了自己精湛的交谈能力(这是人类具有意识的一种表现),也使我们对“理解力”、“智能”和“意识”三个概念开始重新定义和思考。

LLM是拥有数十亿连接权重的复杂多层人工神经网络,这些权重通过数百亿字的文本数据进行训练,这其中也包括人类之间的自然语言对话。通过文字提问,用户会被引入一个令人着迷的模拟语境中。如果你肯花时间使用这些系统,就很难不被其网络内部所展现出来的深度和质量所震撼。问它一个问题,它的回答往往与一个具有意识的个体能产生的回答微妙的相似。因此,作为一个有洞察力、有意识的个人,我们就很容易得出结论:我所接收到的回答是由一个同样具有“意识”的个体产生的,这个有“意识”的个体既能够思考、感受、推理,还颇具经验。

基于这类“图灵测试”结果,我们不禁要问,LLM是否已经具有意识,抑或是即将拥有意识?然而,这个问题反过来又将引出一系列的道德困境,例如继续开发在“意识”觉醒边缘反复徘徊的LLM是否合乎伦理?在当今神经科学界,人们并不普遍接受LLM具有“意识”这一观点,但随着人工智能系统能力的不断提升,关于该观点的讨论不可避免地又重新被摆上台面。此外,各大新闻媒体也在广泛讨论这一问题,促使着神经科学家们从自己专业的角度对这一问题进行客观的正反解读。

关于LLM具有潜在意识的观点往往会得到一类重要依据的支持,那就是LLM的架构在很大程度上受到了大脑特征的启发(图1),而大脑是我们目前唯一能自信地将其归因于“有意识”的对象。尽管早期的人工神经网络是以大脑皮层的简化版为基础来设计的,而现代的LLM经过高度工程化,并根据特定目的进行了调整,不再保留与已知大脑结构的深层同源性。事实上,许多让LLM在计算上强大的通路特征(图1)与我们目前认为在哺乳动物的意识产生和塑造中具有因果力的系统有着截然不同的架构。例如,与意识产生相关的许多神经科学理论认为,丘脑-皮质系统与觉醒系统在意识处理中发挥了核心作用,然而,现代LLM并不具备这两大系统。

Cell子刊批判性发文,AI 在短期内不可能产生意识

图1:哺乳动物大脑和大型语言模型之间的宏观拓扑差异 图源:Trends in Neurosciences

这时有人可能会问,为什么LLM的架构要模仿大脑的特征,这一点有那么重要吗?

在我们看来,主要原因是:我们目前只能确定一种意识的存在,它来自嵌入复杂身体的大脑。有人可能认为,从严格意义上说,这个论点可能要进一步缩减到仅涉及人类,尽管许多被认为对主观意识发挥重要作用的系统级特征在整个生物谱系上普遍存在,一直延伸到哺乳动物,甚至是无脊椎动物。

话说回来,让我们首先从“意识”的确切含义开始。然后,我们将提出三个反对当前人工智能系统具有或未来将很快具有意识的观点的论点:

  • 1. 意识与对生物体有意义的感觉流相关联;
  • 2. 在哺乳动物大脑中,意识得到高度相互连接的丘脑-皮质系统的支持;
  • 3. 意识可能与生物体系的复杂生物组织密不可分。

意识是什么?

意识是一个复杂的概念,其定义一直存在争议。在人类彼此能交流互动的背景下,交流对话能力是评估一个人是否具有意识的本能要素。

与LLM基于语言的互动对话常常是在培养一种直观的感受,这也是用于判断LLM是否可能具有意识的起点。然而,尽管LLM的交互式对话能力非常出色,但这并不能达到具有意识的正式客观的衡量标准,只是其具有智能的初步证据。

LLM的出现使得我们需要重新评估一个人是否能够直接从与他人的言语互动中产生意识。因此,一种新的观点认为,我们需要重新制定类人能力和类人特征的评判标准。

“意识”一词往往具有不同的含义。例如,神经病学家经常提到的“意识水平”,即首先评估一个人是否具有意识,再以一种更精细的方式评估意识的层次或特定状态。相比而言,心理学家则更关注意识的内容:即个人内心世界的具体经验、记忆和思想。此外,意识的不同内容之间也有区别。我们的经验可以被描述为现象或体验性的(比方说,看到或闻到一个苹果,或者触摸到你的手臂),也可以是更抽象的形式(例如,我们如何想象、展望或操作概念记忆)。

关于人工智能系统是否具有意识这一问题,可以通过多种测试方式来回答:既可以重点关注意识的某些含义,也可以同时关注意识的所有含义。在下文中,我们主要关注现象意识,并探讨机器是否能够现象性地体验世界。

关于环境

生物体在感知外界世界的过程中能够被利用的部分被称为它的环境。例如,人类视网膜对波长380 nm – 740 nm的光有反应,即视网膜能够感知由蓝到红的光谱。如果没有外界技术辅助,人类就无法检测到该波长范围之外的红外光(>740 nm)或紫外光(<380 nm)。我们在听觉、体感觉、前庭觉方面也有类似的环境,即相应的听觉域(人类耳朵能够听到20 Hz –20000 Hz的声音)、体感域(人类可以区分距身体某些部位约1毫米范围内的刺激)和前庭域(人类半规管的3D结构互相连接为我们提供内在的平衡感)。同时,自然界的其它物种能够检测到电磁频谱其他波段的信号。例如,蜜蜂可以看到紫外线范围内的光,蛇除了可以检测到更传统的视觉信号外,还可以检测到红外辐射信号。

也就是说,不同动物的身体和大脑能够感知它们周围环境的敏感性不同。美国心理学家Gibson将生物体在特定的环境中的行动可能性称为“可供性”(随着互联网技术的渗透,可供性开始被用于解释数字技术在媒体实践和人类日常交往中的应用)。

按这么定义,那么LLM的环境是什么?LLM具有怎样的可供性?根据其算法设计的本质,LLM仅具有二进制编码模式,只能接收二进制信息输入,并进一步执行复杂的transformer结构中固有的网络算法,这构成了当今LLM的工作架构。虽然神经元尖峰发放也能够将传入的模拟信号编码为数字信号(即二进制信号),但传递到LLM的信息流是高度抽象的,这些高度抽象的信息流本身与外部世界并没有任何紧密的联系。被编码成一串字母的文本和语音根本无法与自然世界的动态复杂性相匹配,即LLM的环境(提供给它的二进制信息)与我们睁开眼睛或交流对话时进入大脑的信息以及随之而来的体验相比,具有本质区别。传统哲学论述强调了不同物种之间信息流的独特性(例如,人类与蝙蝠之间的区别)以及这些经验的现象学特征。我们认为,LLM获得的信息输入可能会表现出更显著的差异,虽然暂时还没有确切的方法来量化这种差异。

话虽如此,未来人工智能系统的输入将会不可阻挡地变得更加丰富。未来的LLM可以配备不同类型的输入,这能够与有意识的智能体每天能访问的信号类型(即自然世界的统计数据)更好地进行匹配。那么,未来人工智能系统的可用环境会比人类的环境范围更广吗?

在回答这一问题时,我们必须认识到人类的潜意识和意识体验不仅仅由感官输入决定。例如,想象当我们躺在一个浮箱中,尽管我们缺乏正常的感官体验,但我们仍然具有意识。这里强调了一个概念,即环境预设了一种固有的主观视角,也就是说,要从一个主体出发。同样,可供性取决于主体的内部性质,特别是主体的动机和目标。这意味着仅仅通过环境(LLM的输入数据)还不能够产生意识。因此,简单地向人工智能系统输入大量数据流并不能够使智能系统自身产生意识。

这一观点可能会促使我们重新思考意识科学中的一些基本假设。具体来说,随着人工智能系统逐步表现出越来越复杂的能力,研究者将不得不重新评估某些意识理论所提出的更基本的自我和与智能体相关的过程对于意识出现的必要性。

意识的“整合”

目前,学界已有许多关于意识的神经相关性研究,其中关于意识处理的神经环路有许多不同的理论。一些强调,意识是由密集的、高度连接的丘脑-皮质网络支撑的。丘脑-皮质网络包括皮质区域、皮质-皮质连接以及高级丘脑核团向皮质区域的发散投射。丘脑-皮质系统的这种特定结构支持循环和复杂的思想处理,这些思想处理是意识和意识整合的基础(即,尽管意识产生于不同的大脑区域,但意识是统一的)。然而,不同理论对实现意识整合的方式持有不同观点。

根据全局神经元工作空间理论(global neuronal workspace theory, GNW),意识依赖于由分布式额顶叶皮质系统构成的中央工作空间。这个工作空间整合了来自局部皮质处理器的信息,然后在全局范围内将其传递给所有的皮质局部处理器,全局传递将有意识和无意识过程区分开来。其它意识理论认为,意识整合是由其它神经过程来实现的。例如,神经元树突整合理论(dendritic integration theory, DIT)表明,意识整合是通过不同皮质区域之间的高频同步现象产生的,根据所涉及的皮质区域不同,这一现象可能涉及包括感知、认知或运动规划等在内的不同功能。

Cell子刊批判性发文,AI 在短期内不可能产生意识

图2:基于神经元树突整合理论(DIT)的意识整合的神经结构 图源:Trends in Neurosciences

图注:在DIT理论(图2)中,研究人员认为全局意识整合同样取决于皮质第五层锥体神经元的局部整合,这种神经元是一种在丘脑-皮质和皮质环路中都占据中心地位的大型兴奋性神经元。这类神经元有两个主要结构(图2,橙色和红色圆柱体),分别处理完全不同类型的信息:基底结构(红色)处理外部基本信息,而顶端结构(橙色)处理内部生成的信息。根据DIT理论,在意识状态下,这两个结构相互耦合,允许信息通过丘脑-皮质和皮质-皮质环路流动,从而实现全系统信息的整合和意识产生。 

值得注意的是,当今LLM和其他人工智能系统的架构都缺乏这些理论所强调的特征:现有LLM既没有等效的双结构锥体神经元,也没有集中的丘脑架构、全局工作空间或上升觉醒系统的多个特点。换句话说,现有人工智能系统缺少目前神经科学界所认为的支撑意识产生的大脑特征。尽管哺乳动物的大脑不是唯一能够支撑意识产生的结构,但来自神经生物学的证据表明,哺乳动物意识的形成是由非常具体的结构原理(即整合神经元和激发神经元之间的简单连接)所决定的。从拓扑结构上讲,现有人工智能系统的结构极其简单,这也是我们不认为现有人工智能系统具有现象意识的原因之一。

那么,未来的AI模型是否最终能够将许多意识理论视为核心的“整合”过程融入其中呢?针对这一问题,GNW理论所提出的“集成”概念提供了一个相对简单的实现方式。实际上,一些最近的人工智能系统已经融入了类似于由本地处理器共享的全局工作空间。由于全局传递的计算过程可以在人工智能系统中实现,因此根据该理论,采用该计算方式的人工智能系统将包含潜在意识的核心成分。

然而,如前所述,并不是所有的意识理论都认同这种整合方式就是意识产生的关键。例如,意识的整合信息理论认为,在典型的现代计算机上实现的基于软件的人工智能系统不可能具有意识,因为现代计算机没有适当的架构实现充分集成信息所需的因果推理能力。因此,我们将考虑第三种可能性,即意识在原则上是可以实现的,但它可能需要超出当前(也许是未来)人工智能系统的计算特异性水平。

意识是一个复杂的生物学过程

意识的产生不仅依赖于系统的架构。例如,当我们处于深度睡眠或麻醉状态时,丘脑-皮质系统的结构没有发生变化,但意识却消失了。即使在深度睡眠中,主要感觉区域的局部神经反应和伽马带活动也与有意识状态相似。这表明,意识依赖于特定的神经过程,但在有意识和无意识的大脑中这些神经过程是不同的。

为了阐明有意识与无意识处理之间的细节差异,让我们先回过头来看神经元树突整合理论(DIT)。DIT理论包含了与有意识和无意识处理的神经过程相关的一些神经生物学方面细微的差别。DIT理论提出,有意识和无意识处理之间的关键区别在于锥体细胞的两个区室结构的整合(图2)。如前所述,在有意识处理期间,这两个结构相互作用,从而使整个丘脑-皮质系统能够处理和整合复杂的信息。然而,在麻醉状态下,各种麻醉剂导致椎体神经元两个结构之间的功能解耦。换句话说,这些椎体神经元虽然在解剖学上是完整的,可以激发动作电位,但其树突整合能力在生理上受到严重限制,即自上而下的反馈信息不能影响处理过程。研究表明,这种树突耦合是由代谢型受体控制的,然而在计算模型和人工神经网络中该结构经常被忽视。此外,研究表明,在这种情况下,高级丘脑核团控制这种代谢型受体的活性。因此,特定的神经生物学过程可能负责在大脑中“开启”和“关闭”意识。这表明,哺乳动物大脑中经验的质量与其产生意识的潜在过程有着错综复杂的关系。

尽管这些理论依据足以令人信服,几乎可以肯定的是,和距离完全理解意识产生的神经过程的复杂性相比,这些知识仍然稍显苍白。我们目前对意识的解释依赖于全球工作空间、整合信息、循环处理、树突整合等理论,但真实意识产生的生物过程可能比当前这些理论所理解的要复杂得多。甚至很有可能目前用于构建意识研究讨论的抽象计算级思想可能完全没有考虑到解释意识所需的必要计算细节。

换言之,生物学是复杂的,我们目前对生物计算的理解是有限的(图3),因此也许我们缺乏正确的数学和实验工具来理解意识。

免责声明

免责声明:

本文不代表知点网立场,且不构成投资建议,请谨慎对待。用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点网不对网站所发布内容的准确性,真实性等任何方面做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网对项目的真实性,准确性等任何方面均不做任何形式的承诺和保障;

网站内所有涉及到的区块链(衍生)项目,知点网不对其构成任何投资建议,用户由此造成的损失由用户自行承担,与知点网没有任何关系;

知点区块链研究院声明:知点区块链研究院内容由知点网发布,部分来源于互联网和行业分析师投稿收录,内容为知点区块链研究院加盟专职分析师独立观点,不代表知点网立场。

  • 我的微信
  • 这是我的微信扫一扫
  • weinxin
  • 我的电报
  • 这是我的电报扫一扫
  • weinxin
chatGPT账号
知点

发表评论

您必须登录才能发表评论!