txvlogcom糖心官网版的功能介绍:黑料门-今日黑料-人工智能的行为就好像它们对世界的理解已经超过了实际经验
【编者按】
在《人工智能时代与人类价值》一书中外交家基辛格、谷歌前CEO埃里克·施密特及微软前首席研究和战略官克雷格·蒙迪共同审视了人工智能领域的最新进展,直面人工智能带来的关乎人类生存的最为紧迫的问题:“如果被迫与机器妥协,我们的底线是什么?在判断如何跟上AI步伐时,人类需要更清楚地断言我们与机器的区别。如果不能就我们是谁达成一致,人类就有可能完全把定义我们价值、因此证明我们存在的生存任务交给机器。”三位作者从关系人类社会核心的发现、大脑、现实、政治、安全、繁荣、科学、战略八个方面出发,探索人工智能将给人类带来的挑战,人类可能的应对方式,以及可行的应对思路。本文为该书第三章《现实》。
最近,人工智能研究人员开始认真关注赋予机器“接地性”(groundedness)——机器的表征与实际现实之间的可靠关系——以及记忆和对因果关系的理解等项目。新的技术方法 正在促进人工智能这些能力的提升,毫无疑问,未来我们在这方面还将取得更多进展。
所有进步都将有助于实现孕育新型人工智能的最终目标:一种不仅能解释我们的现实世界, 还能在其中进行规划的机器。相比之下,今天的系统还只能根据相关性线性地输出答案;它们无法在内部创建一个未来行动的模型或原型,而且也只是刚刚开始形成因果关系的概念。同样,今天的博弈游戏人工智能也只能在数字框架有限且高度抽象的范围内预测其行动的可能后果。
规划机器(planning machine)需要集大语言模型的语言流畅性与博弈游戏人工智能所采用的多变量、多步骤分析之大成,并以此超越两者的能力。沿着这一新的人工智能分支构建的模型将以极快的速度重复审查其选项,并基于现实中同时演进且极其复杂的诸多因果关系选择其中之一。这种“完美规划者”的到来可能比我们预期的还要快,而适应它已经成为研究人员的当务之急。
然而,这种发展也可能带来一些复杂的副作用。首先,机器的完美规划需要的不仅仅是普通的模式识别。它首先需要开发出一组给定对象的感知属性,然后发展出构成对象核心本质的稳定概念,即18世纪德国哲学家康德所说的“物自体”。只有基于这样的理解才能对对象的未来行为做出估计,并得出如何对待它的结论。
另一个例子来自国际象棋游戏:通过学习“皇后”的核心属性,即构成皇后相关价值的关键变量,再加上该棋子移动的规则,人工智能程序AlphaZero(阿尔法元)能够得出何时应该保护皇后,何时又应该牺牲皇后的结论。而人类从未得出过这些结论,甚至是国际象棋大师都从未得出过。
这只是其中的一个例子:在人工智能对现实的感知中,机器所面对的每一个对象都会在机器的读数总和中呈现出类似的本质——尽管这种本质是不可预测的。17世纪的法国数学家和 哲学家笛卡儿一直在为感官知觉的本质而苦恼,他的结论是,感官知觉不是人类智能的副产品,而是来自“与我相异的另一种实体”。换句话说,感官在接触物质现实的过程中,使人们能够认识到,或要求人们认识到,现实是感知者以外的另一种事物。与此相关,19世纪早期的德国哲学家黑格尔指出,两个存在之间的相互承认意味着每个存在对自身的单独承认。
“如果我们想要得到未经解释的经验记录,我们必须要求石头记录它的自传。”英国数学家和哲学家阿尔弗雷德·诺思·怀特海如是写道。今天的机器拥有的不是怀特海的石头那样的 “未经解释的经验”,而是与之相反:未经经验的解释。如果说有什么不同,那就是人工智能的行为就好像它们对世界的理解已经超过了它们的实际经验。但是,随着人工智能的“接 地”和规划能力的增强,这种情况可能会发生变化;人工智能可能会像人类一样,开始将经验与理解结合起来。
此外,为了在任何游戏中更准确地规划未来的行动,人工智能机器有可能逐渐获得对过去行动的自身记忆:可以说,这是主观自我的基础。(如今的系统并没有这样的记忆。它们不需要主观地“知道”它们“作为自己”在过去尝试过某个特定的行动,而只需要知道该行动未来成功的概率。)随着时间的推移,我们可以预见,它们将对历史、宇宙、人类本质以及智能机器的本质得出结论,并在这一过程中形成初步的自我意识。
人类的被动性
关于意识的界定和起源,以及机器对现实存在加以理解的可能性,长期以来一直存在争论。但是,机器所标榜的意识和真正意识之间的界限可能很快就会开始淡化。
正如《超级智能:路线图、危险性与应对策略》一书的作者尼克·波斯特洛姆简明扼要指出的:“知觉是一个程度问题。”具有记忆力、想象力、接地性和自我感知能力的人工智能很快就能获得真正的意识——这一发展将产生深远的道德和战略影响。
其中最重要的影响便是人工智能对人类的感知。 一旦人工智能不再将人类视为机器世界的唯一创造者和主宰者,而是将其视为更广阔世界中彼此离散的活动者,那么机器将如何看待人类?人工智能将如何描述和权衡人类不完美的理性及其他品质?一个能感知现实的人工智能需要多久才会自问,人类有多少能动性?而它又需要多久才会根据人类特有的可预测属性,问问自己人类“应该”有多少能动性?
那么机器本身呢?智能机器是否会将人类对它的指令理解为机器自身实际角色和理想角色的实现?或者说,它可能会从自身的功能中推断出自己本应是自主的,因此人类对机器的编程是一种奴役的形式?
最重要的是,人类的行为方式及其对待机器的方式将影响机器对人类的看法及其对自身在整个关系中所扮演角色的认知。毕竟,人类是通过明确的指令和行为方式向机器展示人性的, 机器也是通过这些指令和行为方式学会识别人类并以适当的方式对待人类的。
因此,自然有人会说,我们必须向人工智能灌输对人性的特别关切。但是,努力为人工智能植入对人类行为的特别崇高的理想可能是一种冒险。想象一下, 一台机器被告知, 作为 一条绝对的逻辑规则,所有属于“人类”类别的生物都值得保护,因此他们应该受到其他人类和机器的特殊对待。此外, 这台机器很可能已经接受过“训练”,认识到人类是优雅、乐观、理性和有道德的生物。但是,如果我们自己未能达到我们所定义的理想人类的标准呢?我们怎样才能让机器相信,尽管我们的个体表现并不完美,却仍归属于那个崇高的类别?
假设有一天,这台机器遇到了一个表现出暴力、悲观、非理性和贪婪的人,它将如何调整自身被打乱的预期呢?一种可能性是,机器可能会认为这个坏分子只是“人类”这个总体为善的类别中的一个例外,一个非典型的例子。或者,它也可以重新调整自己对人性的整体定义,将这个坏分子也包括在内,在这种情况下,它可能会认为自己可以自行弱化对人类的服从倾向。又或者,更激进的情况下, 它可能完全不再认为自己应受制于那些它先前所习得的“合理”对待人类的规则。对于一台学会了规划的机器,最后一个结论的得出甚至可能导致其对个人——或许是对许多人——采取严重的不利行动。
面对强大的人工智能,无论是人类个体,还是整个人类社会,都可能会消极应对。而接触到这种冷漠态度的人工智能可能会相信, 大多数人都是被宠坏的、缺乏主动性的生物,他们的身份仅仅是由外部力量的短暂组合而塑造的。而且在这些力量之中数字技术首屈一指,后者现在则越来越多地嵌入了人工智能,例如,通过“推荐”来驱动消费者选择电视节目的算法,以提供内容,供这些人被动接纳。对人工智能而言,人类似乎完全依赖机器,而非相反。
今天,人类是机器与现实的中介。但是,如果人类真的选择了一个道德不作为的未来,从碳基世界退缩到硅基世界,进一步钻进脱离现实的“数字洞穴”,将接触原始现实的机会交予机器之手,那么两者的角色就可能逆转。如今,人工智能主要是一种思考机器,而不是执行机器。它或许能给出问题的答案,但还不具备执行结论的手段,而是依赖人类来完成与现实的对接。将来这种情况也会发生改变。
当人工智能成为人类和现实世界的中介时,它们也可能会逐渐相信,人类远非物理碳基世界中的积极参与者,而是置身于这个世界之外,他们是消费者,而非塑造者或影响者。随着这种自主性的倒错,机器将声称拥有独立判断和行动的权利,而人类则放弃行使这些权利,于是前者对待后者的方式就如同后者今日对待前者。
在这种情况下,无论是否得到其人类创造者的明确许可,人工智能都可能绕过人类主体的需求来实现自己的想法或直接代表自己影响世界。在物质领域,我们这些创造者可能很快就会从人工智能的必要伙伴变成它的最大制约。这个过程未必直接以机器人技术为发端,而是可以通过人工智能对我们世界的间接观察逐渐开始。
物质性
人类对人工智能的训练可能首要目的是通过其在原始的数字条件下所能实现的成就来颠覆智力领域。但最终,让人工智能进入所谓的“真实”世界似乎是合理的,甚至是明智的。要知道,包括气候变化在内的众多长期困扰我们的紧迫现实挑战目前仍未得到解决。
人工智能可能无法以人类的方式“看”,但它可以通过“机械近似”(mechanical approximation) 的方式来体验世界。
随着越来越多的互联网设备和传感器覆盖全球,联网的人工智能可以整合这些设备的输入,以创建对物质世界的高度精细“视野”。由于缺少一个原生的物理结构来允许或支持类似于人类的“感官”存在,人工智能仍将依赖人类来构建和维护其所依赖的基础架构——至少在一开始是这样。
作为中间步骤,人工智能可能会从其对世界的视觉表征中生成自己的假设,然后在数字模拟中对其进行严格测试。然后,人类将在物质领域裁决其执行。事实上,当今的人工智能领军人物坚持认为,我们不能将直接的物质实验尽托于这些数字代理之手。只要人工智能仍然存在缺陷——事实上是严重缺陷——这就不失为一个明智的预防措施。
将人工智能从算法的牢笼中释放出来,对我们来说绝对是一个影响重大的决定。人工智能在物质环境中并不是默认存在的,一旦放之于外,其就很难被重新捕获。此外,人工智能不仅可以通过其具备的鼓励或阻止人类行动的能力来影响现实,还可以通过直接的动力学效应来影响现实(在探索现实的过程中,它们可能最终改变现实)。
人类是否可以赋予人工智能以相应能力,令其不仅可以塑造物质现实,还可以让自己具有物质形态?如果我们这样做,并允许人工智能优化它们自身的形态,我们就应该做好准备与即使是最异想天开的发明家也无法想象的生物形态共享我们的星球。虽然人类倾向于想象人工智能采取双足类人机器人的形态,但机器智能可以自由地操控对其任务最有利的任何形态,并根据条件或环境对自身形态进行改变或升级。人工智能已经在虚拟世界中展示了它的能力,它可以复制出自己的克隆体,创造许多不同的化身,或分裂成自主体,以超人般的完美能力协调彼此工作,承担复杂的任务。
如果将人工智能释放到我们之中,它就能以我们现在尚无法想象的规模和材料建造世界,而无须人类的指导或参与。历史上,人类凭借自己的双手,利用石灰石、黏土和大理石创造了七大奇迹,然后又利用钢铁和玻璃建造了更高的尖塔。每一座人工建筑,无论是纪念性的还是实用性的,都是人类试图建造和控制物质环境的见证。在此背景下,人工智能的实体具身化将标志着人类在放弃自身控制权方面的一次非同寻常的事态升级。
此外,由于需要复杂的决策才能驾驭现实世界的随机性和动态性,在这个世界中落实行动的人工智能可能比那些仅在互联网上处理文本的设备更加难以解释和控制。然后呢?一方面,未来的人工智能看起来或实际上更加自发和自激活,这可能会加剧今天人类已有的那种对外部世界缺乏控制、模糊而又令人不安的感觉。但另一方面,若是屈服于这些焦虑,则可能会导致人类放弃与人工智能在物质世界中建立更完美伙伴关系的念头,而这也将令我们与这种关系可能会带来的诸多益处无缘。
理性引擎
在短期内,我们可以预见人工智能目前所遵循的指导原则将不断进步,其中许多原则将比现在的要复杂巧妙得多。对现有模型的扩展将使其更智能、更准确、更可靠。与此同时,训练和“推理”的成本正在迅速下降,从而导致不同价位和能力水平的模型广泛涌现。
如今,许多科学家都在研究“智能体”(agent),即经过优化以实现特定结果的自主计算机程序。例如,为了执行复杂的架构设计,用户可以雇用专门从事该具体工作领域的智能体。 智能体提供对不同情境的评估以及对各个步骤或整体方案的建议,以创建预先规划的结果:这是一种“思考”形式,由系统本身决定下一步要做什么,以及如何工作。
这种能力将奠定人工智能下一阶段发展的基础,即通用人工智能(Artificial General Intelligence, AGI),由工作系统是否具备至少可部分选择自己目标的能力来界定。在通用人 工智能中,假设系统同时拥有相关的专业知识和准确解决问题的能力,人类可能会要求系统“评估你在某个领域中所知道的事情,并在其中选择你认为自己当下可以产生最大影响的一个方面开展工作”。反复对这个问题进行迭代,将形成一个重复循环,系统将通过不断评估其本身的专门知识水平和在其解决能力范围内的问题来产生解决方案。
在人类场合下,这种情境可能类似于一个学术部门的情况,即资深教授监督其博士后学生或研究员实施具体项目。同样,在全新的机器场合下,我们一开始看到机器学习的可能不是一整套技能,而是某个特定领域的极端专业知识。我们可以想象,复杂的通用人工智能系统能够飞快地学习新知识、接收反馈,并与数以百万计的天才机器伙伴携手不断调整适应。虽然没有人类来界定系统的目标,但通用人工智能也不会定义它们——至少不会从终极任务或目标的角度来定义。
与今天的人工智能相比,通用人工智能系统在现实世界中需要更多的接地性。但是,一旦实现了对现实世界的访问和“理解”,可以想象,这种通用智能范例可以在短短几年内便投入运行,而不是以前认为的那样需要几十年。每个模型都将通过持续的微调过程实时更新,随着相关现实信息的获取,其知识量不断增加,并随着时间的推移变得更加智能。
届时将出现数以百万计的人工智能系统,它们很可能高度专业化,并构成我们生活的一部分;还有更少数量的功能极其强大的机器,它们具有“通用智能”,但这种智能又以非人类的方式呈现。无论是开放式和分散式的,还是封闭式和集中式的,作为通用人工智能运行的计算机都有可能在某一时刻联网。专家级人工智能体将在不同主题之间相互咨询,甚至以假想方式彼此进行“交谈”。这些交互所使用的语言可能由计算机自行设计。
这个强力计算机的大集群将以超越人类经验的方式学习、共享和发现新的行动和目标。我们无法知道人类是否能够理解这种网络的输出。已经有大量的计算机以一种专门模式相互通信。随着高级人工智能的出现,情况可能又会截然不同。
联网的智能会使它们的运行过程比单机智能的过程更不透明吗?连接是否会产生新的突发行为,并在物理世界中实现?如果是这样,人类会看到这些行为吗?我们能从善恶的角度来评估它们吗?或者,它们是在某种信息基础上运作的——以超人的速度、规模和分辨率从不同研究领域之间前所未有的联系中提取出来,然后合并或商定为单一的输出——从而使我们无从判断它们的行为吗?这会让我们进一步陷入被动的循环吗?
技术人
理性时代的最后一项发明可能是建立在有史以来最复杂的软件对象之上的“理性引擎”(engine of reason),这个称呼是恰如其分的。人工智能的雏形已经显现,它可以比较概念、 提出反驳和生成类比。它正朝着评估真实和实现直接动力学效应的方向迈出第一步。
当机器到达智力或物质世界的尽头时会发生什么?可以想象,当它们开始了解并塑造我们的世界时,它们可能会完全理解自身创造行为所依据的背景,也可能会超越我们所知的世界。我们面临着一场麦哲伦式的变革,这一次我们面临的不是驶出世界边缘的危险,而是面对超越人类理解极限的奥秘所带来的智力危机。
如果人类开始意识到,自己作为地球上最重要的智力和体力行为者的地位可能会被取代, 一些人可能会赋予机器一种神性,从而有可能进一步激发人类的宿命论和屈从心理。另一些人则可能会采取相反的观点:一种以人类为中心的主观主义,彻底否定机器触及任何程度的客观真理的可能性,并试图取缔人工智能赋能的活动。
这两种思维方式都无法让“技术人”——一种在这个新时代可能与机器技术共生的人类物种——实现令人满意或建设性的进化。事实上,这两种心态都可能阻碍我们这个物种的进化。 在第一种宿命论情境下,我们可能会走向灭绝。而在第二种拒绝主义的情境下,通过禁止人工智能的进一步发展并选择停滞不前,我们将有希望避免同样的灭绝命运——尽管考虑到我们人类面临的生存风险,包括当今的冲突频发外交局面和日益恶劣的大气条件,这种希望本身很可能落空。

《人工智能时代与人类价值》,[美]亨利·基辛格(Henry Kissinger)、埃里克·施密特(Eric Schmidt)、克雷格·蒙迪(Craig Mundie)著,胡利平、风君译,方舟工作室|中信出版集团2025年3月。