前沿追踪 | Science:关于通用人工智能(AGI)本质的辩论
探索科技前沿,洞察行业动态
人工智能、集成电路、新能源、
生命科学、通讯产业
五大科技领域,尽在掌握
科研快车,即刻启程!
今日板块:人工智能
Science | 关于通用人工智能(AGI)本质的辩论
原文名称:Debates on the nature of artificial general intelligence
作者:MELANIE MITCHELL
作者单位:波特兰州立大学
刊物:Science
原文链接:https://www.science.org/doi/10.1126/science.ado7069
“通用人工智能”(AGI)一词已在当前关于AI的讨论中无处不在。OpenAI声称其使命是“确保通用人工智能惠及全人类。” DeepMind的公司愿景声明指出,“通用人工智能...有潜力引领历史上最伟大的变革之一。”AGI在英国政府的国家AI战略和美国政府AI文件中被突出提及。微软研究员最近声称在大型语言模型GPT-4中发现了“通用人工智能的火花”,而现任和前任谷歌高管宣称“通用人工智能已经到来。”埃隆·马斯克针对OpenAI提出的诉讼中心问题是GPT-4是否为“AGI算法”。
鉴于AGI话题在商业、政府和媒体中的普遍性,人们不会因为认为该术语的含义已确立且被普遍接受而受到责备。然而,实际情况正好相反:AGI的含义,或者说它是否具有任何连贯意义,正是AI社区中激烈争论的焦点。AGI的含义及其可能的后果已不仅仅是围绕一个晦涩术语的学术争议。世界上最大的科技公司和整个政府都在基于他们认为AGI将带来的后果做出重要决策。但深入探究对AGI的推测显示,许多AI从业者对智能的本质与研究人类和动物认知的人有着截然不同的观点——这些差异对于理解现状和预测机器智能的可能未来至关重要。
AI领域的原始目标是创造具有与人类相当的通用智能的机器。早期AI先驱们充满乐观:1965年,赫伯特·西蒙在其著作《自动化对人和管理的形态》中预测“在二十年内,机器将能够完成任何人能做的工作”,而在1970年《生活》杂志的一期中,马文·明斯基被引用说“在三到八年内,我们将拥有一台具有平均人类智能的机器。我的意思是,一台能够读莎士比亚、给汽车加油、玩办公室政治、讲笑话、打架的机器。”
这些乐观的预测并没有成为现实。在随后的几十年中,唯一成功的AI系统是狭窄而非通用的——它们只能执行单一任务或有限范围的任务(例如,你手机上的语音识别软件可以转录你的口述,但不能对其作出智能响应)。“AGI”一词在21世纪初被创造出来,旨在重新捕捉AI先驱的宏伟抱负,寻求重新关注“以独立领域的方式研究和复制整体智能的尝试”。
这种追求直到最近还是AI领域中一个相对不起眼的角落,当领先的AI公司将实现AGI定为他们的主要目标,而著名的AI“末日论者”宣称来自AGI的存在威胁是他们最担心的事情时,情况发生了变化。许多AI从业者对AGI的时间线进行了推测,例如,有人预测“到2028年,我们有50%的机会拥有AGI。”还有人质疑AGI的整个前提,称其模糊且定义不清;一位著名研究员在推特上写道:“整个概念是不科学的,人们甚至使用这个术语应该感到尴尬。”
OpenAI发现构建通用人工智能所消耗的资源远超想象
尽管早期的AGI支持者认为机器很快就会承担起所有人类活动,但研究人员通过艰难的方式了解到,创建能在国际象棋游戏中击败你或回答你的搜索查询的AI系统,比构建一个能折叠你的洗衣服或修理你的管道的机器要容易得多。因此,AGI的定义相应地进行了调整,仅包括所谓的“认知任务”。DeepMind联合创始人德米斯·哈萨比斯将AGI定义为一个“应该能够完成人类能做的几乎任何认知任务”的系统,而OpenAI描述它为“在大多数经济有价值的工作中胜过人类的高度自治系统”,其中“大多数”排除了那些可能暂时难以为机器人所及的需要物理智能的任务。
AI中的“智能”概念——无论是认知的还是其他形式的——通常以个体代理优化奖励或目标的形式来框定。一篇有影响力的论文将通用智能定义为“代理在广泛环境中实现目标的能力”;另一篇论文则声明,“智能及其相关能力,可以理解为服务于奖励最大化。”事实上,这就是当今AI的工作方式——例如,计算机程序AlphaGo被训练来优化特定的奖励函数(“赢得游戏”),而GPT-4被训练来优化另一种奖励函数(“预测短语中的下一个词”)。
这种对智能的看法导致了一些AI研究者持有的另一种猜想:一旦AI系统实现了AGI,它将通过将其优化能力应用于自己的软件,递归地提升自己的智能,并迅速变得在一个极端预测中,“超过我们成千上万倍的智能。”
这种对优化的关注导致AI社区中的一些人担心来自“未对齐”的AGI对人类的存在风险,这种AGI可能会疯狂地偏离其创造者的目标。在他2014年的书《超级智能》中,哲学家尼克·博斯特罗姆提出了一个现在著名的思想实验:他想象人类给一个超级智能AI系统设定了一个目标——优化回形针的生产。这个目标被AI系统完全按字面理解后,它便利用其智慧控制了地球上所有资源,并将一切转化为回形针。当然,人类并不是打算为了制造更多回形针而毁灭地球和人类,但他们在指令中忽略了这一点。AI研究者约书亚·本吉奥提出了他自己的思想实验:“我们可能会让AI解决气候变化问题,它可能会设计出一种病毒来减少人口,因为我们的指令对于什么是伤害没有说清楚,而人类实际上是解决气候危机的主要障碍。”
这样的关于AGI(和“超智能”)的推测性观点与研究生物智能,特别是人类认知的人们所持有的观点不同。虽然认知科学对“通用智能”没有严格的定义,也没有共识认为人类或任何类型的系统可以在多大程度上拥有它,但大多数认知科学家会同意,智能不是一个可以在单一尺度上测量并任意调整的数量,而是一种复杂的通用和专门能力的集成,这些能力在很大程度上是在特定的进化生态位中适应性的。
许多研究生物智能的人也对所谓的“认知”方面的智能能否与其他模式分离并被无实体机器捕获表示怀疑。心理学家已经显示,人类智能的重要方面植根于个体的身体和情感体验。证据还显示,个体智能深深依赖于个体的社会和文化环境参与。理解、协调和从其他人那里学习的能力,对于个人成功实现目标可能比个人的“优化能力”更为重要。
此外,不像假想中以最大化回形针生产为中心的AI,人类智能并不集中于优化固定目标;相反,个人的目标通过天生需求和支持其智能的社会文化环境的复杂整合而形成。与超级智能的回形针最大化器不同,增强的智能正是让我们更好地洞察他人意图以及我们自己行动可能的效果,并相应地修改这些行动的能力。正如哲学家卡特嘉·格雷斯所写,“作为一项次要步骤征服宇宙的想法对于几乎任何人类目标来说都是完全可笑的。那么我们为什么认为AI的目标不同呢?”
机器通过改进自身软件以数量级增加其智能的幽灵,也与生物学上将智能视为一个超越孤立大脑的高度复杂系统的观点背道而驰。如果人类级别的智能需要不同认知能力的复杂整合以及社会和文化的支撑,那么系统的“智能”层面很可能无法无缝访问“软件”层面,正如我们人类无法轻易地改造我们的大脑(或基因)来使自己更聪明一样。然而,我们作为一个集体,通过外部技术工具,如计算机,以及建立文化机构,如学校、图书馆和互联网,已经提高了我们的有效智能。
AGI的含义以及它是否是一个连贯的概念仍然在争论之中。此外,关于AGI机器能做什么的猜测大多基于直觉而非科学证据。但这种直觉能信赖多少呢?AI的历史反复证明了我们对智能的直觉是错误的。许多早期AI先锋认为,用逻辑编程的机器将捕捉到人类智能的全部范畴。其他学者预测,让一台机器在国际象棋上战胜人类,或进行语言翻译,或持有对话,将需要它拥有一般人类水平的智能,但这被证明是错误的。在AI的发展的每一个步骤中,人类级别的智能都比研究人员预期的要复杂。当前关于机器智能的猜测是否也将被证明是错误的思维?我们是否能发展出一个更严谨、更通用的智能科学来回答这些问题?
目前尚不清楚AI的科学是否会更像是人类智能的科学,或者更像是,比如说,天体生物学,后者对其他星球上可能的生命形态进行预测。对于从未见过且可能根本不存在的事物——无论是外星生命还是超级智能机器——的预测将需要基于一般原则的理论。最终,“AGI”的意义和后果不会通过媒体辩论、诉讼或我们的直觉和猜测来解决,而是通过这些原则的长期科学研究来确定。