为机器立心(通用人工智能的中国蓝图系列)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

大语言模型并不是通往AGI的桥梁

作为大语言模型领域的风向标,虽然OpenAI估值正在向2 000亿美元狂奔,却难掩其骨干离职、持续烧钱、难于赢利、越发向虚的尴尬境地,人们对OpenAI的关注度正在逐渐下降。Anthropic等公司的表现也越发平平,何时赢利仍是个问题。

“OpenAI匆忙推出o1模型(一个大型、愚蠢的把戏)、有关未来OpenAI模型价格上涨的传闻、Scale AI的裁员,以及OpenAI高层的离职。这些都是事情开始走向崩溃的迹象。”美国科技界相关人士也表达了对生成式人工智能发展的担忧。

“大模型”的智能水平存在明显缺陷和性能天花板

在某种程度上,AI模型的“智能”程度取决于它所训练的数据,像ChatGPT、Google的Gemini或Meta的Llama这样的大语言模型不会达到人类的智能水平。这些大语言模型会犯非常愚蠢的错误,比如事实错误、逻辑错误、不一致等问题;它们的推理能力有限,会使用毒化的内容;它们对潜在的现实没有真正的理解,因为他们纯粹是在文本上训练的,这意味着人类知识的很大一部分是他们完全没有接触到的;而且它们没有真正规划答案。

我认为,当前社会对人工智能存在两个普遍的误区。

误区一:普遍认为难以自然习得的技能才是智能。

人们普遍认为,那些人类难以自然习得的技能才是智能,如编程或下棋等。然而,这种观点忽略了一个事实:人类天生具备或容易习得的能力,如视觉感知和语言理解,实际上才是智能的真正体现。我们之所以觉得编程或下棋复杂,是因为人类的大脑皮层中没有进化出相应的功能区来掌握这些技能,而掌握这些技能对我们的日常生活没有那么重要。相比之下,日常生活中的常用技能似乎毫不费脑,如穿衣服、使用工具等,是人类在进化过程中逐渐掌握的技能,现在我们可以自然而然地掌握这些能力,这说明这些能力对我们的生活至关重要。

误区二:过分专注于开发专门针对特定任务的算法。

当前人工智能研究领域存在一种倾向,即过分专注于开发专门针对特定任务的算法。这些算法经过大量特定数据的端到端训练后,虽然在执行它们被训练的任务上表现出色,但在面对更广泛的通用任务时,它们的表现往往不尽如人意。

首先,当前大模型的技术路线存在明显的天花板,它主要以人类产生的海量数据来进行训练。人类当前产生的数据量预估有100ZB(1),其中可用于模型训练的数据大约有20~30ZB。考虑到部分数据的保密性和互联网公司的封闭性,实际可用于训练的数据会更少,这预示着全球的大模型公司将很快面临无数据可用的困境。

其次,我们必须认识到,当前的算力和架构也存在天花板,对数据的利用效率不够理想。以现有的数据、架构和训练方式来评估,在数据枯竭之前,大模型的智能水平也不会达到通用人工智能的水平。尽管GPT等大模型能够“看遍”天下所有的文字,但它们所掌握的也仅仅是基于统计分析的“书本智慧”。然而,那些不识字的人群具有的“街头智慧”,即对物理世界和社会常识的理解,才是人工智能系统获得广泛应用和人类信任的关键。以无人驾驶技术的发展为例,在过去十多年里,尽管已在实际环境中进行了数亿千米的测试,但无人驾驶技术距离真正的商业化应用仍然有很长的路要走,这是技术发展遭遇瓶颈的一个典型案例。而人类只需练习足够时间就能学会开车,应付各种路况。我认为,与其追求在特定复杂任务上打败人类,不如转换思路,重新审视并回归到人类这一通用智能体的根基。我们应该不局限于“书本智慧”,走向“街头智慧”,这才是人工智能发展的主要方向。

安全与对齐存在风险

人工智能对齐(AI Alignment)旨在使人工智能系统的行为与人类的意图和价值观相一致。如果一个人工智能系统未能与人类的价值观对齐,它可能会追求与人类期望相悖的目标。随着新一轮智能化浪潮的兴起,人工智能系统的安全风险在多个领域逐渐显现,比如航天系统控制、自动驾驶汽车等应用场景。在这些领域,一旦人工智能系统失控,可能会引发严重的后果,包括人员伤亡和巨大的经济损失。因此,确保人工智能系统的决策与人类的意图和价值观相一致是至关重要的。

从人工智能安全策略的本质来看,我认为目前采取的智能体安全策略并不是一条正确的路径。当前的个体安全路径主要侧重于“堵”的策略,即在言论和行为上对聊天机器人和未来的具身智能机器人等在其行为空间施加限制。这种做法虽然可以防止人工智能体“越界”,但也显著增加了治理成本。

现有的以人类反馈强化学习(Reinforcement Learning with Human Feedback,RLHF)为代表的对齐方法,在一定程度上缓解了模型在不同任务中表现不一致的问题。然而,这些方法在处理复杂任务和面对精细安全场景时的扩展性仍然受限。

要建立真正高效、可扩展的对齐范式,需要从两个方面着手。

首先,建立价值体系,即V系统。这是一个由价值驱动的过程,旨在为通用人工智能设定初始的价值规范。V系统的核心是确保人工智能在其运作过程中始终遵循特定的价值观和伦理标准。这涉及对价值的分类和层次化管理,参考马斯洛的需求层次理论和发展心理学的研究,将价值进行细分,以便在人工智能的决策和行为中得到体现。通过这种方式,我们可以在系统层面为人工智能奠定一个坚实的伦理和价值基础,确保其行动不仅仅是有效的,而且是符合人类社会普遍接受的道德和伦理标准的。这一价值体系的建立是确保AI在复杂多变的环境中,能够做出符合人类期待和利益的选择的关键。

其次,建立认知架构与心智模型。这涉及设计和理解人工智能的认知过程,使其能够在不同情境下进行合理的推理和决策。一个透明且可解释的认知架构能够帮助我们了解AI如何处理信息和做出决策,这对于建立信任至关重要。通过外显地表示通用人工智能的认知架构,我们可以更深入地理解其运作机制。心智模型则是人工智能系统对周围世界的内部表示,它影响着系统如何感知、解读和响应外部信息。通过不断的迭代、交流和协作,人类和人工智能可以增进彼此的理解,进而达成共识,形成“有依据的信任”(justified trust)。这种信任不仅仅基于AI的能力,还在于我们对其决策过程和价值取向的理解和认可。因此,实现价值对齐的第二个维度在于构建一个透明、可解释的认知架构与心智模型,使人工智能能够在遵循既定价值体系的同时,做出理性的决策。

我认为实现安全策略时,应更多地从智能体的价值观出发,即在价值空间中规划,而非在行为空间中上锁。在现实世界中,人类社会的秩序和和谐主要依赖于个体的道德和价值观,而非仅仅依赖于空间和秩序上的烦琐约束。现有的技术路线和模型的架构设定使得大模型缺乏人类价值观,在处理复杂任务和面对精细场景时,难以完全对齐人类的意图和价值观,从而无法确保其行为的安全性。

投资与产业难以闭环

2024年10月,OpenAI在官网宣布,在最新一轮融资中筹集了66亿美元(约460亿人民币),融资后估值达到1 570亿美元(超11 000亿人民币)。

据The Information的分析,2024年OpenAI可能仍面临高达50亿美元的亏损。这主要是由于运营成本的大幅增加,包括对英伟达GPU的大量采购和数据中心的加速建设。

AI大模型的繁荣是不可持续的,近期已有大量的分析认为,尺度定律(scaling law)在失效。GPT等大模型泡沫的破裂可能会导致成千上万的人失业,科技行业的很多领域可能会遭受重创。

综合分析这一现象,可以归结为3个主要原因:一是大模型的智能水平距离通用人工智能仍存在较大差距,二是目前的大模型缺乏可以落地的产品,三是目前的大模型生态尚未形成可持续运转的商业模式。

· 第一,智能水平未达标

当前的大模型缺乏常识,不具备高级认知架构,测试环境与测试标准不统一且过于片面,这导致它们难以在现实场景中获得信任,也没有有效参与人类的各项活动。此外,当前的大模型可控性很差,使得几乎所有产品都没有实现商业化交付。

· 第二,缺乏可落地的产品

尽管产业界普遍认为人工智能将带来颠覆性的创新机会,但具体的落地时间和方式仍存在不确定性。在美国,许多团队都在模仿Character.AI(2)的商业模式和产品。国内许多大模型公司难以交付合格的商业产品,只能通过派驻团队以个性化部署的方式来完成交付,这就导致了订单越多、亏损越大的困境。

· 第三,尚未形成可持续运转的商业模式

一个健全的商业模式需要生产者、消费者、资金、技术、法规和监管的共同参与。目前,大模型的商业循环主要由英伟达提供硬件算力等底层产品,OpenAI提供大模型产品,微软提供应用层产品,形成了一个类似于“英特尔+微软”的软硬件生态体系,并升级为“英伟达+微软+OpenAI”的“巨头垄断”新格局。但在实际的运作过程中,由于英伟达对AI产业的垄断性以及微软与OpenAI的特殊协议,AI产业没有完成产品服务与资金的正常流动,难以实现真正的商业闭环。