如何教人工智能说人话?
上QQ阅读APP看书,第一时间看更新

第二章
ChatGPT或许会加剧人类社会的“自欺”

2022—2023年国际人工智能界的头号大事,便是人工智能程序“ChatGPT”的横空出世(“ChatGPT”的全名是“Chat Generative Pre-trained Transformer”,含义是“预训练的聊天生成转换器”)。ChatGPT目前主要以文字方式与用户交互信息,能够完成诸如自动文本生成、自动问答、自动摘要、文章润色、机器翻译、代写代码等多种任务。由于其在人机对话中表现出相对良好的性能,目前该技术平台正受到科技界与商业界的普遍重视。

不过,从人工智能发展史的角度看,此类平台就是早已出现的“聊天盒”(chatbox)技术与深度学习技术的结合,并没有体现出科学层面上的真正创新。(顺便说一句,在业界,那种比传统的“聊天盒”功能更强大的软件,一般叫“聊天机器人”[chatbot]。ChatGPT属于“聊天机器人”的范畴。)从总体看来,ChatGPT目前获得的局部成功,主要就是在海量的人工语料训练基础上“野蛮投入”的结果。此外,在笔者看来,这样的技术路径因为缺乏对于人类智能的真正架构的哲学洞见,其实是无法获得持续性进步的。


图2-1 法国哲学家萨特


能够用以批评ChatGPT技术的哲学视角其实非常多,而本章将采用法国哲学家萨特(Jean-Paul Charles Aymard Sartre,1905—1980,参见图2-1)在《存在与虚无》中提出的“自欺”(mauvaise foi)概念。概而言之,萨特哲学所说的“自欺状态”是一种试图规避本真自我之呼唤的企图——这种企图让人类个体放弃自己的自由,循规蹈矩地去做契诃夫笔下的“套中人”。因此,萨特本人对于“自欺”状态本身的批判性反思,便能使得读者意识到自己与仅仅服从外部规律的物之间的差异,并经由这种意识拓展自己行为的自由维度。

乍一看,运用萨特的“自欺”论去评论ChatGPT貌似是“远水不解近渴”:“自欺”论是针对人的,而ChatGPT仅仅是一种人造的软件,后者恐怕连“自欺”的资格都谈不上。但需要注意的是,不同器具自身的伦理意蕴其实也会对人类的精神自由产生不同的影响,尽管这些器具本身并没有自觉的伦理意识。举个例子来说,家用汽车的普遍出现其实为中产阶级的行动自由提供了更为坚实的技术保障,而致幻药的发明却使得不少人沉迷于虚假的精神世界而丧失了在现实中的自由行动力。因此,在“加剧自欺现象的技术发明”与“削弱自欺现象的技术发明”之间,肯定是存在着一条界线的。

而笔者认为,ChatGPT显然能被归类为“加剧自欺现象的技术发明”。为了论证这一点,笔者将分三个环节来展开:第一,对萨特的“自欺”论做出一种相对通俗的重述;第二,大致讨论一下ChatGPT的语言处理模式;第三,在此基础上,通过特定的人-机对话案例,论证人类用户对于ChatGPT的运用会削弱其对自欺现象的把握力。