第二次因果科学革命何以可能?

2023-08-24 来源:中国社会科学网

微信公众号

分享
链接已复制

  ChatGPT等大语言模型的推出,引起了公众的广泛关注。但是在可解释性等问题上,大语言模型存在一定缺陷。本文指出了导致这些缺陷的症结,分析了第一次因果革命的进展与限度,认为第二次因果革命有助于克服这些缺陷,将对第二次因果革命的可能性、必要性与现实性进行探讨。在此基础上指出,大语言模型与因果逻辑系统相结合有望在解决人工智能可解释性问题上取得一些进展。

  从ChatGPT等这类大语言模型的表现来看,它就像一个无所不知但不求甚解的怪才,只是不知疲倦地抛出所见所闻,不仅“对答”如流,还能对提问者“投其所好”并“知错就改”。这一成绩当然是惊人的,但它的缺陷是明显的。虽然它看起来很“逻辑”,甚至可以做因果推理,但是聊天中表现出来的一点儿因果推理能力,只是来自人类语料库里已有的内容,并不是它的自主推理。它并没有探索人脑结构和认知机制,仍然是一种基于统计学习的黑箱模型,不能解释其内部的工作机制。尽管它具有一定的自主能力,但它缺乏自主意识、情感和自主创造能力。尽管它能够实现某些复杂的任务,但它不具有人类智能的高度复杂性和多样性,不能像人脑一样进行跨领域、跨模态的学习和推理。简言之,这类语言模型的缺陷是:一、缺乏常识性知识;二、缺乏人类推理能力;三、对新领域的适应性不足;四、限于统计相关性推理,缺乏因果思维能力。

  从这类语言生成模型的深度架构和底层逻辑看,产生这些缺陷的症结在于,ChatGPT的底层架构是机器学习(也叫深度学习),而这一深度学习属于联结主义人工智能。我们都知道,符号主义人工智能擅长解决精确问题,能够较好地再现人类的逻辑和数学思维能力,比如如何查询数据库,如何运用逻辑推理分析问题,如何建构知识工程等。而联结主义表达流畅但逻辑性差,如果没有正确“理解”,其输出结果并不精准还会出错。可解释性正是联结主义最不擅长的。这样的底层架构,在一些聊天类问题上尚可接受,但在需要逻辑严密性和数学精确性的问题上则难以胜任。因此,想让ChatGPT更有逻辑,更具可解释性,仅仅依靠对现有模型加以优化是不行的,其底层架构决定了成功的可能性小。

  实际上,人工智能近年来取得的重大成功几乎都是由深度学习推动的。通过研究大量的数据,这种机器学习系统可以学习如何把一个事物与另一个事物相关联,随后把这些习得的关联性投入实际应用中。这就是基于统计相关的机器学习的底层逻辑。但事实上相关性不等于因果性,习得相关性只是登上了智能梯子的第一阶,还需要登上更高阶梯即珀尔所说的“深度理解”(deep understanding)。通过因果建模才能使系统基于当前对世界的理解去确定干预的效果,而不必对一切从头开始,重新学习。也就是说,要想让智能机器做出任何决策,就需要理解因果。

  对于现有机器学习系统的缺陷,珀尔明确指出:“从当前的实践效果来看,机器学习无法产生智能决策所需的理解能力。”(珀尔,《因果论》,2022,中文版序V)他还指出:“从数据拟合到数据理解的转变不仅仅涉及技术上的转变,它还意味着更加深刻的范式转换。”实际上,这种范式转换就是第一次因果革命。其优势在于,从因果规则出发,而不是从一系列已经发生过的案例列表出发,将会使系统更加通用,更具可解释性。然而,第一次因果革命虽然在可解释性、通用性方面取得了一些进展,但因果逻辑和哲学研究仍然面临许多深层次问题。这就使得第二次因果革命应运而生。

  第二次因果科学革命何以可能?朱迪亚·珀尔(Judea Pearl )在《因果论》(causality)一书的中文版序中指出,“在下一个10年里,这个(因果)框架将与现有的机器学习系统结合,从而可能引发‘第二次因果革命’。”但是这一预言并没有引起太大反响,然而不到两年的时间,这个预言开始具备了现实的可能性。GPT4等大语言模型的强大算力和流畅沟通能力刷新了人们对这类机器学习系统的认识,人们开始重新审视珀尔的预言。

  最近,珀尔及其追随者在用自己的工作践行这种“变革”。比如近日香港大学等高校的学者探讨了大语言模型能否从相关推出因果的问题。再如在论文“因果推理与大型语言模型:开拓因果关系的新前沿”(Causal Reasoning and Large Language Models: Opening a New Frontier for Causality)(网址:https://arxiv.org/abs/2305.00050)中,作者初步探讨了大语言模型与因果推理结合从而增强其因果推理能力的问题。在这项研究中,基于大语言模型的方法在因果发现、反事实推理和实际因果关系等基准测试任务中表现出较高的准确性。比如,大模型可以捕捉关于因果机制的常识和领域知识,并支持自然语言与形式方法之间的转换。这项研究发现,基于GPT-3.5/4的算法在多项因果推理任务中胜过现有算法,在因果发现任务中其准确率达到97%,提高了13个百分点,在反事实推理任务中准确率达到92%,提高了20个百分点,在确定事件的必要和充分原因方面具有86%的准确性。在这一研究中,大语言模型可以作为人类领域知识的代理,这对通常依赖于人类输入的因果任务来说是一个重要的推进。通过捕捉关于因果机制的常识和领域知识,并支持自然语言与形式方法之间的转换,大语言模型可以为推进因果关系的理论和应用研究开辟新的方向。

  图灵奖得主、计算机科学家珀尔曾在推特转发这篇论文并评论说,大语言模型应用于因果推理任务具有巨大的潜力,可能为“因果之梯”添加新的层级。这就启示我们尝试为可解释人工智能构想一个新的层级结构。

  总之,大语言模型为因果推理增强了能力,与现有机器学习方法相辅相成。虽然它的表现并不尽如人意,比如,鲁棒性检测表明它只具有通过记忆得到的因果关系,还不具有原理性的因果算法。另一方面,大语言模型与因果研究结合如何有助于增强人工智能的可解释性?还需要我们从哲学上深入探讨。基于以上那个分析,我们对第二次因果科学革命作如下的哲学反思:

  其一,因果变革可以使智能系统的灵活度、可靠性和创新性达到一个更高的水平。如果研究人员能够成功地将因果纳入计算和知识,那么智能系统的灵活度将会达到一个全新的水平。这是否有助于符号主义与联结主义的适当融合?

  其二,因果变革可以使智能系统的更有逻辑性、避免自相矛盾和违反常识,纳入因果的GPT可以为它试图表达的内容构建一个前后一贯的计划,并确保它与我们的常识相一致。这是否意味着经验主义与理性主义有可能深度融合?

  其三,因果变革将催生一系列因果逻辑系统的诞生。这些系统包括概率因果逻辑、反事实因果逻辑、非单调因果逻辑系统等。同时可以促进遗传算法、进化逻辑等生物智能模型与因果结合,探讨从相关性推断因果性的数字智能模型,等等。这是对原有逻辑范围的新拓展。这是否意味着数字智能技术与生物智能技术的融合?

  其四,因果变革将导致因果科学哲学研究范式的深刻变革。这将引起科学哲学、语言哲学、逻辑哲学、知识论和方法论的巨大变革,这实际上表明了第二次因果科学革命不仅是必然的,而且是可能的。

  (作者单位:四川大学哲学系)

 

  

  

  

转载请注明来源:中国社会科学网【编辑:李秀伟】