怎样才是精通ai(怎样找个靠谱的解释)

怎样才是精通ai(怎样找个靠谱的解释)(1)

对一个复杂现象能解释得严丝合缝的,往往反而是那些阴谋论或诉诸超自然因素的理论。

撰文 | 王培(美国天普大学计算机与信息科学系)

“为什么” 是最常见的问题类之一了。和“是不是”(判断、评价) “是什么”(识别、分类) “什么是”(举例、搜寻)等类问题相比,对这种 “求解释” 问题的回答所涉及到的推理过程更为复杂。这不仅是由于答案难以找到(所有问题类都有这种情况),更常常是由于“答案” 太多而且互相矛盾,因此难以抉择。各位读者如果检点当前的舆情热点则不难发现,不论是对历史事件还是现实现象,貌似有理的解释俯拾皆是,但显然不能同时都被接受,而有些更是匪夷所思到令你佩服人们的想象力。此处还有逻辑可言吗?

解释和归因

对解释性问题的回答不是传统意义下的 “演绎” 推理,这就是说没有一套严格的规则可以为一个给定的现象A找到一个正确的解释B。一种常见的说法是,把所有不是演绎的推理统称为 “归纳”,但这样一来未免抹煞了其中不同推理类型的重要差别。

在推理分类上做出奠基性贡献的是皮尔斯(Charles Sanders Peirce)。他最早提出解释性推理是和演绎、归纳均不同的基本推理形式。皮尔斯开始称这种推理为hypothesis(假设),后改称abduction。后面这个词在中文中有 “溯因” “归因” “逆推” 等译法,我觉得 “归因” 和 “归纳” 对应,更恰当些,因此一般用这个词。在Deduction, Induction, and Hypothesis 一文[1]中,皮尔斯给出的例子是:

  • 演绎(deduction):从“这些豆子是从这个袋子里取出来的” 和 “这个袋子里的豆子都是白的” 推出 “这些豆子是白的”;
  • 归纳(induction):从“这些豆子是从这个袋子里取出来的” 和 “这些豆子是白的” 推出 “这个袋子里的豆子都是白的”;
  • 归因(hypothesis/abduction):从“这些豆子是白的” 和 “这个袋子里的豆子都是白的” 推出 “这些豆子是从这个袋子里取出来的”。

这可以概括成下面的一般格式:

  • 演绎:从“S是M” 和 “M是P” 推出 “S是P”
  • 归纳:从“S是M” 和 “S是P” 推出 “M是P”
  • 归因:从“S是P” 和 “M是P” 推出 “S是M”

这样一来,归纳和归因分别可以通过将演绎的一个前提与其结论换位而得到,因此均可以被看成是 “逆演绎”,而这二者仍有不同。

皮尔斯指出,尽管归纳和归因都不具有演绎的 “保真性”,它们仍提供重要的推理功能。归纳的功能是 “概括” (也称 “泛化” 或 “一般化”),这就是说尽管 “S是M” 和 “S是P” 不能保证 “M是P” 的正确性,但如果这样的S有很多,其累积效果的确会使得我们接受 “是M的也都是P”,那也就是 “M是P” 了。另一方面,归因的功能是 “解释”,这就是说尽管 “S是P” 和 “M是P” 不能保证 “S是M” 的正确性,但“S是M” (作为假说)和 “M是P” (作为背景知识)可以解释 “S是P” (作为观察结果)为什么会发生。这样一来,这两种推理形式各自在思维活动中的贡献就清楚了,而且它们和演绎所提供的论证功能是互补的,彼此并无矛盾。对上面那个例子来说,如果人们知道一个袋子里的豆子都是白的,的确常常会以为看到的白豆子是从袋里取出来的,尽管这显然只是众多可能性中的一种。

确切地说,皮尔斯关于演绎-归纳-归因的观点包含两个方面:

1. 这三者的形式及其换位关系,

2. 这三者在思维活动中的功能。

由于前一个方面的工作是在 “词项逻辑” (以亚里士多德三段论为代表)的形式框架中表述的,而随着数理逻辑的兴起,词项逻辑的优势地位被谓词逻辑所取代(这是另一个话题了,在此不展开),皮尔斯在推理类型划分上的思想遗产主要是在第二个方面被后人继承了。在近年的研究[2]中,演绎-归纳-归因基本上是依照它们的功能(论证-概括-解释)来区分的,而其形式化定义则是在谓词逻辑的框架中给出的,比如说如果P(a) 和 Q(a) 分别表示对象a 具有性质P和Q,而且P(x) → Q(x) 表示 “凡有性质P的也有性质Q”,那么这三种推理可以概括成下面的格式:

  • 演绎:从P(a) 和 P(x) → Q(x) 推出 Q(a)
  • 归纳:从P(a) 和 Q(a) 推出 P(x) → Q(x)
  • 归因:从Q(a) 和 P(x) → Q(x) 推出 P(a)

虽然归纳和归因仍可以通过换位从演绎中得到,这种表示已经不再有词项逻辑中那种漂亮的统一性。出于多种考虑,在我自己的推理模型[3]中还是用了皮尔斯最初的词项逻辑形式,但将其从二值逻辑改造成多值逻辑,即把 “真假” 看成程度之别,而不同的推理形式则是以不同的方式和强度为结论提供证据。这方面我在《证实、证伪、证明、证据:何以为“证”?》(见王培“AI那厮”专栏)之中已有介绍,这里就不再重复了。

解释“解释”

以前面的介绍为基础,我们可以解释一下 “解释” 之中为什么有那么多问题。作为难兄难弟,归因的麻烦不比归纳的少(见《科学的光荣,哲学的丑闻:怎么对付“归纳”带来的麻烦?》)而且二者不乏 “同病” 之处,比如其结论只能获得相对较低的可信度,而无论前提如何可信。

当讨论从定义相对严格的 “归因” 转到相对含糊的 “解释”,问题就更多了。根据目前一般的理解,给定现象A,假说B只要不是明显为假,而且能够和背景知识K一起(演绎地)推导出A,就算是个可能的解释。这样一来,对同一个A,解释B可以有很多个,以至于似乎可以用任何B去解释A。比如说某人做了一件好事,有人自然会以此作为此人是好人的证据,而往往也有人会说这事恰恰说明了此人的伪善和用心险恶;如果某人做了一件坏事,有人会以此证明此人是坏人,而同时另有人会为其找出不得已的理由,甚至说其结果 “实际上从长远看来不失为一桩好事”。

如果你决心不惜一切代价来捍卫某种信仰,那么不管发生什么都可以据此提供解释,并进一步支持这个信仰。比如说有人认为我们是生活在外星人构建的一个模拟环境之中。不管发生什么现象,这个解释总是成立的。更有人用此类方法显示自己信仰的某种理论相对于科学理论的优越性:每个科学理论都有目前尚不能解释的现象,而这些理论却可以解释一切。

对于这种事我们能说什么呢?


首先,即使某个解释听上去匪夷所思,这也未必说明它 “不符合逻辑”。根据前面的说明不难看到,根据对解释的宽泛定义,在不限制什么可以算作 “背景知识” 的情况下,人们几乎可以用任意的理论去 “解释” 任意的现象,所以说这里最常见的错误不是推理违规,而是任意引入 “特设性” 前提。比如说在 “外星人具有超出我们理解的能力” 的前提假设下,我们的确可能是生活在它们设置的一个模拟环境中。根据类似的思路,我甚至可以坚持认为只有我本人是真实存在的,而世界(包括所有其他人)都不过是一个模拟环境中的幻象而已。这个结论虽然听起来疯狂,却是完全 “符合逻辑” 的,这就是说你不能期望通过辩论说服一个抱有这种信念的人,因为你的言论也会被解释成模拟的一部分。

对同一个现象的解释不是唯一的,这不说明每个解释都有同样的合理性,而恰恰是要求我们对它们进行比较,而选择那些相对而言较好的。在这里, “好” 不仅仅意味着能自圆其说。对一个复杂现象能解释得严丝合缝的,往往反而是那些阴谋论或诉诸超自然因素的理论。一个常见的误解就是,能解释的现象越多的理论就越好,越 “科学”,其实尽可能多地解释各种现象只是对一个理论的期望之一,而不是唯一的期望。对行动的指导性和概念简单性也都是重要的。当一个理论以牺牲指导性或简单性为代价来增加解释力的时候,在和其它理论的竞争中未必能占便宜。如果一个理论既可以解释某个事件的发生也可以解释其未发生,那就对我们的行为缺乏指导意义(我们到底要如何准备应对?),这种解释力(或者说 “正确性”)也就不具有实际价值了。这也就是波普尔的 “证伪主义” 中的合理成分,只是指导性所导致的检验对一个理论一般不会有 “立判生死” 之效,而仅是在一定程度上增强或减弱这个理论的竞争力。

简单性也是影响一个理论的竞争力的重要因素。比如说 “我们是生活在外星人构建的一个模拟环境之中” 这个假说,我们的确没办法证明它是错的,但和认为 “我们是生活在一个真实世界中” 相比,这个更复杂的假说并未带来解释力和指导性上的任何好处,因此不值得认真对待。据说拉普拉斯在回答拿破仑为什么他的书中不提上帝的质问时回答 “陛下,我不需要那个假设”,也是这种立场。我在《意识是脑中涌现的吗?》之中提到还原论的问题也和这一点有关。为一个心理层面上的现象提供神经元层面(甚至原子层面)的解释尽管在原则上仍有可能,也并非一无是处,但和一个心理层面上的解释相比往往缺乏竞争力。

在人工智能系统中实现解释性推理的关键,就是把相关结论的真实性、简单性、有效性等都恰当地量化处理,并依照当前情况在各种解释中进行合理选择。这也就是说,仅仅在 “是否可能” 的水平上评价不同的解释是不够的,而必须能看出哪个解释证据更多,更简单,对未来行为更有指导性。这样一来,那些似是而非的解释就会逐渐在系统中被更靠谱的淘汰掉。当然,实现这种功能的基本前提就是系统有包括演绎、归纳、归因等形式在内的推理功能。目前对机器学习系统缺乏 “解释功能” 的批评,很大程度上也是因为用函数逼近的方法 “学习”,固然可以识别出一个照片中的物体是只猫,但却不会像我们那样说 “我认为那是只猫,因为……” ——不管你的理由是什么,一定不是统计算法得到这个结论的理由。这也就是说现有的主流学习算法不是不能提供解释,而是不能提供我们期望的那种解释,因为其结论的生成过程和我们有根本性不同。在这种情况下,用死记硬背或事后重构的法子提供解释是不够的。只有像人那样思考才能提供人能理解的解释。

因果性解释

解释可以进一步分成不同的种类,其中重要的一种就是为某个事件找原因。因果知识的建立主要靠归纳,而我关于归纳的基本观点在《怎么对付“归纳”带来的麻烦?》一文中已经介绍了,就是不把这种知识看作对 “客观规律” 的反映,而看作对 “主观经验” 的总结。归因则是用这种知识来 “找原因”。

前面关于解释的一般结论完全适用于因果性解释这种特殊情况。这就是说,对一个特定的事件,原则上是没有 “真正的原因” 这种东西的,这就和牛顿-拉普拉斯式的因果观根本不同了。但尽管如此,在若干候选原因之间进行比较仍然是必要并且可能的,这就是说询问某事件的原因仍是个有意义的问题,而在很多情况下大多数人还是会同意某个答案是 “正确的”。

和其它类型的解释不同,在因果解释中一般要求 “因” 发生在 “果” 之前,所以这种解释会给预测未来事件提供依据。如前所述,对一个因果解释的评价也基于其正确性、指导性和简单性。

在绝大多数应用环境下,说 “A的原因是B” 要求二者都是可重复的事件类型,而前者的发生会导致我们对后者的预期。这个因果信念的正确程度取决于相应预期被后来的观察证实的比例。和决定论因果观不同,一次失败的预期通常不会证伪一个因果信念,而是常常被解释为其它(B之外的)因素的影响,这是由于“A的原因是B” 这样的结论基本上都是对实际情况的简化,其实A的发生仍有赖于C、D、E等诸事件,尽管它们没有都被一一列出。这就和简单性要求相关了。从原则上甚至可以说一个事件的原因是在其之前发生的所有事件的总和,但这个无比正确的结论显然不能用来帮助我们进行预测,因此对 “原因” 的简化描述及其由此产生的反例就成为不可避免的了。人们通常是在正确性和简单性之间找一个平衡,即只列出那些会对结论的正确性产生重大影响的前提条件,而忽略那些只是偶尔出问题的。

对一个不可重复的事件而言,确定其原因更是没有统一的标准。难怪对重大历史事件的原因的争论永远不会终止。但不是说这种问题没有意义。实际上,关于历史中因果关系的讨论都或明或暗地服务于 预测未来事件这一目的,也就是所谓的“以史为鉴”。因此,关于 “A的原因” 的探寻实际上都是关于 “类似于A的事件” 的原因的,而对这个事件类的不同界定往往是这类争论的根源


关于原因认定的另一重复杂性在于, “原因” 的概念在不同领域中的精确含义是有差别的。儿童心理学的研究表明,因果知识缘起于婴儿对自身行为后果的认识,因此 “因” 总是 “我的行为”。随着认知能力的发展,可以充当 “原因” 的事件逐渐被推广到其他认知主体(人或动物)的行为,以至于无主体的自然事件。这说明 “因果” 在观念上不仅与 “预测” 有关,而且与 “控制” 有关。这里的 “可控” 不仅包括 “可以使其实际发生或不发生”,也包括 “可以设想其发生或不发生”。在不同的领域中,由于可控因素不同,“因果” 的用法也不同。各位不妨想想在物理学、医学、历史学、法学中所探寻的 “原因” 都是什么样的。在相关讨论中常常被提及的“因果性” 和 “相关性” 之别,也常因为前者隐含着 “可控” 而后者无此要求。

回到人工智能上来,现在流行的贝叶斯网络模型基本上只是在给定的因果信念之上做推理,而无法提出或放弃因果信念,因此仍是不够的,更不必提那些连 “因果性” 和 “相关性” 都不区分的 “学习算法”。但这不说明人工智能在这方面必定“低人一等”。前面讨论到的各种因素并非不可能在计算机系统中出现。这就是说,解释(包括因果解释)的生成和评价都是有逻辑可循,并且可以在计算机系统中实现的,尽管这不意味着系统对每个事件或现象都能找到唯一正确的解释。我们在这个方向上的具体工作可见参考文献[4],就不在这里谈技术问题了。

参考文献

[1] Charles Sanders Peirce, Deduction, Induction, and Hypothesis, in The Essential Peirce (Edited by Nathen Houser and Christian Kloesel)Volume 1 (1867-1893), Pages 186-199, Indiana University Press, 1992

[2] Peter A. Flach and Antonis C. Kakas (Editors), Abduction and Induction, Kluwer Academic Publishers, Dordrecht, 2000

[3] Pei Wang, Abduction in non-axiomatic logic, Working Notes of the IJCAI Workshop on Abductive Reasoning, Pages 56-63, Seattle, Washington, August 2001

[4] Pei Wang and Patrick Hammer, Issues in temporal and causal inference, Proceedings of the Eighth Conference on Artificial General Intelligence, Pages 208-217, Berlin, July 2015

注:本文所提到之作者其他文章,可进入公众号底部菜单“精品专栏-AI那厮”查阅。点击https://cis.temple.edu/~wangp/Chinese.html,可查阅作者所有科普文章和科普视频。

特 别 提 示

1. 进入『返朴』微信公众号底部菜单“精品专栏“,可查阅不同主题系列科普文章。

2. 『返朴』开通了按月检索文章功能。关注公众号,回复四位数组成的年份 月份,如“1903”,可获取2019年3月的文章索引,以此类推。

版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。

《返朴》,科学家领航的好科普。国际著名物理学家文小刚与生物学家共同出任总编辑,与数十位不同领域一流学者组成的编委会一起,与你共同求索。关注《返朴》(fanpu2019)参与更多讨论。二次转载或合作请联系fanpusci@163.com。

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页