首页 >> 跨学科
从人工智能难题反思AI伦理原则
2020年08月11日 16:05 来源:《哲学分析》 作者:杨庆峰 字号

内容摘要:

关键词:

作者简介:

  摘    要:不同于以往的任何技术类型,人工智能是人类社会发展的重大历史事件,开创了一个新的时代。基于这样的背景,应对AI本身及其应用过程中产生的社会伦理问题就变成AI伦理思考的重要目标。目前AI伦理的很多思考多是从人类的权利和原则出发来构建伦理框架,如信任、安全、自主和尊严。事实上,AI伦理问题的产生很多是源自人工智能发展中的难题。人工智能发展给人类社会带来了哲学、社会和技术等三个方面的基本难题。因此,发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手。一旦从难题入手,就会发现不可解释性成为上述人工智能发展带来的难题。仅仅从技术上理解不可解释性已经不足以为AI伦理构建提供原则基础。通过人工智能与解释学两个路径的梳理,透明性与关联性成为支撑AI伦理的两个必要概念。

  关键词:人工智能;不可解释性;透明性;关联性

  作者简介: 杨庆峰,复旦大学应用伦理研究中心教授、复旦发展研究院研究员。

  基金: 国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”(项目编号:17ZDA028);中科院学部项目“大数据伦理问题及其治理研究”。

  在对AI伦理的思考中,正在呈现出多元的路径。比如围绕价值立场的路径、基于区域的路径。以人类权利为核心的伦理路径是非常典型的一种方式,这种路径将人类尊严和人类福利作为道德考虑的重心。但是这种路径内在的人本主义预设使得一些问题开始显现出来,如围绕AI智能体嵌入道德原则的问题就存在着诸多争议,如嵌入何种、何者与何地的价值观念。丹尼尔·姆洛(Daniel Munro)指出了这条路径有三个方面的困境:人类权利的保障机制、解释方面的挑战和超越最小标准。1还有一种路径是技术主义的,主要是讨论如何通过技术实现有利于人类自身的道德目的,如安全的、可信的、可靠的、可控的等。这一路径多为技术专家所看重,并且与技术发展密切关联在一起。可信AI与可解释的AI就是两种典型的代表。基于区域路径的研究成果也开始出现,马库斯·杜波(Markus Dubber)出版的一部著作《人工智能伦理中的视角与路径:东亚》阐述了东亚地区的AI伦理的视角与路径。2面对这一情形,如何发出人工智能伦理的中国声音就变得异常重要了。世界人工智能大会刚刚通过发布的《中国青年科学家2019人工智能创新治理上海宣言》(简称上海宣言)就是发声的表现。宣言提出的四大责任——伦理、安全、法律和社会——尤其突出将与技术相关的人文原则(如稳健问题、算法透明)作为责任的出发点。但是这一框架有着技术主义的强烈预设,会忽略了技术与非技术因素(如伦理、法律和社会)之间的内在关联性。3基于这样的考虑,本文指出发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手,即从人工智能发展带来的哲学、社会和技术难题出发进行分析,阐述其内在的相互关系,指出透明性作为基础概念的必要性和问题所在,并从解释学角度澄清关联性如何作为另一个必要原则存 在。

  一、机器智能及其超越:AI带来的哲学难题

  人工智能不同于以往技术的本质是什么?简单来说,就是多于工具的东西。以往的技术都是人类实现某种目的的工具,而人工智能多于工具的东西就是“智能”。目前大多数智能的讨论主要集中于智能体的感觉、认知、决策和行动等认知功能,非认知如情感、移情等功能也开始纳入计算框架中加以实现。可以说,从功能出发理解人工智能是很重要的一种方式,但是这种理解方式的一个局限是会在功能进化意义上让很多人产生担忧和恐惧。幸好这种理解并不是唯一的,我们可以寻找到更多的方式。如果从人工智能学家斯特阿特·罗素(Stuart J. Russell)出发,就会看到完全不同的理解。他指出,“在本书中,我们采取了这样的观点:智能主要与理性行动有关,一个智能体在一个情景中采取最好可能的行动。我们研究了这个意义上被构造为智能的行动者问题。”4为了更好地对下文进行论述,需要说明的是“理性行动者”基本上等同于理性智能体。可以说,他将人工智能看作理性行动者(rational agent),即在某一个情境中采取最好可能行动的理性智能体。5在他的理解中,我们看到了人工智能体与行动的内在关系,即智能体能够采取理性行为;也看到了行动与情境的内在联系:人工智能体的行动是在某一个情境中做出最好的决策和行动。此外,这个定义有效地避免了“人工智能体是不是主体”的一个难题,它给予我们人工智能体是能动者和具有能动性的规定。这个规定避免了难缠的形而上学问题,而是从情境与行动的角度对人工行动者进行了界定。这也意味着后面讨论人工智能的可解释性问题可以行动与情境的关联为根据来演 绎。

  超越问题是精神性活动维度,即机器智能能否超越人类智能,更多触及的是人工智能的终极指向,涉及通用人工智能和强人工智能的问题。一些支持奇点理论的学者认为,到达“技术奇点”就会实现机器与人类的最终博弈:机器超越人类还是依然处于人类的控制之下。基于这一问题引发了很多伦理担忧:比如人类的自主性、自由和尊严都会受到极大影响。应该说,对这个问题的关注引发了科学界和哲学界的众多讨论。如果深入思考就会发现,以上关于超越问题的思考都源自一个基本前提:人类与机器都是线性进化的。如果从罗素的人工智能定义出发,我们会发现超越问题的基础是智能体,如果智能体具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。根据大多数人工智能学者的定义,人工智能像人一样思维或者行动。我们具有认知、判断、情感等能力,而人工智能研究已经沿着这条道路前进。人工智能具备认知、判断能力,人工智能也能够显示出自己的情感状态。在超越话语中,人工智能被描述为类似于人类的行动者,弱人工智能表现得就像儿童一样,强人工智能表现得像聪明的成人一样,而超级人工智能则表现得像超人一样。在思考行动的结构方面,人工智能类似于一面镜子,通过技术实现着人类的相应行为。但是,超越话语没有注意到的情况是:人类与机器之间存在着的相似关系。这种相似关系类似于二元论:在人类与机器之间存在着先验的相似性。一篇有26位作者署名的论文研究了人工智能走迷宫问题并提出了一个值得关注的结论:人工智能中类似网格的表征给能动体提供了一种欧式几何框架:如同哺乳动物发展出的网格结构,其功能如同康德的空间形式来组织知觉体验。6这篇论文极力说明了三个问题:(1)智能体表现出与人、动物相似的类似网格表征;(2)在应对复杂的外部环境时,类似网格的表征有助于人工智能体在空间中定位、组织路径;(3)如果没有外部因素的干扰,这种表征结构是比较稳定的。如果说在人与智能体之间存在着先天的相似性,上述的超越问题会变得更加复 杂。

  二、智能机器及其取代:AI带来的社会难题

  取代问题是物质性活动维度,即人类实践活动能否被智能机器取代。取代问题具有双重意义:其一是从人类活动的本性看,机器取代人类活动是人类活动自动化的必然结果。如果某些人类活动可以自动化的话,意味着能够被自动机器取代,所以这种取代会根据人类活动的自动化趋势而扩展;其二是从超级智能的角度看,机器取代人类意味着机器获得自主意识之后产生的必然后果。当机器智能超越人类智能之后,按照进化逻辑,机器智能必然会以高级的形式来改造低级的形式,出现的结果就是取代人类活动。比如汽车自动驾驶系统取代人类司机、智能法官取代人类法官、智能医生取代人类医生。所以取代问题实质是双重的,人类活动的自动化趋势及其超级智能生成的结果。从第二个方面看,它是超越问题衍生的必然结 果。

  首先我们考察第一点。何谓人类活动的自动化?在日常的表达中,人类活动的自动化意味着人类活动的一种本性,能够被某种功能同构的其他活动取代,其实质是人类活动的技术化。人类活动技术化的整体经历了一个从身体器官的技术化、身体功能的技术化到身体整体的技术化以及人类整体的技术化的演变过程。这一点我们从技术发展史中可以感受到。以喝水为例,最初人们喝水是靠手捧,从河中捧水喝。但是这样的效率很低,随着不同种类的容器出现,容器的装水功能取代了人体(手)的功用,这样可以获得更多的水,效率也随着提高。在这个过程中,我们一方面看到的是喝水功能的演变,从手到容器的出现;另一方面看到的是手之容纳功能被同构的容器取代。这一点是人类学考察的结果。所以,这个过程是身体器官的技术化。所谓器官延伸论的哲学解释就是身体器官的技术化,身体功能能够以技术化的方式被替代,如同上面的杯子的容纳功能取代了手的容纳功能。其次是身体功能的技术化,如五感的技术化,五感指的是视、听、味、触、嗅,它与身体相关,但不是身体部分,而是身体功能。人类的身体功能多半以感知功能的形式表达出来,如眼睛的远望、耳朵的倾听、腿部与腰部等器官的力量。大部分都可以实现技术化,人类身体的功能不断技术化在不同时代表现不同。接着是身体整体的技术化意味着人类个体的技术化,这一点已经是马尔库塞在《单向度的人》中加以揭示的结果,个体变成了技术系统上的一个环节,其功能被取代。这一取代的自然推演结果是人类整体的技术化,20世纪60年代以来,控制论—系统论等科学与人工智能技术带来的是自动化的趋势,这种取代更为彻底,实现的是整体身体的取代或者整个类的取代。所以,这个过程表现出的是不断技术化的过程,从身体器官、身体功能到身体整体和人类整体的技术化。从这个发展脉络出发,我们就可以看到不同社会中这一过程如何表现为社会难题了。身体器官与身体功能的技术化带来的社会问题并不是很明显,因为这个时期技术仅仅表现为具体的器物,以眼镜为例,望远镜、显微镜等器物的出现,掀起的仅仅是一些日常的争议,很快被人类社会所接受。但是当个体身体整体被技术化的时候,技术导致的异化成为了猛烈的批判目标。人类整体的技术化更是如此。我们从马克思那里能够感受到,当他讨论工业机器带来工人失业的问题时,更多不是指个体的被取代,而是人类整体的异化。所以,从这个角度来看,这是人类活动不断外化的结果,外化通过技术化的方式表现出 来。

  其次,取代问题是超越问题的深度表现,即智能机器自主意识觉醒的必然结果。在上面我们提到,超越问题的基础是智能体,如果智能体具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。事实上,在我们的分析中已经指出,人工智能学者正在给予这一理解以根据。根据罗素的看法,人工智能是智能行动者,它能够基于特定的情境做出最优化的理性选择。这一点指出了人工智能体的行为与情境之间的特定关联。根据上面DeepMind的研究成果显示:人工智能体具有和人类、动物一样的空间记忆表征结构。从此出发,我们会发现至少在这两个方面,人工智能表现出与人类一样的同构性。这种同构性的存在使得机器能够出现自主意识。只是差异在于人类进化经过了很长的时间,而且是在特定的自然环境条件下进化的结果。对于机器而言,同构性的存在意味着具有了先天的可能性。而大数据技术正在给人工智能体提供更加丰富的数据环境,在深度学习、增强学习的算法帮助下,自主意识以新的形式出现,也不是不可能的事情。所以,人类与机器的整体进化尽管不是同步的,但是同构性使得他们能够获得进化结果。在此基础上,自主意识觉醒后的逻辑结果是对待他者问题。在机器自我意识诞生之前,人工智能在各类游戏(围棋、国际象棋、桥牌)、疾病识别等方面表现出通过图灵测试的迹象。这说明在某种程度上人工智能可以作为独立主体存在,它能够创造艺术作品、能够写作新闻稿件,甚至产生论著。取代人类的知识生产的角色已经变得可能了。此外,随着人机融合程度的加大,我们即将面临新的纽拉特之船的迹象,人类器官不断被机器取代,最终会演变成机器躯壳。按照机器自身逻辑的结果,取代成为众多可能性之 一。

  超越问题和取代问题会把我们带入到实体论中,即把人工智能看作超越人类自身实体力量,能够自主进化、自主发展的力量。这会带来一个严重的伦理问题:人类创造的工具最终摆脱人类自身的控制,变成异化的力量。取代问题是技术异化的最终结果。人工智能何以发展出自主意识超越并且取代人类就成为难以理解的问题了,我们把这一问题称之为人工智能的不可解释性问题。目前,技术领域很关注这一问题,并且意识到这一问题将会对人工智能伦理的构建产生不容忽视的影响。但是,我们预先需要说明,不可解释性问题需要从技术理解中摆脱出 来。

  三、深度学习及其不可解释性:AI带来的技术难题

  清华大学张跋院士及其团队指出,第二代人工智能遇到了鲁棒性和不可解释性问题。技术界提出可解释的人工智能(explainable AI,XAI)目标,然后提出诸多破解XAI的路径和方法,如孪生系统路径(twin-systems)7、对话路径(dialog model)8。牛津大学一些学者指出,不可解释性问题的存在使得人工智能伦理的信任原则难以构建,不可解释的AI包含的伦理问题如透明性、偏见、隐私安全、可理解性、信任等(Bostrom and Yudkowsky,2014)。作为技术难题的不可解释性主要表现为三个方面:首先表现为人工智能代际发展中的一个难题。从代际发展看,不可解释性是人工智能发展过程中出现的一个现象。第一代AI不存在不可解释性问题,不可解释性问题出现在第二代。在清华大学人工智能研究院基础理论研究中心成立大会上,张跋院士指出,第三代人工智能需要“探索发展鲁棒、可解释的第三代人工智能基础理论和方法”。其次表现为人工智能自身有关的技术难题,如深度学习方面。算法不可解释性主要是指伴随深度学习产生的不可解释性。深度学习(80年代仅3—4层、2014,22层)中的不可解释性是阻碍其发展的障碍,特别是在图像(GAN)和文本处理上,很难解释模型到底学习到了什么。生成对抗网络(GAN)的图像生成中深度神经网络构成了“黑盒系统”,实际解释起来也非常难。“例如医疗等一些领域需要高的可解释性和透明性,这意味着我们需要能够解释机器决策和预测,证实它们的可靠性。这需要更高的可解释性,这意味着我们需要理解算法的机制。不幸的是,深度学习的黑箱本质始终没有被解决,许多机器学习很少被理解。”9第三是表现为人工智能体行动有关的难题,如行动者的感知、思考/决策和行动环节中的不可解释性问题。“解释对于关乎它们的行动、行为和决策透明(与否)的AI系统来说是重要的,尤其是在人类需要基于AI系统结果决策的场景(情境)中更加重要。一种合适的解释能够提升人类对于系统的信任,在交互关系中能够允许更好地合作”。10针对上述三个方面的问题,人工智能学者提出可解释的人工智能,来破解不可解释性问题,比如利用孪生系统路径来破解不可解释性问题。“提出孪生系统来解决XAI问题,不可解释的黑箱系统被匹配到更易解释的白盒双胞胎。”11还有学者提出通过“掌握能力测试”12来把握哪个解释更好,并将其作为一个可实现的目标。在中国计算机学会召开的“可解释的AI”工作坊研讨了如下几个方面的论题:针对可解释AI的算法、工具和框架、修正的具有可解释特性的深度学习模式、可解释的结构、因果模式、从作为黑箱的任一模式中推演出可解释的模式、评价可解释性、特征与度量、可解释AI的商业应用、AI中的公平、可解释性与透明、伦理方面和法律、法律问题和社会责任等话 题。

  从问题的出发点来看,人工智能的不可解释性是人工智能带来的技术难题。这一点从上面的分析中表现非常清楚,那么从哲学上来看,如何理解AI的不可解释性 呢?

  首先,人工智能的不可解释性表现为不透明的技术黑箱状态。有学者对不可解释性问题的多元维度进行了分析。“研究者尝试发展可解释的AI来满足实践的(例如可解释性积极地与使用者的学习绩效相关)、法律的(可解释性满足S.E.C.的需求去仔细检查AI驱动的贸易技术;可靠性问题)和伦理的(例如解释的权利、信任和自主性)预期。”13帕拉珊·马杜迈(Prashan Madumal)揭示出来的这些维度说明人工智能被看作是一种工具,可以应用到不同性质的人类社会场景中。如自动驾驶汽车的不可解释性问题就会和法律相关,医疗中的诊疗机器人的诊断何以被采信就关系到伦理;而利用人工智能来创造艺术品和制造知识就会牵涉到重要的人类实践活动。从这一点上来看,这里的维度均可以还原到技术之上。沿循着工具路径,不可解释性就等同于与技术原理或者过程有关的“黑箱”。因此,克服不可解释性的问题就意味着破解技术黑箱的秘密,将黑箱秘密呈现出来,让整个过程变得透明起来。正如我们看到的,针对深度学习,需要构建修正的可解释的深度学习模式,构建与黑箱相对的白箱等等模式。这些方法都是力图让技术原理或算法变得清楚可 见。

  其次,人工智能的不可解释难题还表现为与科学解释无法分离的技术解释。那么,它是科学解释、技术解释还是哲学解释的话题呢?人工智能中的解释问题并不纯粹是科学解释。众所周知,科学解释的主要特性是因果解释,回答为什么的问题。“因为科学解释的主要原则是因果性的,表达理论定律的等式总是被虚拟描述为因果定律,例如原因和结果之间的常规关系。……其中演绎—定律(D-N)模式借助定律,而不是理论来描述科学解释。”14对于人工智能而言,很显然不是因果意义上的把握,也不是定律的经验显现,而是相关关系。但是由于它依据的是神经科学、计算机科学等自然科学理论,所以它又无法完全与科学解释分离开,从原理本身来说,人工智能解释是建立在科学解释之上的。但是,人工智能的解释性又带有技术解释的特性。各个领域的机器人、各种操作程序等人工智能本身又是技术装置,这种装置符合技术本身,所以从技术运用来说,人工智能解释是技术解释。但是人工智能与生产中的机器、生活中的技术物品还是有着极大的不同。这就是体现它自身之中的智能行动。这种智能性意味着人工智能如生物体一般进化,甚至能够产生出自我意识或者让自我意识在某一个时刻突然觉醒。如此,人工智能解释又具有目的论解释的特性,这就是它朝着自我意识产生这样的目的进化。

  第三,人工智能的解释是对类人行为的解释。“像人一样思考和行为”这一朴素的定义是对人工智能形象的刻画,是描述意义上外观的类似和行为模式的类似。但是随着神经科学、脑科学的发展,人工智能的类人性已经超越了描述意义上的类似,而进入到机制上的类似,如制造出具有移情能力的机器人。所以人工智能的可解释性还需要从人类行为的解释中获得启发。何为人类行为的解释?“人类行为通常借助理性化而获得解释,例如引用行动者的信念和愿望(以及其他意向的精神状态,如感情、希望和期望),这些构成了做某事的理由。……这种解释通常会面临两个问题:是否合理的解释是因果性的,例如它们是否将信念和欲望作为行动的原因,另一个问题是这样的合理解释是否必须吻合规律模式,如果是这样,什么样的规律可能支持这样的解释。”15澄清信念—欲望与行动之间的关联就成为解释的主要任务 了。

  四、人工智能不可解释性与可解释性的关系

  正如前面已经说明,人工智能的不可解释性不仅仅是针对技术原理的技术问题,而且包含着更多的维度。对这一点我们需要做出进一步的说明,展现其包含的可能性维度。对人类行为做出解释意味着需要给人类行为找到一个合理的认知、信念和愿望的根据。对于智能体的行为来说,这一点似乎有着实现的可能性,当具有情感、判断、同感的机器人成为现实的时候,我们也可以为机器行为找到类似于人类的认知、信念和愿望等这样的合理根据。但是,人类解释最根本的特性恐怕是与此在有关,也就是海德格尔揭示出来的在世之中的存在结构。如果人工智能的可解释性与这种有关,这才是真正面临的挑战。我们从技术本身出发,结合技术之行动、技术与人的关系制作了下 表:

  表1 可解释性与不可解释性的辩证关系

  表1让我们充分认识到人工智能中的不可解释性问题恐怕不仅仅是技术黑箱意义上的,原理黑箱与技术理解、技术行动以及人与技术的关系等共同构成了人工智能可解释性的四个方面。我们可以对这个表格进行分 析:

  (1) 第一种情况是关于技术观念的,即对技术是什么的回答。在技术观念上,存在着两种主要解释,一种是工具主义的解释,另一种是实体主义的解释。工具主义的解释是大众普遍接受的技术解释,强调技术是人类学意义上的、实现目的之方式。在这种观点中,技术是人能够制造、掌控和处置的工具,技术物废弃可以丢弃、部件损坏可以更换。“技术是工具意味着发挥功用是以其他事物为代价的,事物被控制、被改造、被组织。”16对这种观点进行批判所产生的观点就是实体主义的解释。这种解释以海德格尔为代表,他将技术的本质看作座架和天命。在这种观点中,技术表现为一种超越人类的力量,技术自身的超越性力量开始显现。所以,在技术理解中,可解释性指技术从工具主义的角度给予解释,技术被理解为人类可以制造、掌控和处置的工具。不可解释性是指技术自身开始表现出超越人类的性质。目前在人工智能的思考中,实体主义意义上的不可解释性开始表现出来。对人工智能的意识问题的讨论越加凸显了这一点。奇点理论、超越理论、觉醒理论等等都为实体主义观念的形成起到了推动作用。所以如果追求可解释的AI,在这个意义上一定是基于工具主义的理解,将人工智能限制在“属人”的性质上。这意味着人工智能仅仅表现为辅助工具,成为人类自身的助手。所以,技术理解上的不可解释性意味着AI的实体性理解,保持着这种性质会强化人们对人工智能技术的无知和恐惧。

  (2) 第二种情况是关于技术原理的。不可解释性即技术运行和原理的黑箱;AI过程或者原理的黑箱特性使得人们对技术的信任度降低。面对这一情况,技术界给出的方案是构建技术白箱。这意味着让黑箱变得透明,让技术运行和原理变得可理解。所以,在这种情况下,透明性就变成一个重要的原则。技术是可解释的意味着技术黑箱变得透明化,不可解释性意味着技术保持着黑箱状 况。

  (3) 第三种情况是关于技术行动的。这里的行动是与情境关联在一起的。行动是根据某种情境做出的行动,是依托于情境而获得理解的。从这一前提出发,不可解释性是指技术行动完全脱离了情境变得不可理解。我们可以举出一个例子,扫地机器人。一个扫地机器人的工作环境是屋子,打扫屋子。但是一旦扫地机器人不再具有扫地功能而变成了具有洒水功能,那么就变得难以解释。而可解释性是指技术行动符合预期的情境,比如扫地机器人在扫地。这里会牵涉技术设计,尤其是与功能设计有关。但是,在整个技术行动的情况中,原先的技术物的功能仅仅表现为行动,而情境是功能得以实现的可能性前提,也是理解行动的前提。所以,可解释性不仅仅是关乎到行动的可解释性,更关乎到与行动有关的情境的可解释性,即构造出可解释的情境。这更多表现为合乎设计初衷的情境。AI脱离情境(场景)导致人工智能的变异,让人工智能变异为一种妖精的形 态。

  (4) 第四种情况是关于技术与人的关系。不可解释性即技术以在手的状态呈现出来。这一模式是从这一前提出发,不可解释性即人与技术关系的透明性(transparency)的断裂,技术物以在手状态出现; AI与人类关系的不透明,技术物处于在手状态,技术物始终在 场。

  通过对上面四种相关情境的梳理,我们发现透明性概念是针对打开技术黑箱提出的概念。这一概念体现在技术原理和过程之中,其意思是打开技术黑箱,让技术机制变得透明。仔细想来,透明性概念过于狭隘,对于一般技术来说,是没有任何问题的。但是这一概念并不能让我们更好地理解人工智能,如果我们凭借罗素式的人工智能需要借助智能体的概念来展开,那么问题就变得清楚了。透明性概念存在的局限就是依然在“机器+功能”的模式种来理解人工智能,这样的结果是依然把AI看作一般技术的经验表征形式。因此,人工智能的根本定义“智能体在场景/情境中采取最好的行动”这一观念是我们需要去面对和解释的。在这一情况下,人工智能的可解释性仅仅依靠透明性概念是不够的,而是需要新的概念奠基。那么怎样的哲学概念能够满足这一要求呢?我们试图从现象学中找寻到合理的根据。

  五、关联性:可解释性的新基础

  当我们从罗素的依靠智能体来界定人工智能的时候就开始逼近一个概念:关联性。笔者认为,在情境与行为之间建立起有效关联是人工智能可解释性可依托的关键。所谓不可解释性也多是无法在场景和行为之间找到契合点,而可解释性是指为行为设计出符合的情境。我们需要重新梳理现象学解释学相应概念的历史发展才能够为关联性确立起足够的哲学根据。在经典现象学—后现象学的框架中,解释学所经历的四个阶段就可以被描述出来。总体来说,在这样一个框架中,解释学的H-H-G-I模式就可以被勾勒出来。H是指胡塞尔与海德格尔的现象学、G是指伽达默尔的解释学、I则是指伊德的解释学。H-H-G确立起来的是先验的解释模式,而I确立起来的是经验的解释模式。他们的共同点是将行为与先验框架之间的关联性给予不同的描 述。

  胡塞尔对解释的分析指向了“世界—对象”的意向关联。他构造出了诸多先验模式,如“世界—对象”“视域—对象”“意向行为—意向对象”等。这些模式,展示了被知觉对象得以显现的可能性条件,从不同层面展示了对象何以显示出来。从先验模式中,我们能够把握到的是,客体可以说是存在于背景之中的对象,当客体被感知到的时候,是相对于背景关联被感知到的。“在胡塞尔看来,客体不是被孤立知觉到的,而是相对于一种背景被知觉到的,而且是在由其他客体及其他躯体(也包括其他人、动物等等)组成的一种‘周围世界’(Umwelt)之内被知觉到的。”17这段论述对我们意义较大:首先是在这个由对象组成的周围世界中,其他躯体是很重要的一个因素。“躯体”包括其他人和动物的躯体。在这里我们能够看到机器躯体呈现的可能性。在胡塞尔的生活世界之中,机器躯体并没有被考虑在内,而且后来的标志着赛博格时代开启的人类、动物和机器混合的新的躯体。如果我们把这一先验论述的原则加以经验化,就会看到机器躯体作为视域构成物的可能性。其次视域不仅仅是静态的条件,而且有着时间性的规定。“每一体验都具有一过去,此过去淡入一未决定的‘过去视域’,而且同样,它也有‘未来视域’。”18这一先验规定应该说非常重要,它揭示了视域自身的流变性,体验自身要淡入“过去视域”,而“未来视域”之物会当下化。这是视域变动之根本特征。这也解释了被解释对象的时间性。如果从记忆哲学的角度来说,对象在记忆意向性之中呈现出过去,而在预期意向性中将未来展现出来。胡塞尔指出了“世界—对象”这一模式中还有一个非常重要的特性,这就是世界与对象的静态构造性,即这是基于先验现象学的静态分析,并没有对发生问题进行论述,所以其局限是没有清楚地解答“世界何以使得对象呈现出来”这样的问 题。

  海德格尔对解释的分析直接指向了“世界—对象”的先后指向结构,他对解释的阐述有两点是值得我们注意的。首先,海德格尔给我们关于解释的形而上学的界定。在他看来,“理解—解释—语言”。“解释”根植于理解,奠定于先见,其首要的任务是“从事情本身出发来整理先有、先见和先行把握”。不同于胡塞尔,海德格尔从对象转移到了语言。其次是他突出解释的在先性,先有、先见和先行把握的特性。所以,在海德格尔那里,视域的在先性得到了保留。这种解释应该说进一步澄清了世界与对象之间的关系。因为在胡塞尔的解释中,世界与对象之间的在先性并不是那么明显,对象只是相对于背景做出的存在。所以,海德格尔的阐述让我们更清楚地意识到了世界视域的先行 性。

  伽达默尔提出的模式是“文本—视域—融合”。他将这样一种形而上学的阐述引入到文学文本中。这造就了一种文本意义上的解释学,意味着伽达默尔接受了海德格尔的先行意义,即从效果历史中将文本的意义敞开。在整个过程中,他将视域经验化为多元的表达,也正是因为如此,才出现多元的视域融合、异质的视域融合。在融合的基础上,他为解释奠定了一种可能性的前提。当视域多元化之后,必然会出现彼此交融。所以隐含在视域之中的这一规定性在海德格尔和伽达默尔那里得到了充分展现。“视域概念其后被海德格尔并特别是伽达默尔所借去。后者认为相互理解是通过某种视域重叠而发生的。在其《真理与方法》中,伽达默尔把一视域说成‘不是固定的界限,而是某种随着人移动并促使人进一步前进者。’”19

  但是,解释不单单是经典现象学框架内得以回答的问题。后现象学流派的代表唐·伊德是一个不可忽视的人。他从一开始就对利科的解释学现象学进行了比较深入的研究,后来对胡塞尔、海德格尔的研究也成为他的思想来源。伊德给予我们的框架是“解释—技术—透明”。他运用海德格尔的一对范畴“在手状态/上手状态”对技术与人的关系给予了充分的说明。在他看来,技术就像海德格所说的“抽身而去”,变成了准透明的,因此,技术在这里并不是“像对象一样的东西”。这一观点中实际上突出的是使用情境,在使用情境中,技术的可解释性不单单是技术自身的事情,还与使用情境密切联系在一 起。

  所以,通过上述思想溯源我们可以看到,现象学家为我们构建出的是对象与视域、对象与世界的先验论述,而这种先验论述完全可以作为我们反思关联性概念的出发点。解释意味着使得对象成为可能的条件加以呈现出来,意味着将前提性和条件性的东西呈现出来。这样做的特点是将对象与世界之间的关联给予描述。在科学解释中,对象与另一对象发生着因果关联,而在哲学的解释中,因果关联被包括在更大的关联之中,并不是对象与对象之间的联结,而是对象与世界的关联,在这种关联中,世界成为对象得以可能的条件。那么,从这一前提出发,人工智能体的关联性可以做出如下规定:关联性意味着智能体行动何以可能的条件呈现出来,所呈现之物是在先的,不仅如此,还要呈现能动体与情境二者关联的内在规定。而从此出发,不可解释性是指对象何以可能的条件无法呈现,意味着走向不可知领域或者是超验领域。而可解释性意味着对象何以可能的条件可以合理地呈现,可以合理地揭示出能动者与情境之间的多重关联形 式。

  六、结 语

  通过上述分析,我们已经表明了,人工智能伦理的原则可以划分为两个来源:强调如自由、公正、安全的人本主义原则以及强调如可持续、负责任的、可信的、可靠的、可治理的技术主义原则。本文则强调AI伦理原则的分析需要考虑技术所带来的综合性难题。从技术哲学角度看,技术所带来的难题往往带有极大的综合性,会涉及社会、政治等多个维度。具体到人工智能的不可解释问题而言,它不仅仅是技术问题,还是哲学问题。从其本质看,不可解释性意味着透明性的不可得,可解释性意味着获得透明性。技术观念、技术原理、技术行动和人与技术的关系是呈现技术不可解释性的不可忽视的四个方面,尤其是技术行动是最为重要的环节。当我们从技术主义的角度前行会看到,其内在的哲学根据是透明性,构建可解释的人工智能的方法就是获得透明性的过程,这也成为可信的人工智能的概念基 础。

  但是,透明性概念也有其根本的局限。首先,它无法作为澄清技术行动的有效概念,无法让技术行为获得更多的可解释性。对于日常人来说,即便技术机制变得清楚透明,由于术语、背景等多种因素的限制,依然是难以理解。一味坚持透明性作为可解释性的哲学基础意味着在日常与技术之间划出了很深的鸿沟。其次,这一概念与人工智能的技术理解有着很大的距离。所以,我们更需要能够揭示在情境中做出最优选择的智能体或者理性智能体的合理概念。通过AI定义的分析,我们看到了智能体与情境之间的关联性构成,这一概念表现在经验层面就是智能体如何在情境之中做出最优化的行动。因此关联性概念也是对智能体与情景之间的关联给予描述的最佳概 念。

  如此,仅仅打开技术黑箱(如深度学习),获得黑箱自身的透明性是远远不够的。这样做并不能让我们更好地理解人工智能本身。只有澄清智能体与情境之间的关联行动才是让我们真正理解人工智能的关键。这样做将使得我们进一步对机器行为与情境的关系产生思考。如果人工智能机器的行为合乎情境,或者具有“在情境之中”的特性,那么机器与人类的差距将再次被说明是一个伪命题。也只有借助这两个原则——透明性和关联性——人工智能伦理的原则构建才有了两条腿的支撑,变得更加稳 定。

  注释

  1D. Munro,“Artificial Intelligence Needs an Ethics Framework”,https://www.cigionline.org/articles/artificial-intelligence-needs-ethics-framework[2019-07-12] (2019-08-24).

  2M. Dubber,et al. (eds), Perspectives and Approaches in AI Ethics:East Asia,Oxford:Oxford University Press,2019.这本书向读者展示了中国、日本和韩国关于人工智能以及人工智能伦理争论中的机器人作为工具和合作者的差异。作者通过考察人工智能的政策、学术思想、区域实践和流行文化来评价不同国家的视角和路径。这本书的出版让我们看到西方世界非常注意人工智能的东亚发展。

  3从某种意义上来说,《上海宣言》是技术本位的,即青年科学家从技术发展角度出发,设计和开发出价值负载的技术来确保对人类伦理的捍卫。如隐私保护算法和技术、数据多样性和无偏见的AI系统、遵循道德规范的算法、安全可信的系统、开源的可解释的算法研究等。其还原主义特点非常明显,即将伦理问题还原为技术问题。还原主义会限制对技术与其他非技术因素之间关联的揭示。所以在这一意义上,我们说《上海宣言》忽略了技术与其他非技术因素之间的内在关联。

  4Stuart J. Russell,Artificial Intelligence—A Modern Approach(third edition),Harlow:Pearson Education Limited,2016,p.30.

  5在agent概念的使用上,我们会看到可以存在两种翻译方式,一是将其翻译为行动者,这一翻译强调的是与主体有关的行动本身,“理性行动者”恰恰突出了行动主体是基于理性的,产生的是理性行为;二是将其翻译成能动者,这个翻译有独特的语境,主要在人工智能领域内常见,突出的是智能体与环境之间的关联。这也就是罗素关于人工智能理解的根本所在。第一种理解往往受传统主体哲学的影响,采取行动者的翻译主要是批判反思哲学,通过理性行动者对抗先验反思自我。但是这种理解很难用于人工智能的理解中,在这一领域,展示人工物与环境之间关联的“能动者”更加适合。当然,这种翻译也有局限,“体”“者”的理解有着实体主义的预设,人工智能是实体。这无形之中使得人工智能哲学思考陷入到形而上学的陷阱中。

  6Andrea Baninoetal,“Vector-based Navigation Using Grid-like Representations in Artificial Agents”,Nature,Vol. 557, No.7705, 2018,pp.429—433.

  7Mark T. Keane, et al.,“The Twin-System Approach as One Generic Solution for XAI: An Overview of ANN-CBR Twins for Explaining Deep Learning”,https://arxiv.org/ftp/arxiv/papers/1905/1905.08069.pdf[2019-05-20] (2019-07-24). 在作者看来,双系统主要是基于这样的想法,如果奇怪的黑箱模式(如ANN)的描述/特征/表征能够追溯到以及匹配到更具可解释性的白箱上,那么前者就能够被白箱解释。因此,黑白箱子的说法就类似于双胞胎的说法。

  8Prashan Madumal, “Towards a Grounded Dialog Model for Explainable Artificial Intelligence”, https://arxiv.org/pdf/1806.08055.pdf[2018-06-21] (2019-07-24).

  9Erico Tjoaetal, “A Survey on Explainable Artificial Intelligence (XAI): Towards Medical XAI”,https://arxiv.org/ftp/arxiv/papers/1907/1907.07374.pdf[2019-07-17] (2019-07-24).

  10Prashan Madumal, “Towards a Grounded Dialog Model for Explainable Artificial Intelligence” .

  11Mark T. Keane, et al.,“The Twin-System Approach as One Generic Solution for XAI: An Overview of ANN-CBR Twins for Explaining Deep Learning” .

  12Tae Wan Kim,“Explainable Artificial Intelligence (XAI), the Goodness Criteria and the Grasp-ability Test”, https://arxiv.org/pdf/1810.09598.pdf[2018-10-22] (2019-07-24).

  13Ibid.

  14Craig Dilworth,The Metaphysics of Science,Dordrecht:Kluwer Academic Publishers,1996, p.114.

  15Robert Audi,The Cambridge Dictionary of Philosophy,2nd edition,London:Cambridge University Press,1999, p.299.

  16杨庆峰、赵卫国:《技术工具论的表现形式及悖论分析》,载《自然辩证法研究》2002年第4期。

  17德尔莫·莫兰:《胡塞尔词典》,李幼蒸译,北京:中国人民出版社2015年版,第110页。

  18德尔莫·莫兰:《胡塞尔词典》,第111页。

  19德尔莫·莫兰:《胡塞尔词典》,第111页。

作者简介

姓名:杨庆峰 工作单位:

转载请注明来源:中国社会科学网 (责编:马云飞)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们