首页 >> 哲学 >> 哲学热点
警惕人工智能的伦理缺失
来源:《中国社会科学报》2015年9月10日 作者:王绍源 任晓明 字号

内容摘要:

关键词:

作者简介:

  随着现代科学技术的飞速发展,人工智能已经开始进入人类的日常生活。无论是传统的工业机器人、家政机器人,还是智能的军事机器人、航天机器人,都在模仿诸如自主性、意向性、情感性等“人格”要素上越来越形神兼备。但同时,人工智能的社会应用也面临诸多的伦理缺失,并发展成为人们不容小觑的现实性问题。笔者认为,未来的人工智能发展必须构建坚实的道德根基。

  2002年以来,关于人工智能的伦理问题从起初的工业机器人的单一安全性问题,转移到与人类相关的社会问题上。早期的机器人伦理问题只存在于一些文学、电影等文艺作品中,被设定为未来场景中的产物。然而,自2005年以后,人工智能的相关伦理问题备受全球学者的关注。尤其人工智能发展史上的标志性事件——2014年6月7日,在英国皇家学会举行的“2014图灵测试”大会上,聊天程序“尤金·古斯特曼”(Eugene Goostman)成功通过了“图灵测试”——以后,人们对人工智能的发展和期望更是信心百倍,随之也开始思索诸如人工智能体的道德行为主体、自由意志、社会角色定位等问题,以及与人类在同一环境共存的“人—机器人”交互关系等诸多社会伦理问题。一方面,这些文艺作品为我们呈现的未来场景,引发了人们以全新的视角对这些现代技术进行深思和探讨;另一方面,这些文学创作者既没有为人类未来的生存境遇提供一种可信的价值观,又没能在规避人工智能技术与社会互动过程所产生的负面影响中,提供一些指导思想和前瞻性原则。这种缺失正是社会自身所必须正视和考虑的,而人类又有着不可逃避的重要责任,因此,人工智能和机器人学并不是一门纯粹的技术性科学,当今的人工智能更需要哲学、心理学、法律和其他专业领域的智力支持,需要以一种多领域跨学科的复合知识系统指导物理、电子、控制和软件设计,从而构建“善”的人工智能体。

  现代信息技术的进步促进了认知科学的发展。能够模拟人类思维、沟通等活动的计算机技术使得机器人具有生动的“感受性”和切实的“道德反应”。作为实践研究的焦点领域,人工智能体以各种方式参与到社会活动中,这也使得人工智能体有了一些“道德行为体”的含义,并被人们纳入“人—机”道德共同体中考察。例如,老人和儿童对具有感知性的“情感陪护机器人”产生依赖,患者对具有自治性特征的手术机器人产生感恩的情感等。特别在娱乐社交、医学实践领域,人们甚至把具有感知、意向、自治性的人工智能体视为与人类同等地位的道德行为体和伦理关护对象,赋予其一定的伦理地位。与此同时,人工智能的广泛应用为人们的现实生活提出了前所未有的伦理诘难,带来了人工智能伦理缺失的问题。诸如,人工智能在军事、医护等领域的应用冲击了人们的既定观念,受到法律与道德的重重约束;自主无人驾驶汽车、赛博格、心智机器人等具有生物计算机特征的机器,在效用评价上面临着权利和道德集体缺失,等等。

  具体来说,这些缺失一方面是安全性伦理缺失。众所周知,一门新技术的问世首先应该保证其安全性。机器人的安全问题与程序设计密切相关。虽然开发者会尽可能创造出一个个完善的程序,但很难保证在数百万行的代码中不存在任何错误和纰漏。只要这些程序出现一点瑕疵,就可能带来致命的后果。我们能否创造出一种鉴别细微差异的智能机器,它能够严格基于环境进行人类语言的理解,并清晰识别出极为相似物体之间的差别?而在诸如执行能力上,具有仿生智能的机器人是否只能使用非致命性武器抵御自身威胁?是否只有在所有人类都被归类为“敌人”的特定情况下,智能机器人才能执行伤害性行为?如何通过编程解决安全性问题,以及相关的行为限制条件又该如何在伦理层面进行规制?怎样才能把机器人有效投放到社会和市场中(比如