首页 >> 哲学 >> 哲学热点
警惕人工智能的伦理缺失
来源:《中国社会科学报》2015年9月10日 作者:王绍源 任晓明 字号

内容摘要:

关键词:

作者简介:

  随着现代科学技术的飞速发展,人工智能已经开始进入人类的日常生活。无论是传统的工业机器人、家政机器人,还是智能的军事机器人、航天机器人,都在模仿诸如自主性、意向性、情感性等“人格”要素上越来越形神兼备。但同时,人工智能的社会应用也面临诸多的伦理缺失,并发展成为人们不容小觑的现实性问题。笔者认为,未来的人工智能发展必须构建坚实的道德根基。

  2002年以来,关于人工智能的伦理问题从起初的工业机器人的单一安全性问题,转移到与人类相关的社会问题上。早期的机器人伦理问题只存在于一些文学、电影等文艺作品中,被设定为未来场景中的产物。然而,自2005年以后,人工智能的相关伦理问题备受全球学者的关注。尤其人工智能发展史上的标志性事件——2014年6月7日,在英国皇家学会举行的“2014图灵测试”大会上,聊天程序“尤金·古斯特曼”(Eugene Goostman)成功通过了“图灵测试”——以后,人们对人工智能的发展和期望更是信心百倍,随之也开始思索诸如人工智能体的道德行为主体、自由意志、社会角色定位等问题,以及与人类在同一环境共存的“人—机器人”交互关系等诸多社会伦理问题。一方面,这些文艺作品为我们呈现的未来场景,引发了人们以全新的视角对这些现代技术进行深思和探讨;另一方面,这些文学创作者既没有为人类未来的生存境遇提供一种可信的价值观,又没能在规避人工智能技术与社会互动过程所产生的负面影响中,提供一些指导思想和前瞻性原则。这种缺失正是社会自身所必须正视和考虑的,而人类又有着不可逃避的重要责任,因此,人工智能和机器人学并不是一门纯粹的技术性科学,当今的人工智能更需要哲学、心理学、法律和其他专业领域的智力支持,需要以一种多领域跨学科的复合知识系统指导物理、电子、控制和软件设计,从而构建“善”的人工智能体。

  现代信息技术的进步促进了认知科学的发展。能够模拟人类思维、沟通等活动的计算机技术使得机器人具有生动的“感受性”和切实的“道德反应”。作为实践研究的焦点领域,人工智能体以各种方式参与到社会活动中,这也使得人工智能体有了一些“道德行为体”的含义,并被人们纳入“人—机”道德共同体中考察。例如,老人和儿童对具有感知性的“情感陪护机器人”产生依赖,患者对具有自治性特征的手术机器人产生感恩的情感等。特别在娱乐社交、医学实践领域,人们甚至把具有感知、意向、自治性的人工智能体视为与人类同等地位的道德行为体和伦理关护对象,赋予其一定的伦理地位。与此同时,人工智能的广泛应用为人们的现实生活提出了前所未有的伦理诘难,带来了人工智能伦理缺失的问题。诸如,人工智能在军事、医护等领域的应用冲击了人们的既定观念,受到法律与道德的重重约束;自主无人驾驶汽车、赛博格、心智机器人等具有生物计算机特征的机器,在效用评价上面临着权利和道德集体缺失,等等。

  具体来说,这些缺失一方面是安全性伦理缺失。众所周知,一门新技术的问世首先应该保证其安全性。机器人的安全问题与程序设计密切相关。虽然开发者会尽可能创造出一个个完善的程序,但很难保证在数百万行的代码中不存在任何错误和纰漏。只要这些程序出现一点瑕疵,就可能带来致命的后果。我们能否创造出一种鉴别细微差异的智能机器,它能够严格基于环境进行人类语言的理解,并清晰识别出极为相似物体之间的差别?而在诸如执行能力上,具有仿生智能的机器人是否只能使用非致命性武器抵御自身威胁?是否只有在所有人类都被归类为“敌人”的特定情况下,智能机器人才能执行伤害性行为?如何通过编程解决安全性问题,以及相关的行为限制条件又该如何在伦理层面进行规制?怎样才能把机器人有效投放到社会和市场中(比如伦理学中“预防原则”的应用)?怎样才能防止智能机器人沦为杀人机器,同时保护“他们”免受黑客和别有用心的人的攻击,进而在技术和社会效应上保持一种平衡状态?可见,机器人的安全性问题成为机器人伦理学研究中最为现实和首要的问题。

  另一方面,表现为社会性伦理缺失。随着人工智能革命的来临,人类社会将面临因机器人的广泛应用而带来的失业问题、依赖性问题、人际关系重塑问题、环境污染问题等伦理挑战。一些伦理学学者担心,人类对人工智能技术会产生过分依赖性。例如,机器人在疑难手术中表现出的比人类更精湛的医术,将造成传统的人类工作被逐步取代,这就可能使经由历史积累的医学技能和知识裹足不前,进而使社会变得更为脆弱。同时,机器人可能对传统的人际关系产生深远影响。由于机器人往往被定位为人类的忠诚聆听者,不会出现欺骗等不忠行为,从而可能发展成为人类的情感伴侣。此外,机器人作为计算机设备的一种应用拓展,产生的电子垃圾和大量射频辐射也会加剧污染问题,冲击并影响着人类赖以生存的生态环境。

  总之,面对现代科技的快速发展,我们应当坚持审慎、预见的眼光来看待;特别是面对当前的人工智能技术,我们更要正视由此带来的伦理问题,预盼可能出现的道德缺失并进行相应的规制。正如著名科幻文学家阿西莫夫所说的那样:“一个充满智慧且明智的决定不但要立足于现实,更要着眼于未来的世界……我们每一个人都用科学虚构的思维方式去思考问题,显得重要且极具意义。”

  (作者单位:山西财经大学马克思主义学院;南开大学哲学院) 

分享到: 0 转载请注明来源:中国社会科学网 (责编:李秀伟)
696 64.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
wxgg3.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们