首页 >> 哲学 >> 科学技术哲学
基于历史视角分析的强人工智能论争
2019年07月12日 10:39 来源:《山东科技大学学报.社会科学版》 作者:王彦雨 字号

内容摘要:

关键词:

作者简介:

Research on Strong Artificial Intelligence Debate form the Historical Perspective

  作者简介:王彦雨(1982- ),男,山东巨野人,中国科学院自然科学史研究所副研究员,科学技术哲学博士。北京 100190

  原发信息:《山东科技大学学报.社会科学版》第20186期

  内容提要:在人工智能发展史上,强人工智能(“强AI”)一直是一个争议不断但却又不断引发人们关注的议题。对于“强AI”理念,我们应合理看待其所发的各种争论:(1)“强AI”理念是推动人工智能界不断打破人机界限、使AI技术向前发展的重要信念;(2)“强AI”争论背后所反映的是不同社会要素,特别是“两种文化”(科学文化和人文文化)之间的张力,且AI界的这几种文化也经历着由对立、冲突,到逐渐的尝试性对话与合作这一过程。(3)AI界、哲学界在对待“强AI”这一议题的态度并非一成不变,AI界经历了一个由乐观与支持到悲观与放弃以及现在的谨慎心态,而哲学界对于“强AI”的态度则是沿着由批判与质疑到现在的大力宣扬这一路径演变,且当前他们对强AI所可能引发的风险更为忧虑。(4)“强AI”概念需要进行重新界定,使其成为科学而非单纯的“科幻式”概念,并给予强AI风险议题更多关注。

  Throughout the history of artificial intelligence(AI),"strong AI" has always been a controversial concept which constantly arouses people's concern For the idea of "strong AI",we are expected to take a reasonable view of the various arguments it has caused:(1)The idea of "strong AI" is an important force to drive AI technology to break the boundary between humans and machines and develop forward;(2)The controversy of "strong AI" reflects the tension between different social factors,including the "two cultures"(scientific culture and humanistic culture),the mainstream world outlook,i.e.science and technology are the competitiveness and productivity and so on Besides,these cultures in AI circle go through a process from opposition to conflict,and finally to tentative dialogue and cooperation(3)The attitude of AI circle and philosophical circle towards "strong AI" is changing:AI circle was initially optimistic and supportive,and then pessimistic and ignoring,and is now finally cautious; philosophical circle towards "strong AI" was critical and suspicious,and now advocates vigorously,moreover,it is more concerned about the risk that strong AI may cause.(4)The concept of "strong AI" needs to be redefined to make it a scientific concept rather than a simple one of "science fiction".Besides,more attention should be paid to the "strong AI" risk.

  关键词:强AI/“机器智能恶与善”之争/乐观主义与悲观主义之争/“智能增强”理念/“奇点”理论/“强AI风险论”/科技巨风险  strong AI/debate on "the evil and the good of machine intelligence"/debate between optimism and pessimism/concept of "intelligence augmentation"/"singularity" theory/"theory of strong AI risk"/huge risk of science and technology

  标题注释:中国科学院自然科学史研究所重点培育方向项目“科技的社会风险”;中国科学院青年研教项目“机器人ELSI问题研究”项目。

 

  强人工智能(“强AI”)概念由哲学家塞尔(John Searle)于20世纪80年代所提出,[1]类似的概念还包括高端“通用人工智能”(Artificial General Intelligence)、波斯特罗姆(Nick Bostrom)的“超级智能”(Super intelligence)、弗诺·文奇(Vernor Steffen Vinge)的“奇点”(singularity)等,其对应的概念是“弱AI”(weak AI)或应用性AI、专用AI。“弱AI”不具有真正的智能或自主意识,只能解决特定领域中的问题;而“强AI”则是指达到人脑水平的机器智能,可以全面、综合地复现人类大多数(或全部)的思维能力,甚至具有诸如自主意识、算计、情感反应等价值或情感要素。如塞尔将“强AI”界定为“一个机器可以展示出或模拟人类水平的聪明程度,或超出人类的聪明程度”,波斯特罗姆强调“超级智能”“几乎在所有领域均能够远远超过人类的认知能力”。强AI是否能实现、是否与人为善,对于这一问题,学者们给出了不同看法。一些学者,如埃隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)等认为强AI最终会实现且会与人为恶,刘益东则指出强AI具有双重危险,属于“致毁知识”,因为其正负效应不可抵消,无论它有多大的正面效应,也是“一坏遮百好”,所以应该明令禁止。[2]蔡恒进也认为,“作为人类意识延伸的人工智能,被赋予的是偏狭而非完整的意识,在快速进化之后会导致其能力与意识状态的极度不匹配”;[3]一些学者认为强AI的实现虽然不可避免,但它是有益于人类的,如赫伯特·西蒙(Hebert Simon)、库兹韦尔(Ray Kurzweil)等;也有人将强AI视为是一种不可能实现的幻想,如严乐春(Yann LeCun)、谭铁牛等。

  关于“AI能否达到人类的思维水平、是否会取代甚至控制人类”这一问题(我们称之为“强AI议题”),自“人工智能”这一学科产生之日起便引发广泛关注,相关分析散见于人工智能史研究中,如丹尼尔·克勒维耶(Daniel Crevier)在1993年的著作《AI:人工智能研究的动荡史》中,描述了人工智能发展初期乐观派和悲观派之间的争论、对立过程;约翰·马尔科夫(John Markoff)在《与机器人共舞:人工智能时代的大未来》一书中,对人工智能研究共同体中“强AI派”与“智能增强派”之间的紧张关系进行了阐释,等。但是这些研究较为分散,没有能够结合各个时期争论的不同主题,对“强AI”的整个争论史进行系统的论述,实际上,在人工智能发展的不同阶段,人们对“强AI议题”的关注点及讨论视角一直在发生着变化(见图1)。本文主要探讨的问题是,(1)在人工智能发展的不同时期,AI共同体内部不同群体以及哲学社会科学界对“强AI”分别持何种态度?(2)不同争论群体在“强AI”这一议题上是否以及如何对话与互动;(3)“强AI议题”对人工智能的发展有何作用,特别是如何影响通用人工智能与专用人工智能两种研究路径的演进。

  

  图1 不同时期人们关于强人工智能的争论议题及关注点变化

  一、图灵的担忧及诺伯特·维纳与塞缪尔关于“机器智能恶与善”问题之争(1950—1956)

  1950年,图灵发表著名论文《计算机器与智能》(Computing Machinery and Intelligence),首次提出“机器是否可以思考”这一问题。[4]442图灵认为,机器可以像人脑一样思维,他强调“模仿”概念,即机器可以模仿人脑从而实现人脑的某些功能。图灵将人脑比拟为一台数字计算机,由存储器、执行单元和控制器所构成,通过“编程”将目标函数输入机器,从而实现特定目标,“分析机实际上是一台万能数字计算机,当它的存储能力和速度达到一种程度,人类就可能通过适当的程序使它模仿我们讨论的机器”[4]433-460。机器“思考”的限度是什么?或是说图灵眼中的机器是否具有强AI属性?他认为,“机器可以成为它自己的主题,机器可以通过观察自己的行为的结果,修改自己的程序,以便有效地达到某种目的”,图灵眼中的机器智能不具有诸如道德、伦理、主体感受、意向性等精神或意识要素,它是逻辑的、计算的、线性的,但图灵认为未来的机器智能将具有学习、进化、改进自我等功能,这种属性是强AI的重要特征之一。

  图灵的理论促使人们去研究如何使机器模仿人类思维方式,如“游戏AI”、定理证明等。1951年,斯特雷奇(Christopher Strachey)编写出一个跳棋程序,而普林茨(Dietrich Prinz)则发展出国际象棋程序;1955年,纽厄尔(Allen Newell)和西蒙(Herbert A.Simon)开发的“逻辑理论家”(Logic Theorist)证明了《数学原理》(Principia Mathematica)中38个定理,且发现了一些新的、更好的证明方式,[5]123-125西蒙认为这一程序“解决了古老的精神/身体问题,解释了一个由物质构成的系统如何拥有思想特质”[6]17。

  游戏AI战胜人类棋手事件,引发了一些学者对“机器是否会控制人类”的担忧,其中之一便是维纳(Norbert Wiener)。实际上,维纳在其1950年的《人有人的用处:控制论与社会》(The Human Use of Human Being)一书中,便基于熵、反馈控制理论,对有机体与机器之间的相似性进行了论证,认为生命体甚至其思维都可以最终被机械化。维纳的担忧很快变成现实。1952年,塞缪尔(Arthur Samuel)构建了一个被认为是能够学习的跳棋程序,1956年2月24日这一跳棋程序打败了康涅狄格州的西洋跳棋冠军,而1959年,塞缪尔在与自己所设计的跳棋游戏AI的对弈中被击败。

  维纳对此表示深切忧虑,他于1960年发表《自动化的某些道德和技术的后果》(Some Moral and Technical Consequences of Automation)一文,认为智能机器迟早超过并危害人类。其理由是:(1)机器可能会跳出此前的训练模式,摆脱设计者的控制,“它们无疑是有创造力的……不仅表现在下棋程序所具有的不可预见的战术上,同时还表现在战略评估的详细加权上”;[7](2)下棋游戏可以将其能力延伸到其他领域(如核领域),实现智能的跨领域迁移并带来未知风险,“这些具有学习能力的机器可以用于编码新型按钮战争中的按钮动作……一个拥有足够的经验可进行适当编程的机器,可能使人类早已经被消灭了”;[8](3)人类行动缓慢,难以做出及时有效的回应。但塞缪尔并不认同维纳的观点,他认为机器不具备独立思想,下棋程序所谓的“意图”或“结论”,只不过是程序设计者本人意图的反映。塞缪尔专门在《科学》杂志撰文“自动化的某些道德和技术的后果——一种反驳”(Some Moral and Technical Consequences of Automation——A Refutation),强调“维纳的一些结论我并不认同,他似乎认为机器能够拥有原创性,是人类的一个威胁”,但“机器不是妖魔,它不是用魔术操作,也没有意志,而且与维纳的说法相反,除了少见的功能失常情况外,它不能输出任何未经输入的东西”[9]。

作者简介

姓名:王彦雨 工作单位:

转载请注明来源:中国社会科学网 (责编:李秀伟)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们