首页 >> 跨学科
人工智能有 “ 法律人格 ” 吗
2019年11月06日 10:27 来源:《学习时报》 作者:徐昭曦 字号

内容摘要:

关键词:

作者简介:

  人工智能在社会各领域的深入应用带来了诸多法律问题,如人工智能可否作为法律上的主体?人工智能生成物是不是作品?人工智能驾驶责任如何分配?这些问题可归结到一点予以诠释——人工智能是否有“法律人格”?

  人工智能法律人格问题的实质。法律人格,是指法律认可的一种享受权利、承担义务的资格。通俗地说,若人工智能成为了法律上的“人”,其就拥有了享受权利的可能,比如受到尊重、不被随意破坏打骂等身份方面的权利,以及著作权、收益权等财产方面的权利;若人工智能成为了法律上的“人”,其也须对自身行为负责,要有独立承担责任的能力,不能损害他人自由,不得侵犯他人财产及人身,否则会受到法律的制裁。相反,若人工智能不是法律上的“人”,其权利和责任将无从谈起。也就是说,法律人格是享有权利和承担责任的前提。

  目前对此问题的讨论,大致可以归结为三种观点:一是肯定说(主体说),即认为应当承认人工智能具有法律人格,但应同时明确其法律人格的有限性。如有学者认为,人工智能有独立的意识和意志,具备了法律主体资格条件。二是否定说(工具说),该观点主张人工智能仅仅是人类的工具,不是具有生命的自然人,也区别于具有独立意志并作为自然人集合体的“法人”,且目前发展水平不足,不具备主体资格要件,因而尚不足以取得独立的主体地位。三是具体说(区分阶段说),该观点认为人工智能法律人格问题的研究必须区分具体阶段,也就是将人工智能大致划分为弱人工与强人工两个阶段,弱人工时期的人工智能主要是单一方面具有人类造诣的功能型机器,仍然是人类的辅助工具,不具有法律人格;而强人工时代的人工智能具备独立意志,拥有综合智能元素,并能脱离人类控制自主行为,应当赋予其相应人格,同时明确其法律人格具有特殊性,区别于自然人人格与法人人格。如同法人区别于自然人没有名誉权一样,人工智能区别于自然人,也不具有结婚、生育等权利能力,当然这仅限于当前人工智能所处的发展阶段。

  实际上,随着人工智能科技的进步及机器学习能力的逐步增强,人工智能自身的主体能力也在不断充实、发展与成熟。如果把弱人工时代比作人工智能发展的婴童阶段,强人工时代则相当于人工智能发展的成年阶段。与之相对应,法律是因应社会的发展变化而不断发展完善的,“法律人格”的内涵也在随时代更迭不断被赋予新的内涵,其外延当然亦随之扩展。从自然人格演进史、动物及无生命体的人格制度史来看,法律主体的范畴极具包容性。因此,法律的发展应当结合时代和技术的具体发展水平。就目前人工智能的发展水平而言,还处在弱人工时代,人工智能仍然是辅助人类工作的工具,尚不足以赋予其法律人格。而如果有一天,当我们进入人工智能发展到具备自我意识乃至自由意志的强人工时代,这一问题可能会有不同的答案。

  人工智能生成物的权利归属。目前人工智能已可以进行自行写作、作曲、作画、撰写新闻报道等,随之而来的问题是,诗歌、画作、歌曲、新闻稿等这些人工智能生成的内容是不是著作权法上具有独创性的作品?如果是作品,其权利归属于人工智能还是人?如果权利归属于人,是归属于人工智能的所有者、使用者、设计者抑或是其他主体?由此,人工智能生成物面临的法律问题主要是生成物的法律定性及其权利归属。对此问题,学术界已经有了一些研究成果,但争议激烈、莫衷一是。如有学者认为,人工智能能够自主学习、自主创作,其生成内容具有独创性,著作权应归属于机器人所有。对此,反对者则认为,权利若为机器人所有,该权利如何行使、由谁行使缺乏可操作性;也有学者认为,机器人是程序员设计出来的,应当由设计人员享有;还有学者认为,应借鉴单位作品制度,由机器人和设计人员共同所有,等等。

  事实上,当前人工智能按照功能差异,如人类社会职位分工一样,一般都会朝向不同领域、行业分化为专业性非常鲜明的功能型人工智能,虽然不具备综合性主体能力,但在某一领域是有赋予其相应能力的空间的。例如,医疗机器人、法律机器人、写作机器人等,对应可以赋予其为实现医疗工作的权利、为实现法律工作的权利、为实现写作方面的权利。

  人工智能侵权的责任承担。人工智能迭代式的发展,使得汽车自动驾驶、医疗机器人、无人机等技术进一步解放了人类劳动,同时带来的问题也层出不穷。在利用智能机器引发的医疗事故、自动驾驶的交通事故、无人机误判等问题上,如何对相应责任进行认定与归结,谁来为人工智能的行为负责?有观点认为,责任分配应结合机器人致损的具体情况分析,一是人为操控智能系统导致损害,如黑客、病毒等人为因素侵入互联网,进而控制智能机器人导致的损害,应当由背后的操控者承担责任;二是因智能系统自身缺陷造成损害,如果是使用者过失,则由使用者承担责任,如果是智能系统漏洞或者是人工智能超越控制的“自主行为”,应由受益者或社会承担替代责任。这一观点在现阶段是有其合理性的。

  但如果到了强人工智能时代,以算法程序、代码规则这些无机神经网络具备思维与决断能力的“人造人”,同以神经元形式而具备独立意志的人类一样,都是拥有自由精神的实体,他们都有能力脱离自我之外其他实体控制独立实施有意识与有意志的行为,那时如果仍要求人工智能背后的人类为其承担责任将不再合理。到那时,人工智能享有权利(如著作权),其可以通过自己的劳动获得财产。此外,按照由受益者负担风险的原则,可由受益人或社会设立基金或投保方式为人工智能承担责任。

  综上所述,在认识人工智能“法律人格”这一问题上,必须结合科学技术的发展阶段进行实事求是地分析。可喜的是,这一问题已得到国家层面的重视,国务院发布的《新一代人工智能发展规划》,明确了要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,这为促进人工智能健康快速发展打下了坚实的法治基础。

作者简介

姓名:徐昭曦 工作单位:

转载请注明来源:中国社会科学网 (责编:马云飞)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们