焦和平:算法私人执法对版权公共领域的侵蚀及其应对

2023-02-16 来源:《法商研究》2023年第1期

  目次 

  一、问题的提出 

  二、算法私人执法在版权领域的具体展开 

  三、算法私人执法对版权公共领域的侵蚀 

  四、算法私人执法侵蚀版权公共领域的根源 

  五、算法私人执法侵蚀版权公共领域的应对 

  摘  要  利用“通知—移除”规则以网络服务商代替公权力机构居中处理侵权纠纷被视为版权领域的私人执法。随着算法技术的应用,版权领域的私人执法模式从人工操作转向全程算法化,表现为查找侵权行为算法化、发送侵权通知算法化、处置侵权信息算法化、预防侵权发生算法化。私人执法算法化在极大提高执法效率的同时,也造成了对版权公共领域的侵蚀,主要表现为压缩“个人使用”空间、剥夺“适当引用”机会、阻碍“科学研究”开展、架空用户“反通知”权利等。造成上述负面后果的根源在于侵权认定的复杂性与算法技术的局限性以及利益驱动下算法执法机制被滥用。可以从以下4个方面来应对算法的私人执法对版权公共领域的侵蚀,即将版权公共领域考量植入算法设计中、在特殊情形下以人工审查辅助算法执法、完善过滤机制下的用户申诉程序、针对恶意通知行为规定惩罚性赔偿责任。 

  关键词  “通知—移除”规则  私人执法  算法化  版权  公共领域

  作者简介  西安交通大学法学院教授、博士生导师 

  一、问题的提出 

  在传统的版权法架构下,版权执法主要是指公权力机构对版权侵权纠纷的处理。在前互联网时代,由于侵权数量较为有限,因此依靠传统的公权力执法完全可以满足版权人的维权需求。但20世纪末迅猛发展的互联网技术所带来的信息暴增、网络盗版泛滥使得在人力、财力和手段上都较为有限的公权力执法模式面临严峻挑战,由此出现了版权领域的“执法失灵”现象。为应对这一“执法失灵”现象给版权维权造成的不利影响,版权人开始在公权力执法之外寻求与网络服务商合作以共同打击网络侵害版权行为,并探索出遏制网络版权侵权的“通知—移除”机制。一方面,由于版权人更了解自己的作品,在发现和识别侵权方面比网络服务商更具优势,因此由版权人负责查找侵权行为并及时将侵权信息提供给网络服务商,此为“通知”;另一方面,由于侵权行为发生在由网络服务商管理的网络空间,网络服务商在确定侵权主体和处置侵权信息方面具有优势,因此由网络服务商负责在收到版权人提供的侵权信息后及时对侵权信息予以处置(移除、屏蔽侵权信息或者断开侵权信息的网络链接,下文统称为“处置”),此为“移除”。由于“通知—移除”机制具有低成本、高效率的优势,因此其一经问世便迅速被版权人和网络服务商采用,于是以网络服务商代替公权力机构处理版权侵权纠纷的“私人执法”模式由此诞生,并相继被各国立法普遍确认。之所以将网络服务商处理版权纠纷的行为称为“私人执法”,是因为一方面,网络服务商在“通知—移除”机制中实际上扮演了“裁判者”角色,发挥着实质上的“执法”作用;另一方面,网络服务商毕竟属于民法上的私人机构,并非公权力执法主体,不具有传统公法意义上的“执法权”,故称其为“私人执法”。最早将此种“私人执法”机制以立法形式确认的是1998年《美国数字千年版权法》。 

  随着近年来算法技术的广泛应用,数字化作品的版权保护越来越多地通过算法执行系统来实现:通过算法设计可以将发现侵权信息、提交侵权通知、处置侵权材料等交由智能算法自动完成,甚至利用自动过滤技术可以事先阻止涉嫌侵权信息上传至网络空间。由于在这一新型自动化应用场景下,传统的“人工通知—人工处置”演变为“算法通知—算法处置”模式,即整个私人执法过程由智能算法自动完成,因此被称为“算法私人执法”或者“私人执法算法化”。在极大地提高执法效率的同时,算法私人执法也引发了版权公共领域被不断侵蚀的危机。保护版权与维护公共利益同为版权法追求的价值目标:前者通过赋予版权人对版权作品享有法定垄断权并排除他人非法使用这一机制予以实现,后者则通过将特定信息留给社会公众自由免费使用这一机制予以实现。这些特定信息包括不适用版权保护的主题、未形成表达的思想、合理使用的对象、不具有独创性的表达以及超过保护期限的作品等,此即版权的公共领域。算法私人执法在高效处置侵权信息的同时,也往往将这些属于公共领域的信息错误地作为侵权信息予以处置,从而侵蚀了版权的公共领域。但这一问题似乎尚未引起学界的足够重视,当前与算法有关的版权问题研究中,多数文献将其关注点投射于算法过滤义务是否需要引进,或者“通知—移除”规则是否需要调整,或者算法推荐下是否应提高数字平台的注意义务等问题。这些研究无疑是极具价值的,但其关注重点仍在于如何通过算法技术强化版权保护,而对因算法技术的应用引发的版权公共领域危机则未予应有关注。鉴此,笔者拟从版权领域私人执法的算法化入手,剖析算法私人执法对版权公共领域侵蚀的种种表现,探究其背后形成的深层原因,最后提出科学务实的应对之道,以期能引起学界对算法技术应用引发的版权公共领域危机问题的关注,并为推动这一问题的解决提供些许学理支撑。 

  二、算法私人执法在版权领域的具体展开 

  (一)查找侵权行为算法化 

  在网络时代的早期,版权人发现侵权信息基本依靠人工查寻,这一传统的侵权发现机制在互联网发展之初尚能基本满足版权人的维权需求,但随着网络上信息数量的迅猛剧增,仅依靠人工查寻显然难以全面发现和掌握侵权信息。在相当数量的侵权信息未能被发现的情形下,版权人自然无法向网络服务商发出要求移除特定侵权信息的通知,从而导致“通知—移除”执法机制的第一个环节“查找侵权行为”难以启动。这一局面显然对版权人极为不利,由此产生了版权人对及时、快速、全面发现侵权信息的迫切需求。在算法技术应用下,版权人的这一愿望成为现实,因为通过采用算法检测和对比技术,版权人能够对网络信息实施 24 小时巡查,从而快速发现并识别与版权作品相似的信息以及相似的程度(比例),为下一步的侵权判定和发送侵权通知提供依据,使其维权处境得到根本性改善。这一利用智能算法迅速发现并识别侵权信息的技术目前在版权领域已被广泛应用。国际知名视频网站平台“优兔”早在2007年就已经开发出能够自动检测信息相似度的内容身份识别系统,该系统可以24小时不间断将网络用户上传至“优兔”视频平台的信息与版权人事先提交的样本作品进行比对,并自动识别与样本作品相似的内容及相似程度(比例),使得版权监测系统得以自动化运行。我国知名互联网公司北京字节跳动科技有限公司于2018年在其运营的“今日头条”应用程序中引入内容身份识别系统,并且于2019年开发出具有类似自动监测功能的“灵识系统”。 

  随着版权人对算法检测需求的不断增加,市场上出现了以专门为版权人提供自动化监测(常态化的动态检测)服务的第三方商业机构,使得以算法技术为基础的版权监测业务迅速发展成为一门新兴的“版权产业”。例如,由南京花豆网络科技有限公司开发的“鲸版权”智能监测系统,通过运用数字指纹、智能联想、布式爬虫和匹配算法技术为版权人提供“全品”(覆盖领域包括内容付费、动漫娱乐、影视 音频、图片摄影等图文影音)、“全网”(可对100000+网站/应用程序/新媒体平台/电商/网盘等渠道进行有效监控)、“全时”(7×24h全年无休快速接入和自动监测)、“按需”(按客户需求可采用不同监测方案组合,保障效果且客户成本可控最优)、“可视”(监测结果数据可视快照存档了然于心)的版权监测服务,以达到快速、精准、全面发现侵权内容的效果。目前该公司已为中国版权协会、优酷、人人视频、猫眼电影、掌阅、简书、中青在线等版权人提供了版权自动监测服务。 

  (二)发送侵权通知算法化 

  由于互联网上的侵权信息一般由网络用户上传至网络服务商提供的信息存储空间,因此网络服务商有能力对这些信息进行管控和处置。正如美国国家版权局在1995年发布的《知识产权与国家信息基础设施——知识产权工作组报告》中所提到的,“网络服务商可以很好地实施执法功能”。因此,版权人在发现侵权信息后须及时告知网络服务商,以便网络服务商进一步对侵权信息进行精准处置。在网络时代的早期,版权人向网络服务商发送请求移除侵权信息的通知基本靠人工操作(邮寄纸质版或者发送电子邮件),在通知数量有限的情形下,这一传统通知方式尚能基本满足版权人的维权需求。但随着网络上信息数量的迅猛剧增,需要通知的侵权信息也随之增长,由此仅依靠传统的人工通知方式显然难以将全部已经发现的侵权信息及时通知网络服务商,从而造成版权人的“通知困境”,使得“通知—移除”执法机制的第二个环节“发送侵权通知”难以有效进行。随着智能算法技术的应用,通过算法设计可以将成批量的侵权通知由智能系统自动向网络服务商发出。“一些自动化通知发送系统,往往采取哈希匹配技术将用户上传的资料与权利人提供的资料样本进行比较,当用户资料与参考资料相匹配时,系统就会自动发送侵权通知。” 在越来越多的版权人采用算法通知的背景下,通知程序已从“基于人为决策、处理通知数量有限的手动化程序,演变为以算法决策为主、能够处理大量通知的自动化程序”。随着互联网上侵权信息日益剧增,版权人对算法通知的需求也在不断增加,由此催生出专门为版权人提供自动发送侵权通知的第三方商业机构。在中国,自称为“版权管家”的北京中视瑞德文化传媒股份有限公司于2019年与中科院自动化所共同研发了“智能互联网版权监测系统”,为版权人提供从发起监测到发现侵权再到自动向网络平台发送侵权通知的一体化流程服务。 

  (三)处置侵权信息算法化 

  在网络时代的早期,版权人主要通过人工方式邮寄纸质版或者发送电子邮件向网络服务商提交侵权通知,在通知数量有限的情形下,网络服务商依靠人工操作尚能对符合移除条件的侵权信息及时作出处置。但随着算法技术的应用和第三方服务机构的推动,大量的侵权通知以自动化方式批量向网络服务商发出。显然,这些由算法系统自动发出的海量侵权通知远远超出了网络服务商的人工处理能力范围,使得网络服务商依靠传统人工操作已难以对版权人的移除侵权信息请求作出有效的回应,从而面临可能随时被版权人起诉要求与用户共同承担版权侵权连带责任的法律风险。因为依据“通知—移除”执法机制,网络服务商在收到侵权通知后若不及时处置侵权信息,则将会因“知道网络用户利用其网络服务侵害他人版权”而存在主观过错,最终无法享受避风港规则的豁免。在此背景下,以算法处置应对算法通知便成为网络服务商有效应对来自版权人自动化海量通知的不二选择。以谷歌公司为例,该公司在采用了算法处置技术后仅在2018年一年就删除了大约2.2亿条侵权信息链接。2020年的一项调查数据显示,“优兔”平台上经由内容身份识别系统移除的视频数量是未采取内容身份识别系统前移除视频数量的 7 倍。我国南京花豆网络科技有限公司在其官网上宣称,其开发的“鲸版权”智能算法系统为合作伙伴在5个工作日内将75%的侵权信息成功处置(发现侵权线索8 293条,阻断侵权线索8 080条,清理侵权内容价值1 049万元)。依托技术支持单位冠勇科技建立的“12426版权监测中心”也将其业务范围定位为“针对公众号、云盘、聚合App网络直播等新型平台使用版权大数据监测平台子系统进行分类监测,从亿万海量信息中快速确定侵权内容,实现快速删除处理侵权信息,主流平台侵权信息删除率高达95%以上”。可见,以算法处置应对算法通知已逐渐成为第三方商业机构的热门业务,如此一来,传统的“通知—移除”机制就从“人工通知—人工移除”模式发展成为“算法通知—算法移除”模式。 

  (四)预防侵权发生算法化 

  网络服务商以算法处置应对算法通知可以极大地提高处置效率,但此种事后处置方式总有挂一漏万之时,因担心未能及时全面处置侵权信息而可能被追究连带侵权责任,故网络服务商开始采用版权过滤系统在用户上传信息之前对该信息进行主动筛查。这是算法技术下版权私人执法的独有环节。因为此种操作将“通知—移除”机制中的事后执法前置为事前执法,即采用过滤系统事先阻止涉嫌侵权的信息上传,从而使得涉嫌侵权信息没有机会被上传。这已经逸出“通知—移除”机制,因此可称得上是算法技术下版权私人执法的独有环节。当前,网络服务商主动采取版权过滤系统监测并拦截涉嫌侵权信息已成为常态化操作。特别是于2019年通过的《欧盟数字化单一市场版权指令》(以下称《欧盟指令》)已将采用版权过滤技术规定为网络服务商的一项强制性法律义务。根据《欧盟指令》第17.4(b)条的规定,在版权人事先向网络服务商提供了“相关且必要信息的作品或其他内容”时,网络服务商要根据专业注意义务的较高行业标准“尽到最大努力来确保特定作品或其他内容不被获得”。其中,“相关且必要信息的特定作品和其他客体”就是指版权人向网络服务商提供的正版作品样本,网络服务商应尽最大努力确保其不在平台上出现。同时,根据《欧盟指令》第17.4(c)条的规定,即使在版权人未事先提供作品样本的情形下,如果版权人在网络服务商的平台上发现侵权信息并向网络服务商发出了要求移除的通知,那么网络服务商不仅应迅速采取行动移除侵权信息,而且还应尽最大努力防止这些被移除的信息将来被再次上传。为了使前述“防止被移除的信息被再次上传”的义务得以履行,网络服务商就必须采用过滤系统来监测所有欲上传的信息。故学界普遍认为,虽然该条并未明确要求网络服务商采用版权过滤系统,但是为了“确保特定作品或其他内容不被获得”,采用版权过滤系统对涉嫌侵权信息进行自动拦截似乎是网络服务商的唯一选择。版权过滤义务在我国的一些规范性文件中也得以体现。2015年,国家版权局《关于规范网盘服务版权秩序的通知》第2条要求:“网盘服务商应当建立必要管理机制,运用有效技术措施,主动屏蔽、移除侵权作品,防止用户违法上传、存储并分享他人作品”。2016年,国家版权局《关于加强网络文学作品版权管理的通知》第10条重申:“提供信息存储空间服务的网盘服务商,应当遵守国家版权局《关于规范网盘服务版权秩序的通知》,主动屏蔽、删除侵权文学作品,防止用户上传、存储并分享侵权文学作品”。2018年7月20日,国家版权局、工业和信息化部、公安部、国家互联网信息办公室联合发布的《关于开展打击网络侵权盗版“剑网2018”专项行动的通知》要求,“积极运用电信运营商、版权监测机构的技术优势,提高对网络侵权盗版信息的发现、研判、处置效率”。2012年11月26日通过、2020年12月23日修正的最高人民法院 《关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第9条也规定,在判断网络服务商是否存在过错时,应当考虑“网络服务提供者是否积极采取了预防侵权的合理措施”。 

  三、算法私人执法对版权公共领域的侵蚀 

  利用算法技术进行版权私人执法在提高执法效率、降低执法成本的同时,也可能使那些本可以由社会公众无偿使用的公共信息被错误地当作侵权信息予以处置,从而限制了网络用户的创作和表达自由,侵蚀了立法为社会公众预留的公共领域空间。以下以公共领域中最具代表性的合理使用为例进行具体分析。 

  (一)压缩“个人使用”空间 

  为确保社会公众能够免费利用已有作品进行学习和研究,彰显著作权法促进作品传播和繁荣社会文化的立法目的,各国(地区)著作权法普遍将个人使用作为合理使用的典型类型予以明确规定。根据《中华人民共和国著作权法》(以下简称《著作权法》)第24条第1款第1项的规定,“为个人学习、研究或者欣赏,使用他人已经发表的作品”可以“不经著作权人许可,不向其支付报酬”,此即我国立法上“个人使用”合理使用类型的规范依据。《美国版权法》第107条、《英国版权法》第29条、《德国著作权法》第53条、《日本著作权法》第30条、《意大利著作权法》第68条、《俄罗斯著作权法》第1273条都有类似的规定。在版权私人执法算法化背景下,由于侵权信息的发现环节、处置环节和过滤环节全部由智能算法自动操作,这些操作通常采用“关键词匹配”的方式来识别侵权信息,但此种识别方式不会考虑个人使用情形,结果造成大量的错误匹配和过度匹配,使得个人的使用空间被极大压缩。在“韩寒诉百度公司著作权侵权纠纷案”中,百度公司也承认,其反盗版过滤系统如果采用单一关键词搜索(仅列作者名或者作品名作为关键词)那么会导致误删,因而采取“作者名+作品名”为屏蔽关键词。即便如此,人民法院仍认定后一种做法同样容易造成误删,因此不是制止侵权的合理方式。 

  在美国联邦第九巡回上诉法院审理的“伦茨诉环球音乐公司案”中,原告伦茨在其家中播放著名歌手普林斯“让我们疯狂吧”歌曲。在播放过程中,伦茨问她两岁的儿子“你觉得这音乐如何”,随后她的儿子就开始拿着玩具伴随着音乐手舞足蹈,伦茨顺手录下了这段视频并将其命名为“让我们疯狂吧”发布到“优兔”视频平台,在视频的背景音乐中可以听到这首歌。这段时长29秒的视频被享有该歌曲版权的环球音乐公司利用算法监测到,随即便根据《美国数字千年版权法》向“优兔”平台发出侵权通知要求删除视频,导致原告就该要求的正当性提起反诉。在该案中,虽然伦茨上传的视频中使用了环球音乐公司享有版权的歌曲作为背景音乐,但是其录制并上传视频纯粹是为了与其家人和朋友分享儿子的可爱舞姿,此种使用方式完全符合个人使用合理使用类型的法定条件,环球音乐公司利用算法监测并要求删除视频的行为属于对个人使用的限制。不仅如此,“根据媒体研究的调研报道,在被‘优兔’公司内容身份识别系统识别出的内容里,只有2%构成实质侵权”。 

  (二)剥夺“适当引用”机会 

  “引用他人作品对某些作品的创作来说是必需的,如果不引用,新作中的某些问题就难以说清楚,甚至新作难以产生。” 除此之外,引用他人作品进行评论对于保护公众的表达自由也至关重要,因此允许引用他人已有作品进行创作和评论具有法理上的正当性,也被国际条约和各国(地区)立法普遍作为侵权豁免类型予以确认。根据《著作权法》第24条第1款第2项的规定,“为介绍评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品”,可以“不经著作权人许可,不向其支付报酬”。此即我国立法上“适当引用”合理使用类型的规范依据。《伯尔尼公约》第10条、《英国版权法》第30条、《德国著作权法》第50条、《意大利著作权法》第65条都有类似的规定。在版权私人执法算法化的背景下,由于侵权信息的发现环节、处置环节和过滤环节全部采用算法操作,而算法只关心监测对象与版权作品的内容是否有关联,不会考虑此种关联是否属于适当引用,因此“诸如戏仿、评论、同人制作、混剪视频 、家庭庆典视频等音视频容易因背景音乐或画面的使用而被算法插标,遭到拦截,从而越来越难出现在中小网站上”,使得由法律保障的基于鼓励新作品创作的适当引用机会被剥夺。例如,影评人布拉德·琼斯从电影院看完一部电影后,在停车场上自己的汽车里与朋友讨论该部电影的观后感,随后他将与朋友的对话视频上传到“优兔”视频平台,但被“优兔”平台的算法过滤系统判定为与电影相匹配,从而被作为涉嫌侵权信息阻止发布。然而,布拉德·琼斯上传的视频中没有出现电影的任何镜头或片段,只有他和朋友对电影的评论。此种情形为典型的剥夺社会公众以适当引用方式利用作品的权利。因为布拉德·琼斯与朋友关于电影的评论属于“为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品”情形,符合“适当引用”合理使用类型的适用条件。 

  (三)阻碍“科学研究”开展 

  科学研究是推动创新发展和增进知识积累的重要途径,为此各国(地区)的著作权法均为基于科学研究目的使用作品开设绿色通道,将其规定为合理使用的主要类型,以鼓励科学研究活动的顺利开展。根据《著作权法》第24条第1款第6项的规定,在“为科学研究,翻译、改编、汇编、播放或者少量复制已经发表的作品,供科研人员使用,但不得出版发行”的情形下,可以“不经著作权人许可,不向其支付报酬”,此即我国立法上“科学研究”合理使用类型的规范依据。《伯尔尼公约》第10条、《美国版权法》第107条、《英国版权法》第32条、《德国著作权法》第52条、《日本著作权法》第35条都有类似的规定。在版权私人执法算法化的背景下,由于侵权信息的发现环节、处置环节和过滤环节全部采用算法操作,而算法只关心监测对象与版权作品是否有关联,不会考虑此种关联是否属于正当的“科学研究”,因此使得为科学研究目的免费使用版权作品的机会经常被剥夺,最终妨碍“科学研究”的开展。例如,美国国家航天航空局将一段关于“好奇者”号探索火星的科普视频放到“优兔”网站平台上,这段13分钟的视频因与一个私人新闻服务商的参考文件相匹配,而被“优兔”平台的内容身份识别系统自动屏蔽。虽然在美国国家航天航空局告知“优兔”平台的技术管理者该视频属于版权的公共领域之后,“优兔”平台恢复了该视频在平台上的播放,但是几天之后这个视频又因为另一个版权人的主张而再次被屏蔽。将科普视频在公共网络平台上播放也属于科学研究的范围,并且该科普视频的制作方就是美国国家航天航空局自己,但“优兔”平台不辨分实际情况,仅依赖其内容识别系统的机械匹配就屏蔽该视频的做法是对科学研究活动的阻碍。为此美国国家航天航空局的发言人公开批评“优兔”平台的内容身份识别系统缺乏常识,不仅浪费用户很多时间来处理毫无意义的权利主张,而且侵犯了纳税人获取公共领域知识的权利。 

  (四)架空用户“反通知”权利 

  根据“通知—移除”私人执法机制,在收到版权人发出的侵权通知后,网络服务商应及时对用户上传的涉嫌侵权信息进行处置,同时应将版权人的侵权通知转送给用户,用户在收到网络服务商转发的通知后有权向网络服务商提交不存在侵权的声明,网络服务商在收到该声明后,应将声明再转送给发出通知的版权人,而版权人在收到网络服务商转送来的不侵权声明后,如果不在一定期限内向有关部门投诉或者提起诉讼,那么网络服务商应将被处置的信息予以恢复。可以看出,在一个完整的“通知—移除”私人执法机制中,网络用户并非只能被动地被版权人和网络服务商联合“执法”,其还有权通过提交反通知(不侵权声明)方式获得救济,用以抗衡可能发生的错误执法。这也是法律为有效平衡版权保护与公共领域保留的精妙设计。但是算法过滤技术的采用使得“通知—移除”规则下的私人执法机制被极大地改变:一方面,它将发现侵权信息的义务由版权人承担转变为由网络服务商承担;另一方面,它将执法措施前置,即从原来的发现侵权信息后再进行处置的事后救济,转变为只要监测到欲上传信息与网络服务商事先建立的作品数据库相似程度达到一定比例就阻止其上传。这些改变对“通知—移除”机制造成了颠覆性的影响,使得原本设计精妙的版权人与网络用户之间的利益平衡机制被打破,利益的天平明显向版权人一端倾斜。因为在“通知—移除”机制下,网络用户有机会通过提交反通知(不侵权声明)使被处置的信息得以恢复,但是“当网络服务商使用了过滤技术进行算法执法之后,除非通过算法检测,否则作品无法出现在网络上”。由于在过滤技术下并不存在版权人向网络服务商发出侵权通知这一环节,因此被阻止上传信息的用户也就无法针对版权人的通知行使反通知权利,使得网络用户依照“通知—移除”机制享有的反通知权利被间接剥夺。 

  四、算法私人执法侵蚀版权公共领域的根源 

  (一)侵权认定的复杂性与算法技术的局限性 

  根据版权法原理,并非只要被检测信息中存在与版权作品相同的内容就必然构成侵权,还要看相同部分是否属于思想、是否具有独创性、是否还在保护期之内等。在上述因素的判断都有利于版权人的情形下,还要看对相同部分的使用是否构成合理使用,因此在内容相同的情形下判断是否构成版权侵权是一个复杂的认识过程,不仅涉及事实判断,而且在更多的情形下是一种法律判断和价值判断。这些法律判断和价值判断在很多情形下即使对于专业法官而言也颇具挑战性。以使用行为是否构成合理使用为例,这种判断往往要考虑以下几个方面的问题(1)采取何种标准来认定合理使用。虽然我国在合理使用规则的设立上采取了封闭式的立法技术,即认定合理使用只能在《著作权法》列举的具体类型清单中“对号入座”,不能在清单之外创设其他合理使用类型,但是2011年最高人民法院《关于充分发挥知识产权审判职能作用推动社会主义文化大发展大繁荣和促进经济自主协调发展若干问题的意见》第8条在法定清单之外创设了合理使用认定的“混合标准”,即把《美国版权法》上的“四要素标准”和国际条约中的“三步检验法”混在一起形成了“确有必要+特殊情形+四要素标准+三步检测法(后两步)”的合理使用认定规则。由此使得司法实践中合理使用的认定标准呈现多元状态,有的人民法院严格依照法定列举清单认定合理使用,有的人民法院依据《美国版权法》上的“四要素标准”认定合理使用,还有的人民法院依据国际条约中的“三步检验法”认定合理使用。除此之外,近年来还有人民法院直接以美国司法实践中发展出的所谓“转换性使用”作为合理使用的认定标准。2)在同一认定标准下如何理解该标准的各个构成要件。例如,对于“四要素标准”,未经许可直播他人网络游戏的行为是否构成合理使用在我国学界与司法实践中就存在“肯定说”与“否定说”两种截然对立的学说,其根源就在于各方对四个要素的含义存在理解上的分歧。3)根据现行立法和司法政策,某一使用行为即使符合法定列举类型和四要素标准,还要受到“三步检验法”中“该使用行为既不与作品的正常使用相冲突,也不至于不合理地损害作者的正当利益”的检验,而这一检验标准又极为抽象,远非算法检测所能判断得了的。欧洲法院在2011年的一个判决中也认定,在用户上传的内容可能构成合理使用的情形下,过滤系统无法将合理使用与纯粹的侵权复制加以有效区分。因此,侵权认定的复杂性与算法技术的局限性决定了在版权私人执法中采取算法技术造成错误是不可避免的。 

  (二)在利益驱动下算法执法机制被滥用 

  在利益驱动下算法执法机制有被滥用的风险,主要体现在以下几个环节。 

  首先,算法系统的设计环节。在版权领域的算法技术应用中,无论是自动化检测和自动化通知,还是自动化处置和自动化过滤,自动化程序的购买者和使用者都是版权人或者网络服务商,为了使这些自动化程序在市场上得到最大化应用以实现最佳商业利益,算法技术的开发者会更多地考虑其用户(版权人和网络服务商)的需求。对于版权人而言,算法系统能否发现更多的侵权信息、能否发出更多的侵权通知是其最为关注的问题;对于网络服务商而言,算法系统能否及时有效地处置来自版权人的所有侵权通知、能否有效地过滤出更多与版权作品相似的信息并及时阻止上传是其最为关注的问题。在此种情形下,算法设计者往往会忽略以用户为代表的社会公共利益,而更多地考虑版权人和网络服务商的利益。这一点在版权人和网络服务商直接参与或者自行开发算法系统时体现得更为明显。正如有的论者所言:“如果让版权人或者网络服务商在过滤机制下自行设计自动化合理使用决策机制,可能会导致这两者利用更多资源和优势让算法驱动的自动化合理使用决策机制偏向于满足自身利益,而非遵循法律建立合理使用制度的本意,作品使用者或平台内容上传者更易受到算法偏见和算法黑箱的负面影响。” 

  其次,算法系统的选择环节。以营利为目的的网络服务商在考虑选择何种算法系统时,经济成本是影响其决策的重要考量因素。为了降低经济成本,网络服务商更倾向于选择那些价格低廉的算法系统,而价格低廉往往意味着更低的准确率和更高的误差率。除此之外,法律风险也是网络服务商在选择采用何种算法系统时考量的另一个重要因素。为了降低被版权人起诉的风险,网络服务商往往更倾向于选择那些过滤标准更加严苛的算法系统,而过滤标准越严苛,就越容易把更多的信息标注为“侵权信息”。如此一来,更多的公共领域信息被算法系统作为“执法对象”排除在网络平台之外。尽管这样做容易造成执法错误,但是就总体而言对网络服务商仍是有利的。因为与网络用户来相比,版权人发起诉讼的概率比网络用户要高得多。因此,尽管错误执法的概率更大,但是在版权人提起诉讼的可能性远大于网络用户的情形下,经过精细的“算计”,网络服务商也会选择价格低廉和标准严苛的算法系统,由此不可避免地导致算法系统被滥用。 

  最后,算法系统的应用环节。算法系统的实际使用人为版权人、网络服务商以及为二者提供专业技术服务的第三方商业机构。就版权人而言,由于多数作者并非法律专业人员,对于版权法的理解多停留于表面,其从维护自身利益的立场出发,更容易将所有未经许可的使用行为当作侵权看待;即使是机构版权人,为最大限度地维护自身的利益,在查找侵权信息并发出侵权通知时也会倾向于将公共领域的信息当作“侵权信息”。就网络服务商而言,基于风险防范和降低成本的考虑,也往往抱以“宁可错删,不可漏删”的心态对待版权人要求移除涉嫌侵权材料的通知:(1)就风险防范而言,根据“通知—移除”机制,在收到版权人发来的侵权通知时,不迟延地将涉嫌侵权信息立即移除可以使网络服务商享受“避风港”待遇,即使存在错误移除情形,网络服务商也无须承担责任(除非网络服务商存在故意),因此网络服务商更倾向于对侵权通知不进行实质审核,或虽进行实质审核,但在有疑问时仍倾向于作出移除的选择。(2)就降低成本而言, 如果通知数量巨大,那么进行实质审核意味着增加网络服务商的运营成本,因此网络服务商更倾向于对侵权通知不进行实体审核,从而使得更多的公共领域信息被错误处置。 

  五、算法私人执法侵蚀版权公共领域的应对 

  (一)将版权公共领域考量植入算法设计中 

  这一建议在理论上具有正当性。前文已述,即使在发现涉嫌侵权材料与版权作品具有“实质性相似”时,版权人尚不能立即向网络服务商发出移除通知,网络服务商亦不能立即处置涉嫌侵权材料,而应进一步审查该涉嫌侵权材料是否属于版权公共领域的信息。例如,《美国数字千年版权法》第512(c)条规定,一份合格的通知应该包括“通知人善意相信他人对版权材料的使用是未经权利人或法律授权的”。对于“善意相信”的理解,美国联邦第九巡回法院认为,考虑是否存在合理使用就是“善意相信”的一种表现。可见,《美国数字千年版权法》第512(c)条要求版权人在向网络服务商发出通知前应当对涉嫌侵权材料进行初步审查,否则会因不符合“善意相信”要求而构成“虚假陈述”。这里的“善意相信”就是要求版权人考虑涉嫌侵权信息是否属于合理使用的对象。2020 年 8 月 24 日,我国最高人民法院发布的《关于涉网络知识产权侵权纠纷几个法律适用问题的批复》第5条规定:“知识产权权利人发出的通知内容与客观事实不符,但其在诉讼中主张该通知系善意提交并请求免责,且能够举证证明的,人民法院依法审查属实后应当予以支持”。这里的“善意”也可以理解为考虑了包括合理使用在内的公共领域因素。在版权私人执法算法化的背景下,移除通知的发出从人工操作变为自动化程序,由此就使得将版权公共领域因素事先植入算法设计中成为满足“善意相信”或者“初步审查”的必要步骤;相应地,是否在算法设计中植入版权公共领域考量也可以作为版权人证明其确实存在“善意相信”的证据。这一建议在技术上也具有可行性。虽然算法执法在面对合理使用时面临前文所述的“侵权认定的复杂性与算法技术的局限性”的挑战,但是这“并不意味着推进该机制(在算法设计中植入合理使用因素)不可行,目前算法的确定性不可能应对所有合理使用情形,但可以尝试在有限的范围内部署算法”,并且“随着语音识别、图像识别,以及机器学习等诸多人工智能技术的发展,在自动化通知中通过算法设计准确识别侵权作品并考虑合理使用因素,具备技术上的可能性”。外国学者的研究结果也表明,在算法设计中植入包括合理使用在内的公共领域因素是可行的,既可以防止自动化执法过度威慑的负面作用,也可以教育用户遵守版权法。 

  (二)在特殊情形下以人工审查辅助算法执法 

  虽然通过优化算法设计可以在一定程度上减少算法执法对版权公共领域的侵蚀,但是正如前文所述,基于侵权认定的复杂性和一定程度上的不确定性,将包括合理使用在内的公共领域因素判定规则纳入算法设计所追求的不是精准度而是高概率,所针对的也是较为明显、容易判断的情形,尚难以对较为复杂的公共领域情形作出准确判断。因此,在算法设计中植入包括合理使用在内的公共领域考量并不能完全避免算法执法对公共领域的误判,由此使得在算法执法主导下,辅之以人工审查提高算法执法的可信度便显得尤为必要。《欧盟指令》第17条的适用指南也要求网络服务商在实施版权过滤机制下必要时以人工审查辅助算法执法,以最大程度减少对版权公共领域的侵蚀,即“对于没有明显侵权的内容,只有经过人工审查方可采取屏蔽措施”,这将有助于提高内容过滤的效率和准确率,从源头降低过度屏蔽的潜在风险。我国也有一些网络服务商表示将以人工审核辅助算法过滤,以提高算法执法的可信度,如南京花豆网络科技有限公司开发的“鲸版权”智能监测系统、字节跳动公司开发的“灵识系统”、“视觉中国”公司开发的“鹰眼”图像网络追踪系统、“冠勇科技”公司研发的“易犬系统”等在其官网中都有此类表述。但在实践中,“人工监督或参与执法过程的情况很少且基本上都是敷衍了事,由于严重的成本不对称,算法删除决策很少受到挑战”,因此应强化算法执法主导下版权人和网络服务商的人工审查义务。 

  (三)完善过滤机制下的用户申诉程序 

  在算法过滤机制下,网络用户向互联网平台上传材料之前需要经过网络服务商的算法筛查,如果筛查结果被算法标记为涉嫌侵权信息那么无法上传至网络平台,此乃算法技术下版权私人执法的独有环节。因该过滤程序并非因版权人向网络服务商发送侵权通知所引起,而是由网络服务商自行启动,故不存在“通知—移除”机制下网络服务商将版权人的通知向网络用户转送这一流程,用户自然也就无法通过提交反通知(不侵权声明)来进行抗衡和救济,这样就间接剥夺了网络用户在“通知—移除”机制下的反通知权利。为恢复算法过滤机制下失衡的利益,应为网络用户提供针对可能的错误过滤进行申诉的程序设计。 

  具体建议包括两个方面:(1)应允许网络用户为其拟上传至互联网平台的信息作出版权标记,即网络用户有权对拟上传的材料根据版权法的规定进行判断后作出“合法使用”(包括已获授权、保护期届满、合理使用等)标记。网络服务商在用户上传材料时也负有告知义务,即以明示的方式提示用户可以将其上传材料标记为“合法使用”。此种“先行标记”机制已被《德国版权服务提供商法案》所采用,根据该法案,网络服务商负有明确告知用户可以进行事前标记的义务,对于已标记属于版权例外的上传材料不适用版权过滤机制,对于明显属于合法使用的信息,网络服务商不得拒绝用户上传。(2)在被过滤系统识别为侵权信息并阻止上传后,网络服务商应及时通知用户并提供申诉机制,若用户认为存在错误过滤,则其有权通过申诉机制主张其上传材料为合法并要求继续上传,网络服务商接到用户申诉后应转入人工操作予以审查,对于明显属于合法使用的信息应允许用户继续上传。为此《欧盟指令》第17.9条也要求采用版权过滤机制的网络服务商为用户提供有效且迅速的投诉和救济机制。 

  (四)针对恶意通知行为规定惩罚性赔偿责任 

  在版权私人执法尚未算法化的人工操作时代,在实践中就经常发生版权人出于恶意竞争目的向网络服务商故意发出错误通知的情形。例如,有调查报告显示,在谷歌公司收到来自版权人的请求移除“侵权信息”通知中,有57%以上的通知是针对商业竞争对手发出的。在如今算法通知被大规模应用的场景下,版权人及其代理人更是利用算法系统发送大量“垃圾”通知谋取不正当利益,甚至通过恶意发送错误通知形成黑灰产业链。虽然《中华人民共和国民法典》和《信息网络传播权保护条例》针对错误通知行为规定了损害赔偿责任,但是这种责任在性质上属于填平性和补偿性的,对于故意甚至恶意错误通知行为仍难以进行有效遏制和惩罚,因此建议针对恶意通知行为规定惩罚性赔偿责任。 

  第一,针对恶意通知行为适用惩罚性赔偿责任符合侵权责任法原理。当前,我国在知识产权、消费者权益保护、食品安全、生态环境、商品房交易、产品质量和旅游消费等领域已经建立惩罚性赔偿制度,这些适用惩罚性赔偿的行为的共同之处是行为人主观过错明显、损害后果严重、社会危害性大。利用算法系统恶意实施错误通知的行为完全符合上述特点:就主观过错而言,恶意通知是行为人明知自己无权通知或者通知依据不足,但出于损害他人利益的目的仍然发出通知,主观恶意明显。就行为后果而言,恶意通知行为既损害了代表社会公众的网络用户的利益,也损害了网络服务商的利益。就社会危害性而言,恶意通知行为不仅给竞争对手和网络服务商造成了经济损失,而且破坏了诚实守信的社会竞争秩序。 

  第二,针对恶意通知行为的惩罚性赔偿责任在其他领域已经确立。中华人民共和国电子商务法》(以下简称《电子商务法》)第42条第3款针对恶意投诉行为规定了惩罚性赔偿责任,即“因通知错误造成平台内经营者损害的,依法承担民事责任;恶意发出错误通知,造成平台内经营者损失的,加倍承担赔偿责任”。在司法实践中也有针对恶意投诉行为适用惩罚性赔偿的案例。在杭州互联网法院审理的“《电子商务法》实施后的恶意投诉第一案”中, 被告假冒某公司的名义在阿里巴巴知识产权保护平台投诉原告销售的涉案商品为假货且侵犯其商标权,淘宝公司根据被告的投诉删除了原告涉案商品的链接,并对原告进行了降权处罚。后经查明,被告投诉所依据的商标权证书系伪造,原告认为被告的恶意投诉行为构成不正当竞争,最终审理法院援引《电子商务法》第42条第3款“加倍赔偿”条款,判决被告江某赔偿原告经济损失210万元。版权领域的恶意通知行为与电子商务领域的恶意投诉行为在本质上并无区别,按照“类似问题类似处理”的原则,应针对恶意通知行为规定惩罚性赔偿责任。 

  第三,针对恶意通知行为适用惩罚性赔偿责任也是落实中美贸易协议的体现2020年1月15日,中美两国签署的《中华人民共和国政府和美利坚合众国政府经济贸易协议》第1.13条(打击网络侵权)第2款规定,中国应“对恶意提交的通知和反通知进行处罚”。这里的“处罚”一词显然是指应针对恶意通知人在基于填平原则的民事赔偿之外施加额外赔偿。作为对该协议的回应,2020 年 8 月 24 日,最高人民法院发布的《关于涉网络知识产权侵权纠纷几个法律适用问题的批复》第4条规定:“因恶意提交声明导致电子商务平台经营者终止必要措施并造成知识产权权利人损害,权利人依照有关法律规定请求相应惩罚性赔偿的,人民法院可以依法予以支持。”因此,针对恶意通知行为规定惩罚性赔偿责任也是落实中美贸易协议的体现。 

  第四,在算法执法背景下对于“恶意”的认定,可以结合最高人民法院《关于审理涉电子商务平台知识产权民事案件的指导意见》第6条的规定,将其类型化为以下几种情形:(1)版权人在利用算法系统向网络服务商发出侵权通知时所附的权利证明系伪造或者变造的;(2)在用户对其上传材料作了合法性标记的情形下,版权人仍提交虚假侵权对比的鉴定意见或者专家意见的;(3)版权人明知其权利状态不稳定仍向网络服务商发出侵权通知的;(4)版权人明知其发出的通知错误但仍不及时撤回或者更正的;(5)版权人反复向网络服务商提交错误的侵权通知等情形。

  (注:注释省略) 

关键词:“通知—移除”规则;私人执法;算法化;版权;公共领域
转载请注明来源:中国社会科学网(责编:王村村 翁腾月(实习))

扫码在手机上查看