党的二十届四中全会审议通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》强调:“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。”这一重要论述为我国人工智能法治建设提供了根本遵循。当前,人工智能作为引领新一轮科技革命和产业变革的战略性技术,正深刻重塑着经济社会结构与国际政治格局。然而,技术迭代的指数级跃升与法律供给的线性增长之间存在显著张力,个人信息权益侵害、算法歧视加剧、侵权责任主体认定困难以及知识产权归属不清等新型法律风险日益凸显。在法治轨道上推进人工智能治理,既是保障国家安全与社会稳定的底线要求,也是抢占全球科技竞争制高点的关键举措。因此,必须坚持统筹发展和安全,通过构建科学完备的法律体系,实现高质量发展和高水平安全的动态平衡。
坚持系统观念 构建适应技术发展规律的立法体系
完善人工智能法律法规体系,首要任务是确立科学的立法路径,解决法律滞后性与技术敏捷性之间的矛盾。当前我国人工智能相关规定散见于《民法典》《数据安全法》《个人信息保护法》及各类行政规章中,存在着规则碎片化、部门法之间衔接不畅等问题。为此,应采取“统筹规划、分步实施、动态调整”的立法策略。
一方面,应加快制定人工智能专门性法律,确立治理的顶层设计。在总结现有《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等立法经验的基础上,适时启动人工智能专门法律的立法进程。该法应作为领域基本法,明确人工智能发展的基本原则、管理体制与法律责任,统筹协调数据、算法、算力等核心要素。在立法模式上,应从单一的内容治理向内容治理与行为规制并举转型,既关注生成内容的合法性,也对研发、训练、部署全生命周期的行为进行规范,形成事前预防、事中监管、事后追责的闭环体系。同时,需清理或修订现有法规中不适应技术发展的条款,消除重复立法与冲突,确保法律体系内部的统一性与权威性。
另一方面,要引入适应性治理理念,建立灵活敏捷的监管制度。鉴于人工智能技术的高度不确定性,立法应预留适当的容错空间与发展弹性。探索建立包容审慎的敏捷监管机制,在可控范围内允许创新技术进行测试,通过实践反馈修正监管规则。针对快速迭代的技术特征,应采用“法律+标准+规范”的复合治理结构,对于技术性较强、变化较快的具体规则,更多通过行业标准、技术规范进行调整。此外,应建立常态化的法律评估与修订机制,定期评估实施效果,及时响应技术突破带来的新挑战,确保法律制度始终与技术发展同频共振。
聚焦核心风险 健全数据安全与算法治理的具体规则
完善人工智能法律法规体系,核心在于针对数据与算法两大要素,建立精细化、可操作的实体规则,切实防范技术异化风险。其中,数据是基石,算法是核心,两者产生的风险具有隐蔽性与扩散性,必须通过严密的制度设计加以规制。
在数据治理方面,需着力解决高质量数据供给与权益保护的平衡问题。其一,要落实数据资源持有权、数据加工使用权、数据产品经营权“三权分置”制度,明确各环节的权利归属与责任边界。针对训练数据获取难、授权链条长的问题,探索建立数据训练的合理使用与法定许可制度,在保障来源合法性的前提下,降低企业合规成本,促进数据要素流通。其二,要实施数据分类分级保护制度。依据数据对国家安全、公共利益及个人权益的影响程度划分安全等级:对涉及国家核心秘密、重要基础设施数据的训练与处理实行严格审批与全流程监控;对一般商业数据与个人数据,侧重于通过去标识化、隐私计算等技术手段保障安全,严厉打击非法爬取及数据投毒等违法行为。
在算法治理方面,重点在于打破“算法黑箱”,建立算法透明度与可解释性制度。其一,法律应明确规定,在医疗、金融、司法等高风险领域应用人工智能系统时,服务提供者必须履行算法备案与解释义务,公开算法的基本原理与运行逻辑,确保决策过程可追溯、可核查。其二,针对算法歧视,应建立公平性审查机制,要求开发者在模型训练阶段进行伦理评估与偏见测试。其三,明确算法致损的责任分担规则。由于人工智能产业链条长、主体多,责任认定往往陷入困境,应依据过错责任、过错推定与严格责任相结合的原则,区分使用者、提供者与开发者的责任。对于高风险人工智能产品,可探索建立强制保险制度,确保侵权损害得到及时救济。
强化多元共治 打造行政与司法协同高效的实施机制
完善人工智能法律法规体系,关键在于将纸面上的法律转化为治理效能,这是一项复杂的系统工程,需要构建政府主导、司法协同、行业自律、国际合作的多元共治格局。
首先,要厘清监管职能,深化行政执法与司法协同。其一,应明确网信、科技、工信、公安等部门职责分工,避免监管真空与交叉。在此基础上,建立跨部门的信息共享与执法协作机制,针对深度合成、自动驾驶等跨领域应用开展联合执法。其二,要健全行政执法与司法审判的衔接机制。依托中央网信办、国家数据局等部门,统筹协调行政监管力量与司法资源。在司法实践中,加强对人工智能侵权案件的专业化审判能力建设,通过典型案例确立裁判规则,及时回应人工智能生成物的知识产权种类、数据训练的合理使用边界等新型法律问题,为产业发展提供明确的司法指引,实现行政监管的“穿透力”与司法裁判的“终局性”相统一。
其次,要激发市场主体活力,强化企业合规与行业自律。法律应明确平台企业的主体责任,要求其建立健全内部合规体系,设立人工智能伦理委员会,主动开展算法审计与风险评估。鼓励行业协会等社会组织发挥桥梁纽带作用,制定高于法律底线的行业标准与伦理公约,建立黑名单制度与信用惩戒机制,引导企业良性竞争、科技向善。畅通社会监督渠道,建立公众举报奖励机制与用户申诉处理机制,保障公众的知情权与选择权。
最后,要拓展国际视野,积极贡献人工智能治理的“中国方案”。面对全球性风险,任何国家都无法独善其身。我国应以此为契机,实现从规则跟随者向引领者的转变。一方面,坚持开放包容理念,在联合国、G20等框架下积极倡导构建公正合理的人工智能国际治理规则,推动各国在技术标准、伦理规范、法律责任等方面实现互认与对接。另一方面,要立足中国法治实践,提出具有中国特色的治理方案。坚持“以人为本、智能向善、尊重国家主权”等原则,将社会主义核心价值观融入全球治理议题,加强与主要经济体在数据跨境流动、监管信息共享等方面的合作,通过双边或多边协议解决管辖权冲突与法律适用难题。通过良法善治保障人工智能在法治轨道上运行,以高质量法治支撑中国式现代化,为全球人工智能法治建设贡献中国智慧,推动构建人类命运共同体。
(作者系南昌大学马克思主义学院博士研究生)