□ 时建中 (中国政法大学教授)
人工智能作为人类历史上最具革命性的技术,全方位深刻改变着经济社会生活的每一个领域,直接关乎国家发展与安全。推进人工智能相关立法,需要在促进与规范之间实现平衡,协调多重利益与价值冲突等复杂关系,以制度创新护航我国在全球人工智能领域的核心竞争力。
发展与安全:夯实驱动发展的法治底座
人工智能直接关系国家核心竞争力,作为立法的基本原则,统筹发展与安全不能“脱实向虚”。促进发展的制度要“实”,既要彰显促进人工智能发展的鲜明态度,更要围绕研发、融资、人才、应用等关键环节,构建具体的激励机制;规范发展的制度同样要“实”,体现为科学配置权利、义务与责任,推动人工智能在法治轨道上开展研发应用。关于人工智能安全,立法应特别注意两种倾向:一是“虚”化安全,安全制度“落不下、稳不住”;二是“泛”化安全,将所有风险,甚至一般技术及应用风险,均视为国家安全隐患,放大安全焦虑。立法对“安全”的关注,应以总体国家安全观为遵循,对风险、应用场景等进行多维分类分级,聚焦威胁国家安全的重大风险,围绕核心领域构建防控体系,做到发展有动力、安全有保障。
技术与制度:功能分界下的双向塑造
立法必须厘清技术与法律的功能边界。法律的功能是解决技术引发的社会问题,技术与法律的关键链接就是责任分配。无论是研发环节还是应用阶段,凡是有可能损害国家利益和社会公共利益的,法律就应在不同环节、不同主体之间配置不同的权利、义务与责任予以规制。立法还应注意技术与制度之间“双向塑造”的深层关系:人工智能既会给法治带来新挑战,也会成为赋能法治的新工具。例如,人工智能可以辅助裁判,提升司法效率;同时,不同的制度安排也会影响技术演进方向。合理的责任配置可以倒逼研发者重视算法公平性,推动可解释AI的发展。立法应关注这种双向互动,既不越位干预技术研发,又不缺位忽视技术风险。
政策与法律:功能互补的协同治理
人工智能的治理,政策与法律既缺一不可,又不能相互替代。一方面,立法不可能一蹴而就,面对技术快速迭代带来的新问题,需要通过政策的灵活性、前瞻性予以及时响应。促进人工智能健康发展的导向性政策,可以为科学立法探索路径、积累经验;另一方面,法律具有稳定性、强制性的优势,能够将经过实践检验的成熟政策,通过立法程序转化为长效规则,为产业发展提供稳定预期。政策与法律协同的重点,是构建“政策推动—经验积淀—法律固化”的循环机制。促进人工智能健康发展,既要重视政策的先导作用,又要强化政策的制度转化,确保政策与法律在价值导向、主要目标等方面保持一致,形成推动人工智能发展的合力。
抽象与具体:以问题为导向的规则构建
促进人工智能健康发展的立法,必须坚持“问题导向”与“目标导向”的统一,确保法律规范针对性强、实施效果好,切忌陷入“概念化、标签化、抽象化”的误区。人工智能带来的挑战纷繁复杂,立法不能止于抽象的“人工智能”。因此,立法的首要任务之一,就是清晰界定“人工智能”的概念,采用“概括+列举”的方式明确其内涵、外延,避免因概念模糊导致法律制度及适用的紊乱。通过调研、归纳、提炼等方法,发现并聚焦具体要素、环节、场景的真问题,抓住人工智能发展与治理的本质,将制约人工智能健康发展的问题类型化,把抽象的法律原则转化为可操作的行为规范,形成针对性的解决方案,概括为普适性规则。促进人工智能发展的制度需要具体针对关键要素予以构建:数据层面,规范采集、存储、使用、流转全流程;算法层面,关注公平性、透明度与可追溯性;算力层面,平衡合理配置与高效利用;能源层面,衔接绿色发展要求。
研发与运用:阶段差异化的制度设计
研发与运用是人工智能发展的两个主要阶段,目标与风险特征截然不同。立法宜采用差异化的制度设计,建立不同的风险归责原则。针对研发阶段的立法,重点是鼓励创新。人工智能底层技术研发具有高风险、长周期等特征,可控范围内的试错是技术成熟的必经之路,需要“制度特区式”的容错空间。例如,《国务院关于深入实施“人工智能+”行动的意见》提出的“完善应用试错容错管理制度”,尤其值得上升为具体制度规范;针对运用阶段的立法,重点是明确权利、义务与责任边界,强化合规要求、保障应用安全,规范应用秩序。当前,我国在政策层面强调人工智能运用,既符合技术落地的需求,也承载着“以技术应用倒逼基础研究突破”的迫切期待。面对基础领域“卡脖子”的困境,拓展应用场景反哺基础研发成为重要路径。为此,立法更需立足这一国情与地缘政治现实,设计能用、好用、管用的具体制度,构建“研发阶段容错激励、应用阶段规范引导、应用推动基础研发”的促进支撑制度体系。
比较与借鉴:立足国情的理性吸收
人工智能具有全领域普遍赋能的通用性,研发和应用规律的一致性,决定了他国规则的可借鉴性。但是,借鉴国外立法经验,必须建立在对国外相关制度全面准确认知、客观理性评价的基础上,不能浅尝辄止法律文本表层的差异对比,而应深入剖析背后的政治体制、经济模式、技术基础、社会文化等多重原因,避免片面解读、武断评判、不当借鉴。立法时,须超越“轻监管”或“重监管”的标签化认知,借鉴国外人工智能促进发展、体系化治理等合理经验,聚焦我国“卡脖子”问题与治理需求,而非盲目照搬、排斥。
法律与标准:协同发力的治理体系
促进人工智能健康发展,离不开法律与标准的协同。立法应强化“标准”的重要作用。无论是研发环节的技术规范,还是应用场景的操作要求,均需政府、行业协会、企业等多方主体共同参与,制定高质量的国家标准、行业标准与企业标准,持续提升我国涉人工智能标准的全球竞争力、引导力。二者的协同,关键在于健全互补机制:一方面,将经过实践检验、具有护航竞争力的重要标准,如高风险AI系统的安全评估标准、算法公平性标准等上升为法律规范,增强标准的权威性与强制力;另一方面,立法设置授权条款,为标准的升级预留接口,形成“法律定底线、标准筑防线”的多层次治理体系,提升治理的精准性与有效性。
开源与闭源:多元技术路线的平等保护
开源与闭源是人工智能发展的两种重要模式,对应不同的技术路线与生态需求。两种模式均有不可替代的价值:开源模式通过代码共享加速技术迭代,尤其适合基础性、通用性技术研发,能够快速汇聚创新力量;闭源模式通过技术保密保障商业利益,为企业巨额研发投入提供动力和保障,在高端芯片、专用算法等核心领域具有重要作用。立法是为了构建适宜人工智能发展的制度环境,对不同的技术路线,秉持中立开放态度,只作客观分类,不作价值评判,通过差异化规制,予以平等保护,激发创新活力。对开源生态,重点规范代码共享协议的法律效力、贡献者权利保护及风险责任界定;对闭源技术,聚焦防范技术垄断、保障数据安全及高风险场景下的必要透明度。
当下与长远:适应技术演进的弹性框架
人工智能的快速迭代特性,决定了立法不仅应符合人工智能当前发展需求,而且能适应未来技术演进。立法须谨防“静态文本”困境,构建“基础规则+动态调整”的弹性框架。基础规则层面,以总体国家安全观、权利保障、创新激励等为重要原则,筑牢基础制度,确保法律的稳定性与可预期性,为市场提供明确的行为指引。鉴于人工智能迭代快、应用场景丰富的特点,可采“法律原则+授权条款+配套细则”的立法模式,为技术创新与制度调整预留接口。例如,当前针对通用大模型的规制重点,与未来强人工智能时代的立法焦点必然存在差异,立法需通过弹性条款预先回应技术演进的结构性变化,实现“管当下”与“利长远”的有机统一。为增强制度的适应性,适配人工智能发展阶段性特征、应用场景拓展变化,应建立制度的定期评估机制,及时调整具体规范。
综上,人工智能立法须锚定打造国家竞争力的战略目标,尊重规律、立足国情,深刻理解制度创新与技术发展的底层逻辑,协调发展与安全、技术与制度、促进与规范等关系,既要破解当前“卡脖子”困境,又要为长远发展奠定制度基础。