自2022年生成式预训练语言模型ChatGPT问世以来,生成式人工智能的深度伪造风险进入爆发期。深度伪造风险是指生成式人工智能借助生成对抗网络、变分自编码器、扩散模型等技术工具,运用海量数据进行训练,实现对特定个体外貌、声线、行为乃至写作风格的精准模仿甚至“真实超越”,进而产出高度逼真的深度伪造内容,对个人权益、社会认知、国家安全甚至世界和平等产生冲击。当深度伪造技术的使用与传统伦理规则的运行产生严重张力时,则会颠覆“眼见为实”的传统认知基础,加速长期以来维系人类社会的伦理观的崩塌。基于此,探讨生成式人工智能的深度伪造风险及其伦理规制极具理论价值与现实意义。
多维协同保障个人合法权益
深度伪造技术的本质是算法对人类主体性的消解,这种消解大致呈现出三个层次分明的异化阶段。一是生物特征的符号化阶段。人脸、声纹等本应属于人格尊严核心要素的生物特征,但当其被转化为可计算、可复制的二进制数字代码时,则会消解作为主体唯一性的伦理属性。二是行为模式的标准化阶段。算法的客观化极大地降低了不同个体属性之间的异质性,使得人类行为的社会性与个体行为的独特性被淹没在概率分布中,为伪造行为提供了技术可能。三是数字人格的拟制化阶段。深度伪造技术虚拟的人格不仅具备生物特征的基本属性,还能模拟情感、认知等高级心理功能,具备对真实人格全方位替代的可能。这种技术异化对人类主体性的消解,会直接冲击传统权利体系的法理基础。虚拟肖像的无载体性、可复制性和跨空间传播性打破了肖像权保护物理载体的边界,使权利客体的认定陷入识别困境。
针对生成式人工智能的深度伪造侵害个人权益的现实困境,需构建“技术—法律—伦理”协同治理体系。第一,要推动技术治理的范式转型。在技术研发阶段,应强制实施算法透明化,建立互联网信息服务算法规范框架下的生成内容备案制度;在应用阶段,应推广数字水印等技术,实现伪造内容的可溯源;在传播阶段,应建立智能过滤系统,实时识别伪造内容。第二,要推动相关法规的重构与完善。通过权利客体的扩展,将“数字人格”纳入法律保护范畴,明确虚拟人格的法律地位及其与自然人人格权的关系。第三,要推动伦理框架的构建与深化。深度伪造风险治理需要超越法律强制,构建技术伦理的内生约束机制。在技术伦理层面,应遵从“人类尊严优先”原则,要求技术研发和应用以不侵犯人格尊严为前提。在职业伦理层面,建立健全与贯彻落实技术开发者的伦理宣誓制度,强化其社会责任意识。在社会伦理层面,通过政策标准引领、普惠教育引进、文化舆论引导等途径,实现社会公众数字素养和技术涵养的全面提升。
多管齐下重构社会认知体系
深度伪造技术借助图像、声音、视频的数字算法对现实进行模拟,本质上是对符号系统的篡改。在传统社会中,语言、图像等符号作为意义传递的载体,其真实性建立在物理世界的因果关系之上。生成式人工智能的深度伪造技术打破了这种因果链条,使得符号可以脱离物理实在而独立存在,破坏了信息的“可验证性”,将符号从意义的中介变成可以操纵的道具。传统认知依赖于对目标行为模式的观察与验证,通过重复互动建立稳定的认知结构,但深度伪造技术通过制造“超真实”的符号环境,重构了传统认知的经验基础。当真实与虚假无法被区分时,人类社会长期以来依赖的经验归纳便不再可靠,所谓的理性意义上的推理也将随之瓦解。
要实现对人类社会认知的重建,就需要解构“超真实”的符号场景,找回符号的真实性、确定性与合法性。从真实性再造角度,要求技术设计严格遵循“公平公正、公开透明”原则,实现“数据可追溯,信息可过滤”。从确定性重塑角度,要打破专业检测技术树立的垄断高墙,通过跨领域深度伪造检测机构的建立和技术标准的科学拟定,实现对人工智能生成信息的严格筛选与过滤。从合法性重建角度,需要摆脱以往人工智能实践发展快于制度建设的社会认识,以程序正义的法律建设、规范调整,明确人工智能生成内容传播过程的责任归属,确保制度框架下的社会传播责任可追溯。
多层推进维护国家总体安全
深度伪造技术的发展为现代社会进步创设了多元化的治理场景,但也为政治安全尤其是国家总体安全带来合法性和公信力的信任拷问。深度伪造技术本身所驱动的“超真实性”、快速传播性已然超越了传统国家信息传播的内容监管范畴,进而引发对国家信任、国家责任等价值理念的治理拷问。尽管现有的溯源技术可以在一定程度上进行甄别,但其本身所包含的技术成本、算法方式是制约信息溯源的主要因素,因而在保障国家安全层面依旧困难重重。
在人工智能时代,夯实国家安全亟须将技术发展纳入国家治理的价值框架。首先,要通过技术治理,建立起数字安全的免疫系统。通过跨模态特征融合等先进技术,实现对音视频、文本、图像的全方位、全过程、全链条分析,形成多维立体的真实性判别模型,实现对伪造内容微观破绽的有效识别。其次,要通过伦理重构,找准技术发展价值锚点。针对“谁发布谁负责”的责任界定,通过多主体协同降低技术风险,实现技术风险控制与社会效益的动态平衡。开发方应保障算法设计符合伦理标准,在必要时提供可解释、可溯源的技术文档。平台方应建立内容审核与应急响应机制,对使用者生成的内容做到实时监管。用户方应在使用此类技术工具时履行善意和注意义务,避免伪造内容和恶意传播等行为。最后,要通过制度创新,重构信息治理信任的根基。相关法律规制的设计应具备精准化标准,突破传统内容管制的范式,建立技术特征导向下的法律体系。
多边协作革新全球治理范式
生成式人工智能深度伪造技术的算法逻辑在一定程度上消解了传统意义上“真实”与“虚构”的二元对立,使得当代世界和平主题所依托的历史叙事、道德共识与政治承诺面临根本性质疑。生成式人工智能的深度伪造技术异化为“劳动产品对劳动者的统治”,当算法模型成为内容生产的主导力量,虚构生成的内容会占用大量社会资源,人类创作者的主体性将会被消解。在技术哲学视角下,技术决定论与社会建构论的共同作用给全球治理带来了全新挑战。一方面,生成式人工智能的算法逻辑偏好效率,缺乏内在的伦理约束机制;另一方面,人类社会对技术的盲目崇拜使得深度伪造技术的应用缺乏有效的制度规制。当世界信任机制崩塌,国际社会的合作基础将不复存在,“和平”随之成为空洞的政治话术或修辞。
面对生成式人工智能深度伪造技术所引发的理性与价值冲突,其应对方式需要突破传统治理框架,通过全球治理范式的深度革新,形成全球协同共治的局面。首先,构建多边治理框架。在充分尊重各国政策和实践差异的基础上,提倡开展多边谈判磋商,力争形成具有广泛共识的全球人工智能治理框架。其次,建立风险评价体系。以《全球人工智能治理倡议》的发布为契机,呼吁在全球范围内组建包括研发主体、专家学者等理论与实践工作者在内的国际专家组,并通过多轮对话与行动磋商,建立起风险等级测试评价体系,为人工智能风险分类分级管理提供专业引导。最后,完善人工智能伦理准则。参照世界数字技术院颁布的《生成式人工智能应用安全测试标准》以及《大语言模型安全测试方法》,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界。
(作者系中国矿业大学公共管理学院(应急管理学院)教授)