人工智能全球治理的伦理建构

2025-12-29 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  当前,人工智能飞速发展,其带来的安全风险挑战受到各国高度重视。在2025年9月“联合国全球人工智能治理对话高级别启动会议”上,中国提出要坚持主权平等、遵守国际法治、践行多边主义,逐步形成具有广泛共识的全球治理框架和标准规范等主张。此次会议提出AI应当“为全人类服务,而非让人类为技术所服务”,伦理治理模式和标准则是其中的重要内容。
  纠正算法偏见和歧视
  算法偏见可能放大性别、种族、地区等歧视,容易导致就业、信贷、司法等领域不公,因而算法透明与公平至关重要。2021年11月,联合国颁布《人工智能伦理问题建议书》,提出人工智能算法可能在数据输入基础上产生某种偏见,并在算法研发、可解释性、透明度、隐私影响等方面提出了治理要求。
  在全球范围内,欧盟是最积极对数字内容进行监管的地区,主要通过立法持续推进算法公平性。2018年生效的《通用数据保护条例》明确要求数据处理需遵循“数据清洁”原则,规定算法决策不得侵犯人格尊严。欧盟委员会高级专家组2024年3月通过的《人工智能法案》禁止在就业、教育等领域使用情感识别技术。
  美国主要采取各州自主立法和多部门协同治理的模式。2022年白宫科技政策办公室通过的《AI权利法案蓝图》提出,AI系统不得基于种族、性别、年龄、残障、宗教等差异作出不公决策,要求在设计阶段就纳入偏见检测与公平性评估。
  我国近年来先后出台《互联网信息服务算法推荐管理规定》和《人工智能安全治理框架》,不仅初步建立起对算法的监管体系,并且在不断优化和升级。2025年9月15日颁布的《人工智能安全治理框架》2.0版本中把安全风险分为技术内生安全风险、技术应用安全风险和应用衍生安全风险,不仅关注算法技术本身的安全,同时关注其对社会环境的多元化冲击。
  对控制权的争议
  美国在这一方面的治理路径与欧盟“伦理导向、国家立法”不同,体现出技术—权利—治理的三重平衡,既要保护创新自由,又要防止AI削弱人类的自主决策与社会控制力。美国政策文件普遍认为,AI对人类自主性构成的主要威胁包括算法操控、自动化依赖、责任模糊、军事与执法滥用、隐私与人格权侵蚀。《AI权利法案蓝图》提出的五项权利中,有三项直接涉及自主性与控制权,比如要求AI必须在人类监督下运行,不得削弱人类决策能力;公民有权选择是否与AI互动并在重要决策中要求“人类最终裁决”;防止AI在关键领域如教育、就业、司法中剥夺人类自主机会等。
  美国国家标准与技术研究院2023年制定的《人工智能风险管理框架》是美国AI系统开发的重要技术与伦理指导文件,其中提出要在设计阶段确保“人机协同控制”,强调可解释性与可干预性。欧盟在人工智能监管中强调人类自主性,要求人工智能系统的设计与开发须确保人类能有效监督系统决策,以维护合法性、问责制及人类尊严等价值。《可信赖人工智能伦理准则》中确定了AI要尊重人类尊严、防止伤害、公平和可解释性四项伦理原则,并提出执行这些原则的七项要求。《人工智能法案》第14条提出,人工智能系统的设计和开发应使其能够“受到自然人的有效监督”,目的是预防或最小化健康、安全或基本权利风险,同时建立公众对技术的信任。
  我国则在多份国家政策文件中反复体现出“确保人工智能始终处于人类掌控之下,服务于人类福祉与社会整体发展”的治理理念。比如2019年出台的《新一代人工智能治理原则》提出了“AI人类控制权”治理的三个核心理念,即以人为本、可控可追溯和安全可控。2021年出台的《新一代人工智能伦理规范》提出了人类主导、负责任使用和防止算法操控的关键条款。2023年国家网信办等制定的《生成式人工智能服务管理暂行办法》提出,用户有权知情、选择与申诉以及对涉及舆论引导、价值输出的AI系统实行内容安全审核等。
  个人隐私与数据保护
  隐私与数据保护是欧盟最具法治化特征的AI治理体系,其宗旨是确保AI在开发与应用中尊重个人隐私、数据主权与人格尊严。欧盟对隐私权与个人数据的保护建立在两大法律框架之上。《通用数据保护条例》确立了数据保护优先于技术便利的逻辑,要求AI训练数据合法、透明、可审计,赋予用户信息权与访问权,要求AI具有可解释性与透明度。《人工智能法案》将“数据权利”原则拓展到AI风险治理与系统透明度领域,其中第10条规定高风险AI必须使用高质量、无偏、合法来源的数据;第11—13条要求完整记录数据来源、模型逻辑,建立人工监督机制;第52条规定生成式AI必须明确标识内容为AI生成。
  美国并未出台联邦层面的隐私法案,注重以市场机制和行业标准来约束数据滥用。比如,联邦政府通过与私营部门密切合作,构建数据安全标准体系。2025年以来,美国数据合规与个人信息保护监管体系在联邦与州两级持续更新,而特拉华州、田纳西州、明尼苏达州等八州也全面推出隐私立法,其内容包括广泛赋予和加强网络用户的访问、更正、删除等权利,以及加强对未成年人使用社交平台的监管和保护力度等。
  2025年4月,美国众议院通过《删除法案》,旨在打击未经同意在网络上发布色情图片和视频的行为,其中包括AI生成的“深度伪造”材料,规定故意发布未经同意的私密影像(包括AI合成影像)构成犯罪,并要求科技平台在48小时内删除相关内容。加州2020年生效的《消费者隐私法案》规定,消费者享有向收集其数据的企业请求删除其个人信息的权利,企业收到有效删除请求后,须在合理期限内删除该消费者的个人信息,并通知其已采取的行动或拒绝理由。2025年10月,加州又通过《参议院第243号法案》,要求AI聊天机器人从2026年起对未成年人用户采取安全防护措施。
  我国的个人隐私与数据保护主要以国家层面的法律法规为核心,辅以行业标准与伦理指南,形成了一个相对系统但仍在快速演化的治理体系。2017年实施的《网络安全法》确立了网络运营者的安全责任和个人信息保护义务;2021年通过的《个人信息保护法》确立了AI企业收集个人信息合法、正当、必要的原则和知情同意机制;2021年颁布的《数据安全法》规定了数据分级分类保护制度,强调对“重要数据”和“核心数据”的严格保护与审查机制。当前,我国人工智能个人隐私和数据治理呈现出多层次、协同化监管特征,不仅确立了以人为本、知情同意、最小必要与目的限制等核心准则,也为法律监管提供了价值导向。
  (作者系中国社会科学院新闻与传播研究所世界传媒研究中心研究员)
【编辑:刘娟(报纸)王晏清(网络)】