探索技术发展与隐私信息保护的平衡

2025-12-11 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  尽管生成式人工智能处于早期阶段,但其更新迭代的速度与影响已超出预期。其中,生成式人工智能对隐私信息保护的冲击尤为突出。隐私信息保护议题的形成、发展与信息传播技术息息相关,历次重大信息技术变革的冲击,不时触发隐私信息的边界与结构,积累着隐私信息贬损的风险与权益保护的风险迭代,导致隐私信息泄露事件屡有发生。
  生成式人工智能
  对隐私信息的冲击
  首先,生成式人工智能技术具有具象化、快速化发展的特点,其以语料库的海量数据为基础特征,对个人隐私信息形成更深刻、更彻底的解构与冲击。为了应对这些挑战,各国政府和监管机构已有所回应。2023年3月,意大利数据保护局发布全球第一个针对ChatGPT的政府禁令。2023年7月,我国发布《生成式人工智能服务管理暂行办法》,明确规定生成式AI服务提供者在处理个人信息时应当遵守的法律法规,包括但不限于《网络安全法》《数据安全法》与《个人信息保护法》。这些法律法规要求服务提供者在收集和使用个人信息时必须获得用户的明确同意,并采取有效措施保护个人信息安全,防止信息泄露、滥用和非法传播。
  其次,生成式人工智能通过自主学习和理解大量人类语言与自然世界的规律,进而生成多模态内容。技术服务提供者通过各种方式收集海量数据形成语料库,再通过链接大量语料库来训练模型,使其能够学习和理解人类语言,进行交流对话和内容生成。这一过程伴随着循环式的数据收集与分析,各阶段都涉及大量个人信息处理活动。在信息生成阶段,生成式人工智能技术通过大量的数据进行训练,这些数据可能包含用户的某些个人信息。如果未经适当处理,这些信息可能被泄露或滥用,从而侵犯用户的隐私信息。例如,用户在使用基于生成式人工智能服务时产生的数据,如聊天记录、搜索历史和个人偏好等,可能被用于模型训练,从而增加隐私信息泄露的风险。在信息搜集过程中,生成式人工智能可能制造出包含个人数据的虚假信息。例如,通过深度伪造技术生成的换脸视频。这类内容不仅严重侵害个人隐私,还可能被恶意利用于诈骗等违法犯罪行为,对社会公众构成实质性威胁,导致误导和混淆,进一步威胁个人隐私和数据安全。
  最后,生成式人工智能技术深刻影响个体的隐私信息观念与认知。随着技术更迭与新业态、新产品的运用,个体切身感受到私密空间、私密活动、私密信息的消弭正在加剧。一方面,人工智能产品持续搜集、挖掘、分析个人数据,带来个体的隐私信息危机;另一方面,逐渐形成的人机共生模式表明个体正在适应数字化、去私密化的生活方式。在智能生活中,隐私信息的无感伤害成为常态。基于此,有学者认为,人工智能技术引发的最根本问题是主体性问题。技术创设的人机合一的新型主体使得人类确立的主体地位遭遇前所未有的挑战。以未成年网民的隐私信息观念为例,我国未成年网民,尤其是“A世代”(出生在2010年后的人口群体)不仅接触互联网早,数字化生活程度更高,人工智能技术运用也较为深入。中国互联网信息中心发布的《生成式人工智能应用发展报告(2024)》显示,截至2024年6月,使用生成式人工智能产品的网民中,19岁及以下网民占29.1%,排名第二位,仅次于20—29岁网民。但是,积极运用生成式人工智能技术的同时,未成年人存在对自身隐私信息认知与保护能力不足,对他人的隐私信息存在漠视的现象。第十二次中国未成年人互联网运用状况调查的数据显示,当上网需要提供个人信息时,能够“每次”或“经常”考虑到要保护个人隐私的未成年人占比为59.5%,尚有超过三成未成年人对个人隐私保护的意识不足,27.3%的未成年人表示“偶尔”有保护个人隐私的意识,6.4%的未成年人表示“从未”在被收集个人信息时意识到需要保护隐私信息。近年来,“按键伤人”“网络开盒”等事件中未成年人无视甚至侵犯他人隐私信息的态度引发担忧。
  关系的平衡与
  共生的未来
  在生成式人工智能快速发展的时代,传统保护机制已难以有效应对由此产生的新型风险与问题。提升全民数字素养与技能,是建设网络强国与数字中国的核心任务之一,而隐私信息素养正是其中的重要组成部分。全面提高个体的隐私信息素养,亟须社会各界的协同努力和共同推进。
  首先,提升公众的风险意识与权利认知。面向公众普及人工智能的数据流转机制以及生成式人工智能的基本工作原理(如数据收集、训练、推理过程),提升数智时代隐私信息素养。通过人工智能泄露隐私信息的案例,明确用户数据如何被存储、处理及潜在泄露风险;加强个人数据权利与法律保护力度,让用户知晓数据访问权、删除权、拒绝自动化决策权等;不断强化个体使用者对平台隐私政策的认知与识别能力。
  其次,生成式人工智能技术为提升数字素养提供了良好条件。一是大语言模型、智能翻译等技术有助于减少各国民众语言障碍,内容推送机制可助力知识教育与技能培训,逐步构建全民终身学习生态,提升数字素养与技能。例如,培育隐私信息的主动防护能力与行为习惯,逐步建立个人信息数据最小化原则,避免向AI透露身份证号、住址、健康记录等敏感信息,使用模糊化表达等。二是平台企业持续探索技术方案,如改进数据匿名化技术、建立更加透明的数据处理流程、提供用户控制个人信息的更多选项等,以确保生成式人工智能技术的发展不会以牺牲隐私信息为代价。
  最后,针对性保护特殊群体,消除“能力鸿沟”。随着生成式人工智能技术进程加速,数智鸿沟体现在各群体获取、处理、保护隐私信息的能力中。因此,针对特殊群体的保护机制需更加精准和人性化。应通过建立差异化的保护措施,帮助人们清晰认识技术对认知和行为方式的潜在影响,增强其自主适应能力,从而在信息获取与共享中掌握主动。一是着力青少年的防护教育,在中小学信息技术课程中,更新生成式人工智能的相关素养教育。二是保护弱势群体。例如,建立面向老年人的社区数字素养工作坊,指导老年人安全使用人工智能技术;健全面向残障人士友好的数字设备,助力其提高生活质量。
  在生成式人工智能重塑信息生态的今天,隐私信息素养已从“可选技能”变为“生存刚需”。在新一轮人工智能技术向纵深发展的过程中,要坚守隐私信息安全,探索技术发展与权利保护的平衡,构建既能够享受AI红利,又不牺牲隐私尊严的可持续未来。
  (作者系中国社会科学院新闻与传播研究所媒介传播与青少年发展研究中心研究员)
【编辑:刘娟(报纸)王晏清(网络)】