加强人工智能时代意识形态安全监管

2025-07-04 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  人工智能的应用发展具有两面性,在极大提高物质生产生活效率的同时,有力冲击传统秩序,带来风险隐患。人工智能重塑传统信息链,政治、思想、舆论等态势随之悄然变化,意识形态领域的安全问题开始浮现。

  从算法规则看,技术理性对意识形态强调的价值理性有着消解作用;从基础数据看,大模型训练中英语语料占比较高导致把控意识形态关难度增大;从内容供给看,意识形态相关的作品供给较少且优秀作品稀缺,娱乐性内容在争取受众上有着优势;从发展逻辑看,人工智能普遍以资本驱动下的商品形式存在,市场主体的逐利本能优先于维护意识形态秩序的道德责任;从传播特点看,人工智能为接受者精准画像推送碎片化信息,减弱意识形态强调的整体性;从渗透影响看,人工智能表现出的较高逻辑性持续强化接受者的信赖感和依赖性,反过来弱化意识形态领域的传统宣教;从国际竞争看,人工智能已成为国家间争夺思想和舆论高地的重磅武器,信息依附将会在无形中导致信息殖民;从发展态势看,已被证实并非中立的技术理性精神被推到至高无上的地位,必然造就更多“单向度的人”,可能从根本上危及意识形态安全。为此,需要我们高度警惕。

  规范算法规则,消除有害信息生成土壤。算法是人工智能的命脉所在,掌握意识形态主导权,防范化解意识形态领域安全风险,必须注重算法的基础地位,构建于我有利的算法体系。一是为算法立魂。将主流意识形态置于算法推荐的优先级,增加官方渠道和主流媒体信息出现频次,呈现更多党的创新理论成果和社会主义核心价值观相关内容。二是为算法树德。算法是技术成果,更是信息载体。必须强化算法的价值属性,在算法规则制定中充分考虑社会公序良俗,更加彰显公众的伦理规则需要,做到技术理性和价值属性相得益彰。三是为算法定规。优化细化算法逻辑的审核监管,明确信息传播全链条对应的算法责任,强化算法制定者的主体责任,划定意识形态安全风险红线,为技术发展应用戴上紧箍咒。四是为算法正行。改变传统的出现意识形态舆情后被动进行事后追踪的做法,构建起全流程的算法监管机制,一旦发现问题,第一时间提醒督促,造成危害后果的,及时追究责任。五是为算法祛魅。加强意识形态领域安全工作,必须注重对算法的宣讲解读,讲清算法只是处理信息的逻辑,不同算法的逻辑不同,算法逻辑可以调整的规则体系,不仅不代表绝对客观和完全正确,而且可以人为操作。

  整合优化传播链,及时筛查有害信息。人工智能工具具有“创造性”,在加工源头信息产生新内容的同时,可能出现生成信息的“变异”问题。这就需要意识形态安全监管集中资源力量不断强化对信息传播链的监督管理。一是整合主体力量。改变传统的意识形态安全工作仅仅由对应部门承担的状况,建立相关部门主导,高校、企业、科研机构以及代表人士广泛参与的主体结构,引入专业力量,让信息供给方同时肩负意识形态安全的主体责任。二是强化内容供给。系统梳理出意识形态领域社会关注度高、对个体影响大、一旦出现问题危害性大的关键点,有针对性地强化内容供给;同时,注重发挥人工智能的再创造性特点,强化供给的深度和多样性。三是突出个体差异。针对“信息茧房”效应极易引起价值观偏颇的情况,借助人工智能工具反其道而行之,将个人认知结构进行细化评估并与主流意识形态要求挂钩,精准推送相关内容,在打破信息束缚、改善个人认知能力的同时更好维护意识形态安全。四是高效排除风险。加强与应用平台的沟通协作,用好人工智能的语言处理和深度学习能力,及时甄别有害信息,快速发现安全风险,动态补强技术缺陷,持续提升排除风险隐患能力水平。

  培育人们的思辨能力,增强对有害信息的抵抗力。人工智能时代的信息中介具有智能化特点,可能在削弱接受者认知能力的同时又削弱宣讲者的权威,从而给意识形态安全带来危机,解决这一问题的关键是增强社会成员的思辨能力。一是突出人的主体地位。人工智能的发展必须以人为本,使资本逻辑让位于人文精神,以科技发展服务人的需求满足,构建健康的网络生态体系,让人成为信息的选择和加工主体,而不是单纯的被动接受者。二是引导人的主动参与。设计形式多样的主题活动,讲清楚人工智能的应用逻辑和影响机制,增强对智能工具的实操能力,引导人们深度了解意识形态领域常见风险隐患,发挥全体成员的积极作用共同维护意识形态领域安全。三是提高人的思辨能力。将人工智能融入各教育阶段,引导受教育者从技术、法律、道德、安全、生活需要等角度客观全面看待人工智能工具,更好适应人工智能时代的信息生成、传播、加工等的深刻变化,自觉抵制人工智能领域的各种不良现象。

  用好法治手段,探索软硬结合的治理路径。法治是保障意识形态领域安全的重要支撑,是惩治各种乱象的最有力方式。同时,法治并非万能,他律需要自律的配合才能效能最大化,“软硬”结合是做好人工智能时代意识形态安全工作的必然选择。一方面,大力加强法治建设。当前,我国已经制定实施《新一代人工智能发展规划》等制度规范,尚未出台专门法律,法治建设相对滞后。这就需要根据人工智能发展规律及其对国家、社会和个人的影响路径,及时制定完善相关法律法规,包括但不限于对算法的规范引导、对人工智能企业和从业者的要求、伦理责任、敏感和有害信息处置方式等,从而构建起完备的法规制度体系,划清人工智能发展的底线红线,使强有力的意识形态领域安全监管有法可依。另一方面,充分发挥伦理道德的积极作用。大力弘扬社会主义核心价值观,结合长期互联网工作中形成的有效经验做法,从公序良俗中汲取积极因素,整合形成适合人工智能发展、社会稳定和人的发展的道德规范,并加大宣传解读力度,使之成为维系意识形态安全的强大精神力量。

  推动交流合作,改变国际话语权的力量对比。意识形态安全是国内外各种因素交织叠加乃至最容易变异放大的复杂难题,在人工智能时代做好意识形态工作,必须充分重视国际因素。一是提高技术能力。人工智能是当前先进生产力的重要代表,是国家经济发展和安全稳定的硬实力,在人工智能中悄无声息植入价值观以占领舆论制高点已经成为大国竞争的常见手段。为此,我们必须优化顶层设计,加大支持引导力度,打造一批技术一流、自主可控的核心技术和优质企业,将人工智能发展的主动权牢牢掌握在自己手里,如此方能为意识形态安全提供有力支撑。二是警惕数字陷阱。一些国家高呼“数字自由”、宣扬技术中性、呼吁“去政治化”、鼓吹消费主义等,归根到底是资本逻辑在作祟,即通过国际地位推动符合自身利益的人工智能发展倡议,进而以人工智能发展主导权,反过来强化资本主导的国际秩序。对此,我们必须保持高度警惕,认清技术发展的两面性和意识形态安全的复杂性,从官方和民间交流中,及时甄别意识形态领域的风险隐患,及时稳妥予以处置。三是形成发展共识。以全人类共同价值为指引,加强国际交流合作,积极参与人工智能领域的规则制定,达成顺应多方利益的发展共识,构建人工智能命运共同体,为意识形态安全营造良好的外部环境。

  (作者系重庆市中国特色社会主义理论体系研究中心重庆大学分中心研究员)

【编辑:罗浩(报纸) 张赛(网络)】