高校智库需针对人工智能风险完善内部防控

2026-02-24 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  2025年9月30日,中国智库索引(CTTI)发布新一期共计1099家来源智库名单,其中高校智库超800家。中国社会科学评价研究院发布的《中国智库AMI综合评价研究报告(2021)》列出了全国454家智库,高校智库占有较大比重。作为国家治理体系和智力支持系统的重要组成部分,高校智库在服务国家战略决策、支撑区域发展、推动知识创新与人才培养、引导舆论与公共外交等方面,正发挥出越来越大的影响力。

  人工智能(AI)技术以前所未有的推动力重塑了知识生产的基本范式,这场变革蕴含着提升研究效率、拓展分析维度等巨大机遇,也伴随着质量失控、责任模糊等新型风险。在我国高校智库追求高质量发展的关键阶段,如何构建既能充分发挥技术潜能又能有效防控风险的现代化治理体系,已成为高校智库内部建设亟待破解的核心命题。

  高校智库内部建设的结构性挑战

  高校智库作为知识创新与政策研究的重要阵地,其运行机制和质量保障体系正面临人工智能生成内容(AIGC)的多重考验。

  其一,内容可靠性。国内用于AIGC大模型训练的数据存在失真甚至有意伪造情况,而且数据污染正在不断加剧。一些大模型在算法构建上本身存在缺陷,生成的内容错误更具隐蔽性,也无法与政策法规文件进行完整的价值对齐。AIGC所特有的内容不可控性、事实性偏差累积效应、认知误导风险,以及由此带来的智库报告内容的真实性偏离、缺乏对复杂政策环境的深度认知等问题,已经成为制约高校智库进一步发展的重大隐患。

  其二,技术依赖与人才梯队断层。使用AIGC将智库报告生产的复杂认知操作转化为低能耗的人机交互,是智库人员在生物层面“节能优先”的本能行为,而且,随着任务难度的增加,对于AIGC的依赖程度也会不断增加。在许多高校智库中,研究任务过度向研究生甚至本科生倾斜已是不争的事实。年轻研究者虽然具备比中老年学者更好的学术训练基础,但在政策敏感性、社会经验积累、综合知识素养、判断能力和科研品德等方面存在较多短板(尤其是人文社科领域),降低研究“能耗”的欲望和趋势也愈发明显。这种人才配置模式在一定程度上缓解了人力资源压力,却带来了质量保障的系统性风险。如果高校智库研究成果中出现大量由人工智能生成的内容,其内容的真实性就难免要打上很大的问号。

  其三,质量管控机制缺失。如果说真实性偏离、技术依赖与人才梯队断层并非出于人为设计,尚属高校智库建设的外在影响因素,那么,未能建立系统的内容审核流程或严格执行多级评审制度,便是影响高校智库高质量发展的重要内在因素。高校智库质量管控机制缺失的主要表现,一是初级研究人员对人工智能数据的真实性、生成内容的真实性不作详尽核查,或在核查时不作交叉验证。二是初级研究人员在政治敏锐性和价值判断上尚不成熟,虽然有根据研究领域、研究对象、研究目标综合使用AIGC工具的意识,但难以有效识别境外语料库、AIGC大模型算法中存在的意识形态偏差,这种现象在涉外政策、涉外舆情等研究领域尤为明显。三是初级研究人员虽然具备一定的学术训练,但缺乏对政策语境的深刻理解,导致报告往往出现“学术化表达”与“政策化需求”的错位。这些问题的叠加效应,使得部分高校智库产品的质量难以达到决策支持的基本要求。这不仅会造成学术资源浪费,更可能对政策制定产生误导,进而影响高校智库的公信力和影响力。

  高校智库高质量发展的内控工作

  智库实践主要基于三个导向(问题、科学和证据)、四个环节(数据、信息、研判、方案)和“五性要求”(科学性、思想性、前瞻性、建设性、独立性)。未来的高校智库建设首先需要在内部持续构建“技术—机制”一体化的协同治理体系,这既包括从工具性应用转向生态性重构,也包括从数量优先转向质量优先、从被动应对转向主动引领。

  第一,技术层面。尽管大语言模型训练的数据信息体量异常庞大,但绝难涵盖表征整个现实客观世界,并且所有的算法架构均具有客观和主观限制。因此,笔者并不认同夸大人工智能的研究范式、技术方法,而应充分考虑传统研究方式与新技术的互补协作,尤其是在收集基础性资料、开展基础性研究等方面,应更为重视方法、技术的精准度和深度,而非广度。人工智能的可致幻性智能、可解释性陷阱、可扩散性错误仍将长期存在,但高校智库可以基于建设目标与能够获得的资源,采取一些技术性手段提升智库报告质量。这些手段主要包括:一是根据特定智库的功能定位,研发适配性AIGC技术架构,完善“数据采集—清洗—验证—存储—评估”全流程技术链。二是建立特定领域的标准训练数据集,侧重于自行开发、本地部署垂直领域专用模型和智能体,提升人工智能应用的自主性与可靠性。三是以“有的放矢、量力而行、循序渐进”的策略,引入不确定性量化(UQ)技术,尝试化解智库研究问题不确定性与人工智能生成内容不确定性之间所存在的矛盾。四是在通用人工智能大模型的基础上,引入人类反馈强化学习优化(RLHF)的多层级价值对齐等多种技术,对外部大数据进行清洗去噪和属地价值嵌入,强化对齐技术的可解释性与可控性,避免商业机构通过数据垄断对智库报告的价值观等产生负面影响。

  第二,机制层面。首先是建立三级审核机制。初审层采用AI质量检测工具过滤明显错误,复审层由专家小组交叉验证关键数据,终审层由首席专家进行政治性审查。布鲁金斯学会的“Vibe Teaming”工作模式也值得借鉴。该模式强调人类对话先行,人工智能负责转录、生成初稿等支持性任务,人类专家进行深度审查与修订的协作流程。同时,需在数据溯源、模型评估和质量责任划分等方面建立统一的人工智能应用内部标准。上级单位在高校智库报告验收时也应要求标注训练数据来源、模型参数配置和生成环境信息等关键元数据。其次是保密机制。研究者需要特别注意不能将涉密、敏感的资料上传至云端大模型平台。再次,队伍建设机制。通过设置技术模块(NLP基础、数据可视化)和实践模块(人机协同写作、算法偏见识别)的复合型课程,逐步培养具备人工智能分析方法和技能的复合型人才,但更为重要的是提升学术道德水平并建立一套公正、有效、透明的违反学术道德惩处机制。最后,借助AIGC在传播领域的优势,突破发布平台单一、智库活动单一、发布手段单一的传播瓶颈,与公众直接对话,扩大高校智库成果的传播力和影响力,从被动应对西方议题转向主动引领世界议题。

  (本文系国家社科基金项目“中国科技品牌的国际传播制约因素与能力提升研究”(23BXW051)阶段性成果)

  (作者系暨南大学新闻与传播学院副教授)

【编辑:闫勇(报纸) 张赛(网络)】