随着大模型规模的持续壮大和应用场景的日益细分,深度学习技术的内在局限性也随之显现。“大模型幻觉”,即在生成过程中出现事实失真、逻辑混乱或价值扭曲的现象,正从单纯的算法缺陷演变为系统性安全威胁。在此背景下,高效识别并防范大模型幻觉已不再局限于技术层面的优化需求,而是关乎总体国家安全的亟待解决的关键议题。
主要表现与特征。大模型幻觉源于概率驱动的生成过程难以完全规避训练数据与推理机制的内在局限,体现为以下特征。第一,事实失真。模型可能编造从未发生的事件或人物信息。例如,杜撰某国领导人发表“并不存在的讲话”,一旦此类虚假信息在网络广泛传播,不仅会误导公众认知,也可能被敌对势力在国际政治或商业谈判中加以利用,造成严重后果。第二,指令偏离。大模型生成的内容虽未必存在事实性错误,却可能偏离用户意图。譬如,用户要求分析某一特定时间或主题,大模型却输出与之无关的历史数据,导致时空错配,从而误导政策或决策。第三,逻辑矛盾。同一生成内容中可能出现前后冲突的结论。如既主张全面金融开放,又同时强调资本严格管制,难以形成具有一致性的政策建议。此类矛盾不仅降低了决策者对大模型输出的信任度,更可能在金融市场预测、公共卫生应急或重大基础设施管理等复杂场景中造成不可逆的损失。第四,价值偏差。大模型生成的内容带有隐含意识形态偏见。尤其在处理民族、宗教等敏感议题时更为突出。若在分析多民族地区经济发展问题时,大模型过度聚焦极端或对立叙事,夸大族群间差异与矛盾,便可能加剧社会对立与误解。一旦此类偏差被引入政策建议或舆论塑造,极易引发社会动荡或大规模冲突。
复合风险。大模型幻觉之所以对国家安全构成威胁,原因在于大模型生成内容与现实规则之间的深层错位,以及大模型对社会系统的高度耦合与嵌入所形成的风险传导。随着深度学习技术的不断演进以及大模型在各领域的广泛应用,这种错位将对国家安全产生更加复杂且深远的影响。
大模型生成的虚假或偏颇信息通过信息分发算法被精准投送至特定群体,形成为不同受众量身定制的“信息茧房”。当公众长期接收相互割裂甚至完全对立的“事实版本”时,社会共识随之面临被不断侵蚀的风险。尤其在民族、宗教等高度敏感领域,此种信息割裂更易诱发观点极化并激化群体对立。
国家安全决策正日益依赖智能化系统,但若大模型携带历史偏见或价值倾向,在军事规划、应急管理等关键场景中便可能生成带有误导性分析或建议,导致决策者在关键时刻作出错误判断。同时,能源、交通、金融等关键基础设施的智能化程度逐步提升,任何细微的模型偏差都可能通过复杂网络的级联效应被无限放大,引发重大事故或系统性风险。
在全球化与数字主权竞争并存的背景下,大模型幻觉或将成为新型认知战的重要工具。算法中固有的文化与意识形态偏向,会生成带有政治立场或价值取向的虚假信息,从而干扰跨国决策与国际合作。当前国际治理框架对快速迭代的大模型风险缺乏成熟的应对机制,各国对“可接受幻觉阈值”的理解也存分歧,致使多边协调难以取得实质进展。若缺乏明确、透明且具约束力的国际规则,技术领先国与追赶国之间的利益冲突势必加剧。
大模型幻觉综合治理路径。要有效应对大模型幻觉引发的系统性风险,需要在技术防御、制度建设、产业生态与国际合作四个层面构建协同推进的多维度综合治理体系,从根本上化解大模型幻觉对国家安全、社会稳定及国际秩序的潜在冲击。
第一,技术防御与安全优化。应优先研发可信生成技术,在模型推理过程中及时接入外部知识库与事实校验,以降低信息失真风险;同时,在生成内容中嵌入不可篡改的数字指纹或元数据,为后续审计与追责提供依据。针对不同应用场景,应采用差异化风险阈值管理。如在教育等领域可适当放宽容忍度,而在国防、金融等关键领域则需严格审查并实施实时监控,确保在高风险场景下保持大模型的可靠性。此外,还可利用对抗式训练与多模型交叉验证,对多个大模型的推理结果进行比对,一旦发现重大矛盾或逻辑漏洞,立即触发人工干预。将这些技术防御机制与传统网络安全体系结合,能够在早期就甄别并阻断潜在的大模型幻觉风险。
第二,制度建设与法治化推进。分级分类监管是实现精准治理的关键。针对涉及重大公共利益和国家安全的应用场景,应实施准入许可和白名单制度,要求关键模型披露训练数据分布、参数更新路径等核心信息,并将算法备案与定期评估纳入法治轨道。同时,应推动“大模型幻觉率”等核心技术指标的国际标准制定,确保在新一轮技术规则博弈中掌握主动权。
国内层面,可结合现有网络安全法与数据安全法,进一步明确生成式人工智能产品在开发与使用过程中的责任与义务,为算法风险提供清晰的法律框架。针对重大事故或恶意利用情形,应建立多部门联合调查与问责机制,以精准溯源并有效处置相关责任主体。完善的法治与制度体系不仅能够强化监管威慑力,也可引导产业在合法合规的基础上实现有序发展。
第三,产业生态与自主可控。要建立自主可控的产业生态,需重点突破国产训练框架、安全芯片等核心技术,逐步构建全栈式的国产化技术链。应加快大模型攻防演练平台建设,定期开展虚假信息识别、模型逆向分析等实战演练,以提升对大模型幻觉的综合攻防能力。同时,通过加强宣传普及,提高社会各界对大模型幻觉风险的认知与防范水平,引导产业健康、有序发展。在此过程中,政府、科研院所与企业可联合攻关、设立专项基金,重点解决算力、算法可解释性及多模态融合等“卡脖子”难题。完善的产业生态不仅能为国家安全提供坚实保障,也能在国际竞争中发挥更大主动性,防止关键技术或数据被他国操控或滥用。
第四,国际合作与全球治理。在全球化背景下,应秉持共同安全理念,推动人工智能伦理准则改革,防范单边主义与技术霸权。通过组建跨境虚假信息溯源平台和危机响应机制,实现对大模型算法风险的全球协同治理。应加快在国际标准组织层面推动制定大模型安全测试规范,形成兼顾多样性与灵活性的全球技术治理规则,在国际社会内部达成风险应对的普遍共识。在具体实践中,各国可尝试建立常态化的联合演练与信息共享机制,如定期组织由多国安全部门与技术专家共同参与的大模型安全演练,对潜在大模型安全风险进行模拟推演并检验应对方案的有效性。还可在联合国等多边平台倡导制定相关条约或协定,为大模型发展设定基本的伦理与安全底线。唯有在国际范围内形成广泛认可的合作框架,方能从根本上避免技术竞争引发的地缘政治冲突,把握大模型技术所带来的全球发展机遇。
(本文系国家社科基金一般项目“数智环境下情报分析算法风险治理路径研究”(22BTQ064)阶段性成果)
(作者系黑龙江大学计算机与大数据学院教授;黑龙江大学计算机与大数据学院副教授)