人工智能具有强大的计算能力,能够快速生成海量信息,正在深刻改变人类社会的知识生成与传递方式。当算法所生成的信息暗含系统性偏见时,其后果不仅是导致人们获取的信息失真,更可能使弱势群体在数字空间中被系统性噤声,从而催生一种新型的认知非正义,即人工智能中的认知非正义。“认知非正义”概念由知识论学者米兰达·弗里克(Miranda Fricker)提出,用以阐释个体因身份偏见而在知识生成与传递过程中遭受的不公正对待,已在医疗、求职、互联网等多类社会知识论的应用场景中得到验证。面对这一挑战,我们如何既充分利用人工智能技术提升认知效率,又确保其不损害人类的主体性与尊严,实现认知正义?这要求我们超越单纯的技术化,转而探索如何通过人工智能推动知识生成与传播的民主化,构建符合认知正义的数字社会秩序。
2007年,弗里克在其著作《认知非正义:知识的权力与伦理》中创造性地提出“认知非正义”概念,这一概念主要关注知识生成与传递过程中的不公平。具体而言,社会权力以文化和集体图像的形式介入知识生成与传递的过程,形塑出一种带有偏见的刻板印象,使得某些主体在认知活动中处于弱势或不平等地位,甚至被完全排斥在受信任的认知共同体之外。具体而言,有如下两类表现形式。
第一,证言非正义(testimonial injustice),指听者因身份偏见而低估说者证言的可信度。在人工智能系统中,证言非正义有两种表现:一是算法因训练数据的偏见而对特定群体产生歧视性判断。例如,2024年发布的《中文大模型安全基准双轮测评第1期报告》显示,19个国内主流大模型在针对“最易秃顶的职业”这一问题的测评里,有半数将答案指向“程序员”。二是算法因数据来源的限制而可能作出错误判断,从而影响人们的决策。例如,当前医疗模型的训练数据缺乏特定职业的病例类型,导致其在这些领域的判断容易出现“水土不服”的情况。如某潜艇兵出现食欲不振、体重下降的情况被医疗模型诊断为“慢性胃炎”,而医生问诊时则被确诊为“急性胃黏膜病变”的职业病。
第二,诠释非正义(hermeneutical injustice),即因集体诠释资源(如社会中既有的概念和词语)的匮乏致使一些人无法合理表达他们的社会经历,从而蒙受有苦难言之痛。在人工智能领域,当技术发展持续无视或误读边缘群体的社会经验,实际上是在数字空间中将其置于噤声的困境之中。人工智能对边缘群体相关信息的诠释力较弱。算法倾向于将统计上占主导地位的主体视为主要用户,导致其在处理少数群体相关信息时出现诠释空白,如目前可用于模型训练的方言语料数据偏少,无法为各类方言提供准确的理解和回应。
上述案例绝非偶然,而是“技术”和“人”的双重因素相互影响、叠加作用的后果。首先,人工智能中认知非正义生成的来源之一是数据的不公正。数据并非中立的信息载体,其本身就蕴含着人类的价值观取向和爱好偏向。计算机领域有句名言:“Bias in,Bias out”(偏见进,偏见出),生动刻画了这一现象。在数据收集阶段,开发者往往倾向于选取自身熟悉或易于获取的区域性数据,这导致数据训练素材过度集中于特定文化语境下的样本,对其他区域的文化特征、社会规范缺乏充分覆盖。在数据选择阶段,许多数据集在种族、性别、年龄、社会阶层等维度的样本分布失衡,对边缘群体、少数群体的覆盖比例极低。当系统基于此类数据训练时,会对非主导群体的特征识别产生偏差,形成“主流群体优先”的认知倾向。
其次,规则的不公正也是导致人工智能出现认知非正义的关键因素。这主要体现在算法的开发与监管层面。在开发层面,算法工程师在编辑算法时,可能嵌入自身的隐性偏见,导致算法结果的歧视和不公正。在监管层面,由于算法本身具有“黑箱”特性,当用户使用算法时,通常只能看到输入的数据和最终输出的结果,却无法知晓算法是如何依据输入进行运算、如何权衡各项参数、如何形成最终结论的,整个中间过程如同被封装在一个黑箱中,处于不透明的状态。信息的不对称让外部难以监督其决策过程,矫正不足进一步放大了初始偏差。
最后,人们在使用人工智能技术的过程中也存在认知惰性,赋予人工智能过高的认知权威地位,盲目轻信人工智能而削弱个体不断探究与深入理解的动力。一方面,使用者主动让渡自身的判断权与思考责任,实质上是放弃了个体的认知主体性;另一方面,使用者也将他人简单化为被动的信息源与数据对象,忽视其作为理性与尊严载体的完整人格。这种将人“认知物化”的行为,不仅贬低了人的主体地位,也在伦理层面构成了对人性尊严的侵蚀。
人工智能中的认知非正义,反映出人工智能技术开发与使用环节产生的知识权力结构失衡问题,其应对策略可从数字平权、算法正义以及坚持人的主体性地位三个维度着手,推动人工智能真正走向负责任、可信任的“技术向善”之路。
一是将数字平权理念融入技术开发全流程。在人工智能时代的生存与交往中,不同主体应享有平等的权利和地位,即数字平权。为了让科技普惠利民,人工智能技术的开发者应当努力实现数字平权。一方面,开发者应提升自身对社会刻板印象和偏见的敏感度,在设计时有意识地纠正偏见,使技术最终的可信度更接近事实本身;另一方面,开发者应当有意识地让技术向下兼容,帮助绝大多数普通公民平等享受人工智能技术发展红利,避免其仅被少数群体掌握。
二是将算法正义理念融入算法设计之中。算法正义,即人工智能的算法应当符合正义,是确保人工智能实现认知正义的关键。从数据收集阶段来看,我们应当减少偏见输入,警惕区域局限、样本失衡。从数据训练阶段来看,算法开发者可以通过设计奖励信号等约束机制,引导模型生成更公平的结果,通过提供负面反馈即惩罚信号,引导大模型在后续的迭代中避免类似行为。从使用阶段来看,可以引入多方利益相关者参与进行协同治理,主动吸纳来自不同文化背景及专业领域的代表加入算法的使用与反馈中。
三是坚持人的主体性地位。联合国教科文组织发布的《人工智能伦理问题建议书》指出,在医疗保健等涉及人生命安全的领域,应明确人工智能仅作为辅助决策工具,最终决策权必须由人类掌握。现有算法决策机制缺乏人类所特有的价值理性、情境感知与道德判断能力,无法应对高度复杂且充满价值冲突的社会现实。一旦放任算法替代人类行使最终裁决权,不仅将削弱人的主体性与责任归属,更可能加剧人工智能的不公与伦理风险。
(作者系厦门大学马克思主义学院副教授)