随着人工智能逐渐具备翻译诗歌、撰写文书、模拟人类情感等能力,与之相关的语言伦理问题已越发不容忽视。语言背后的算法逻辑和语料选取蕴含着价值判断与文化偏见,如果忽视语言维度,人工智能治理将流于表面。从语言视角审视人工智能发展,有助于构建真正多语的技术体系,保障语言、文化以及社会正义。谁在设计人工智能语言?谁决定它说什么、如何说、对谁说?如何规制人工智能中的“语言选择权”?如何将人工智能语言伦理纳入全球治理议程,以回应低资源语言(即小语种)群体在数字时代的边缘处境?这些问题不应再被视为技术治理的“次要议题”,而应成为人工智能伦理治理的重要内容。对此,本文从语言角度出发,探讨人工智能可能引发的伦理风险。
一是人工智能的发展可能加剧语种间的数字鸿沟。人工智能的文本生成高度依赖大规模语料库,但现有训练数据中主流语种具有压倒性地位,低资源语言(包括方言)代表性严重不足。数据分布失衡不仅会影响文本生成的准确性和多样性,更会进一步固化语种间的不平等。以欧洲为例,英语、法语、德语等因资源丰富,在人工智能模型中表现更优,相关服务更为精准;而爱尔兰语、马耳他语等小语种因语料稀缺,难以享有同等技术红利。长此以往,将导致语言等级化趋势愈发明显,使主流语种使用者获得更高质量服务,而小语种使用者则面临被技术边缘化的风险。
二是数字鸿沟的扩大可能削弱语言多样性,进而影响公共服务的可及性,带来新的社会不公。语言不仅是交际工具,更是文化身份与认同的核心载体。一些人工智能系统仅支持主流语种,可能无形中将部分群体排除在外,限制其在教育、就业、医疗等领域的有效参与,加剧信息不对称与资源分配失衡。这不仅会危及全球语言生态的平衡,也有可能延续甚至放大原有的社会不平等。从根本上看,语言问题既是传播问题,更是权利问题。人工智能系统中的“语言选择权”实质体现着“编码权力”,即由谁决定人工智能采用哪种语言、服务哪些人群。若缺乏伦理反思和制度规制,这种权力将转化为新的技术壁垒,把边缘语言及其使用者进一步排除在知识获取与权利保障之外。因此,人工智能的语言设计不仅关乎技术发展方向,更直接关乎语言正义的可持续性。
三是人工智能语言偏见可能进一步加剧社会不平等。一方面,偏见体现在语义层面的文化误读与刻板印象。人工智能模型在训练过程中会无意识地继承并放大语料中的历史性歧视或偏见。另一方面,语言偏见也隐含技术设计中的价值立场。训练语料的选择表面上是中性的技术决策,但实则折射出知识生产与文化选择的“隐性政治”。主流人工智能系统高度依赖大语种语料,导致人工智能生成内容普遍体现“主流语言中心主义”。因此,若忽视语言差异,便可能以“技术普及”之名进行语言与文化的隐性排他,形成“技术殖民”趋势。
四是人工智能在理解语言所承载的文化内涵方面仍存在明显局限。一方面,由于小语种在数字语料中的缺位,其文化意涵往往难以被人工智能系统识别与保留,导致语种间的文化表达出现不对等。数字鸿沟有可能抹去语言所承载的历史记忆与传统智慧,使文化走向单一化与趋同化。另一方面,人工智能在处理语境、隐喻、俚语等复杂语言现象时仍显力有未逮。在语境理解力不足的情况下,无论是主流语种还是小语种,其多义性与文化表达都存在被简化甚至误读的风险。而大量未被文本化的口述传统、地方知识与非物质文化遗产由于缺乏数字化路径,极易在人工智能时代沉寂退场。
五是人工智能语言的广泛应用可能冲击自然语言的生命力与人类的语言能力。尽管人工智能可以生成结构严谨、逻辑清晰的文本,但它依赖于既有语料的重组,缺乏语言的内在创造性与情感张力,难以替代人类在语言学习与表达中的主体作用。自然语言始终处于动态演化之中,人类不断赋予其思想内涵与文化活力,而人工智能生成语言则更趋向机械与单一。一旦人类过度依赖缺乏生命力的人工智能生成语言,久而久之,语言表达能力或将退化,进而削弱思维的创造力与想象力,对人类认知体系造成严重影响。
六是人工智能语言系统的运行机制不透明、责任界定不清,可能误导公众认知甚至激化社会矛盾。一方面,人工智能系统决策过程的“黑箱化”削弱了社会对技术的信任,也带来了伦理层面的模糊责任。另一方面,人工智能生成内容具有现实影响力,但系统本身无法承担法律责任。一旦其输出信息存在误导性,可能导致信息失真等问题,危及社会稳定。
人工智能生成语言虽源于自然语言,却有可能对自然语言生态带来长期冲击,加速自然语言功能的异化与弱化。因此,需要从语言伦理的角度加强对人工智能技术的审视与规制,确保技术发展服务于语言多样性与人类能力的持续演进。事实上,语言维度的缺位源于一种普遍的“语言中立”假设,即认为语言仅为工具,人工智能在语言选择中服从效率优先原则。这种认知遮蔽了语言背后的文化权力结构。因此,从语言视角看人工智能伦理问题,不仅有助于揭示潜藏的结构性偏见,也有助于推动技术向更加多元、公正的方向发展。
为应对语言偏见、多样性缺失、公平性弱化、文化同质化及语言生命力退化等伦理问题,人工智能伦理规制应从语料数据选择、算法设计、应用、政策和社会责任五个层面协同推进,构建系统性、多维度的语言治理机制。在语料数据选择层面,应优化数据来源,构建语言多元、资源均衡的语料数据体系。在算法设计层面,应优化模型结构与学习机制,减少算法偏差,保障各类语言在数字时代的平等发展机会。在应用层面,应强化文化敏感性,防止人工智能生成内容误解或曲解特定文化。在政策层面,应结合不同国家语言平等的目标,制定促进小语种发展的技术政策,鼓励企业与科研机构加强相关研发,推动资源开放共享,避免语种资源失衡进一步加剧语言的等级化与不平等。在社会责任层面,教育与媒体应引导民众增强语言意识,鼓励使用和传承自然语言,以防止语言能力退化。
从语言维度看,人工智能不仅是一场技术革新,更是对伦理边界的深层重构。在这场重构中,语言不应被视为人工智能技术的附属,而应成为人工智能伦理规制的核心议题。通过完善伦理规制体系,可提升人工智能语言的公平性、多样性与可控性,进而推动构建更加负责任、可持续的人工智能生态。未来,各行业需要根据行业特点进一步细化人工智能治理方案,确保技术进步服务于社会稳定与人的全面发展。
(本文系国家社科基金重大项目“中国与欧洲两大文明发展交流互鉴历程研究”(23&ZD321)阶段性成果)
(作者系中国社会科学院欧洲研究所助理研究员)