当数字技术以指数级速度重塑社会结构时,数字社会的复杂性与智能正义的建构已成为当下人文社会科学与技术领域必须共同面对的核心命题。人类生活世界的全面数智化与全球数字发展不平衡的持续存在,共同揭示了智能正义作为数字时代价值元问题的紧迫性。
智能正义是复杂性系统中的正义
数字社会从来不是一个均质的单一系统,其复杂性本质上源于数字逻辑与社会逻辑的深层张力。从认知范式看,数字逻辑以确定性和可计算性为核心,通过数据符号化与算法建模将现实世界转化为可计算的形式系统,延续了认知计算主义对信息的处理和理解。这种方法论上的指导在自然语言处理和机器学习等基础技术上取得了巨大成效,但同时也将世界的丰富性和复杂性进行还原主义的简化,不但导致非量化需求极易被遮蔽,也使得算法建模的思路极大影响了智能系统对问题的理解与解决。真实的社会逻辑不总在确定性范式当中。算法的输出是程序执行的自然结果,但其蕴含的社会意义无法通过算法自身提供,因为算法结果与现实的映射关系由底层数学模型决定。社会系统的复杂性远超数学模型的表征能力:它涵盖历史文化积淀、价值观念博弈、偶然事件扰动等多元维度。这些要素既无法被完全量化,也难以通过静态的数学假设进行还原。
数字社会建设是涉及政治、经济、文化等多个维度的系统性复杂议题。从全球技术发展轨迹来看,数字技术的赋能范围持续拓展,且技术本身仍处于不断演进与迭代的过程中。随着数字技术的更新,数字逻辑与社会逻辑逐渐交织融合,形成复杂的互动关系:一方面,数字空间中的社会行为会受到算法、内容管理系统(CMS)、操作系统(OS)等技术架构的制约;另一方面,技术架构也会被社会规范所嵌入。在数字技术全面赋能社会的进程中,这两种异质逻辑的交织状态,使得社会系统的复杂性在广度上呈现出不断弥散的趋势。
技术理性的恒定性与社会的复杂状态交织的张力,在智能系统的实践场域中不断生成新的价值与伦理命题,迫使我们必须重新审视正义的内涵与实现路径。当算法开始主导资源配置、风险评估与社会治理等核心领域时,传统正义理论所依赖的抽象平等原则与形式化标准,正在遭遇数字空间特有的结构性矛盾。智能正义的实现绝非技术中立性的自然延伸,而必须建立在充分尊重差异与发展不平衡的情境敏感性基础之上。
数据正义是智能正义的基础和前提
数据正义的核心矛盾植根于数据生产与分配的结构性失衡机制。在数字社会的复杂系统中,数据作为连接物理世界与数字世界的神经中枢,其生产与分配遵循着独特的“马太效应”:数据的多寡决定了在数字世界中被看见的概率。更值得关注的是,不同来源的视频数据在质量上存在系统性差异:创作者的主观动机、制作流程及社会文化语境差异,共同塑造了内容表现形式与价值取向的异质性。这种多维度的差异性对人工智能训练数据的体系化构建提出了根本性挑战:如何在保持数据规模效应的同时,有效整合形态多样、价值多元的原始素材,确保训练数据集的代表性与合理性,已成为需要持续验证的核心命题。该挑战的复杂性不仅体现在物理事实层面的验证困难,更突出地表现为对语义张力的处理困境。相较于可直观验证的视觉错误,对富有隐喻空间和阐释潜力的文本提示进行具象化转换的合理性判定,往往更具认知挑战性。当Sora以“模拟世界”为名获得对现实表征的主导性解释权时,技术系统可能通过数据筛选机制形成隐性的话语垄断。
这就意味着,数据库的构建逻辑与微调策略直接塑造着人工智能的认知图式。在数据主义的技术乐观论语境下,数据控制权已演变为新型知识霸权:掌握数据采集、筛选与应用权限的主体,实质上获得了定义知识形态与文化样态的权力。这种排他性技术架构通过算法推荐机制与内容分发优势,不断强化自身产出结果的权威性,进而形成数字时代的认知中心化。
全球数字鸿沟的持续扩大使超过39亿人口被排除在数据生产体系之外,这种接入不平等不仅导致发展机会的分化,更催生了“数据殖民主义”的隐性支配模式:技术优势群体通过掌控数据采集、标注与建模的全流程,将自身认知范式编码为普遍性数据标准。实现数据正义需要同时在数据采集、清洗、表征等环节持续发力,确立多元主体参与的数据建构机制,同时保证数据在分层分类中的合理性分布,消解数据霸权的认知宰制。
算法正义是智能正义的机制保证和设计要求
算法作为数字社会的核心控制机制,其运行逻辑呈现典型的“黑箱化”特征。如果说生成式人工智能因数据偏见所产生的歧视性输出可以通过优化数据库的显性操作来解决的话,那么算法正义的问题显然要难以察觉得多。这种技术霸权的隐蔽性在于算法决策过程对社会价值的系统性过滤,表现为人工智能系统通过行为数据建模实现了对用户决策路径的精密干预。当平台积累足量的行为轨迹数据后,可运用强化学习框架构建用户画像,进而实施动态干预策略:在时空维度上选择最佳推送时机与场景触发点,在内容维度上设计具有心理操纵性的信息呈现方式,最终通过奖励函数设计引导用户作出符合平台利益最大化的行为选择。这种技术干预已突破传统推荐系统的信息匹配逻辑,演变为具有行为矫正功能的规训机制,将多元化的用户需求强制纳入算法预设的行动轨道。
这种技术治理范式的蜕变标志着工具主义的异化:当数字资本通过算法架构将工具理性转化为规训权力,传统技术中性论的预设便被彻底颠覆。算法不再仅仅是价值中立的工具,而成为资本实现行为预测与控制的权力装置。其危险性在于,这种基于数据监控的规训体系具有自我强化特性。
要在算法中实现正义,不仅需要在设计阶段引入包含伦理学家、社会学家与公众代表的跨学科审查机制,对算法目标函数的价值预设进行批判性检视,也要在技术设计中嵌入公共理性,通过多元价值函数的设计防止社会关系被简化为单一指标,维护社会共识形成的自然过程。
应用正义是智能正义的功能实现与价值指向
应用正义的实践困境本质上是技术普适性与社会情境性的矛盾外化。数字社会的复杂性要求算法系统在不同应用场景中实现技术逻辑与社会价值的动态适配,但标准化的算法框架难以兼顾多元价值诉求。
智能正义作为一种抽象理念,强调在人工智能系统的设计、开发、部署全生命周期中嵌入公平、透明、责任、福祉等核心伦理原则。然而,这些原则的抽象性决定了它们无法直接、自动地转化为每一个具体场景中的恰当结果。应用正义正是架设在抽象原则与具体实践之间的关键桥梁。它的意义体现在:唯有通过应用正义的机制设计与实践操作,智能正义的抽象伦理原则才能在特定情境中被具象化,转化为可执行的技术规则和决策逻辑,从而产生积极的社会效应与价值实现。
数字社会的复杂性决定了智能正义的三重维度之间存在深刻的互构关系:数据正义为算法正义提供真实性基础与公平性前提,算法正义的实现依赖数据治理的科学性与应用场景的适配性,应用正义的实践又反过来影响数据生产的价值导向与算法设计的伦理考量。这种系统性关联要求智能正义的建构必须超越单一维度的局部优化,在数据、算法与应用之间建立协同治理的生态体系。
(作者系南京师范大学哲学系教授)