AI伦理不是对技术发展的“事后修补”,而应是与技术研发同步甚至超前布局的“方向盘”和“刹车片”。目前,AI技术在实际应用中存在哪些伦理风险?这些风险产生的根源是什么?相关研究前沿主要集中在哪些领域?未来应如何治理AI伦理风险,推动AI技术真正造福人类?围绕这些问题,本报记者近日采访了东南大学AI伦理实验室主任王珏。
AI技术应用面临多重伦理风险
《中国社会科学报》:在您看来,AI技术在发展和应用过程中主要存在哪些伦理风险?
王珏:AI不同于传统的技术工具,它是在人与机器持续互动中构建的一种新型存在形态,在某种意义上已成为当代社会的新型基础设施。其伦理风险主要体现在以下三个方面。
首先,对人类自身的伦理威胁。AI技术凭借强大的数据收集和分析能力,能够从日常行为痕迹中推断出个人偏好、欲望与弱点,存在侵犯隐私和操纵意志的可能。其次,对社会公平正义的破坏。作为AI核心驱动力的算法并非天然公正,特别是历史数据中存在的社会歧视和设计过程中嵌入的价值偏见,一旦固化于机器决策中,就会造成不公正的复制与放大,加剧人与人之间的不平等。最后,对人类社会伦理根基的冲击。AI自主性的提高带来两大核心风险:一是机器代理对人类独特性的侵蚀,二是自主决策导致的问责机制失效,两者共同冲击了现有社会伦理的基础框架。
《中国社会科学报》:产生上述伦理风险的根本原因是什么?
王珏:这些伦理风险既与AI技术本身的特质有关,也与其开发、应用和治理所处的社会文化背景密切相关。可以说,AI伦理风险产生的根本原因,是技术特性与社会生态之间发生了一种反向的协同共振。
一方面,AI技术具有内在的自主性、不透明性和规模效应,成为一个能力极强却难以完全驾驭和理解的“新物种”。另一方面,当前AI技术的发展在很大程度上受资本短期利益驱动,而法律法规建设相对滞后,社会价值观存在多元冲突。技术的内在特质如同一颗具有破坏力的种子,而社会治理的滞后则为这颗种子提供了肆意生长的土壤。
《中国社会科学报》:随着AI技术的快速发展,其伦理治理已成为全球焦点。当前,AI伦理治理面临哪些挑战?国际社会在AI伦理治理方面已形成哪些共识?各国治理模式又有哪些差异?
王珏:目前,全球AI伦理治理仍面临诸多挑战,主要包括:治理进程滞后于技术迭代、国际标准碎片化带来合规困境,以及发展中国家参与不足造成的治理不均衡等问题。
国际社会已初步形成“以人为本、安全可控、公平透明、可追溯问责”的AI伦理原则共识,强调AI的发展应服务于人类福祉。但在具体实践中,不同国家和地区因技术水平、法律传统及文化差异,呈现多元模式:欧盟秉持“伦理优先”,采取严格规制路径;美国奉行“创新优先”,主张以分散式自律为主;中国强调“发展和安全并重”,推行敏捷治理。
AI伦理研究呈现道德困境
《中国社会科学报》:目前,AI伦理前沿研究主要关注哪些方面?
王珏:AI伦理是一个快速发展的领域,研究正从早期的宏观原则探讨,转向更具体、可操作的实践议题,以应对AI技术迭代带来的伦理挑战。前沿研究目前主要集中于以下三个方面:一是AI向善的基础理论研究,聚焦价值对齐、可控性、可信性等根本性问题,旨在确保AI系统的目标与人类价值观一致。二是生成式AI的特定伦理问题,重点关注偏见治理、隐私保护、版权归属及深度伪造等滥用行为的防范策略。三是超级AI(AGI/ASI)的安全风险研究,围绕超级智能可能带来的灾难性后果展开探讨,这一领域存在较多争议。
可以说,AI不仅拓展了伦理学的研究范围,也将原有的道德困境呈现在我们面前。
《中国社会科学报》:用户既想享受AI带来的个性化便利,又担心自己的数据被滥用。目前,这方面研究主要集中在哪些方面?在实操层面应如何实现AI发展与个人隐私权之间的平衡?
王珏:在个性化便利与隐私保护的矛盾中,现有研究主要从三个方向推进。一是采用差分隐私、联邦学习等技术,以“数据可用不可见”的方式优化服务。二是建立数据确权与透明机制,确保用户对自身数据的知情与可控。三是构建法律、伦理与技术协同的治理框架,避免隐私保护流于形式。
然而,真正的挑战不在技术,而在于伦理上的价值权衡:用户渴望被理解,却不愿被窥探;期待算法“懂我”,又恐惧被操纵。解决这一困境,既需要企业超越“数据掠夺”的逻辑、转向建立信任关系,也需要通过法律明确将隐私权界定为不可轻易让渡的权利。只有以隐私保护为前提,才能真正实现“以人为本”。治理关键在于让创新在尊重人的边界内生长,而不是逾越之后才进行补救。
《中国社会科学报》:从机器狗、扭秧歌机器人,到无人驾驶汽车和更高级的护理机器人AI发展迅速。人们在期待相关产品问世的同时,也非常担心其安全问题。您如何看待AI安全机制及其责任界定?
王珏:这种担忧不仅关乎技术安全,更涉及人类对AI的接受与信任。例如,当无人驾驶汽车必须作出抉择时,我们能否接受其算法替代人类的道德直觉?如果护理机器人发生错误,责任应该由谁承担?这些问题揭示出:AI越自主,责任越模糊,而模糊的责任将威胁安全。
在构建AI安全机制过程中,需采取多层次的系统策略:在系统设计阶段嵌入价值对齐机制;在技术上实现冗余设计和可解释性;在制度上建立明确的法律责任框架;在伦理上始终坚持以人为本。同时,应认识到人类价值观本身具有高度复杂性,不能简单归结为单一规则,而需通过持续的社会对话与实践,使AI系统能够动态调整与校准。AI发展本质上也在推动重构人机协作的社会契约。其安全与责任问题不仅是技术实现的一部分,更关乎我们未来能否依然坚定地说——“人类依然掌握AI发展的主导权”。
构建AI伦理风险
多元协同治理体系
《中国社会科学报》:针对生成式AI“幻觉”问题、版权侵权、隐私泄露及对社会认知的潜在冲击,哪些技术和制度创新是构建负责任治理生态的关键突破口?
王珏:技术层面的突破口在于增强模型的可解释性与可追溯性,使生成路径可辨识、虚构与真实可区分。同时,采用差分隐私与加密计算等技术措施,为用户数据建立更完善的防护机制。
然而,单靠技术远不足以应对这些挑战,制度创新才是构建稳健治理生态的关键。首先,应推动版权与数据立法更新,以应对生成式AI跨域性与衍生性带来的新问题。其次,建立涵盖企业、政府、学术界、行业组织与公众在内的多元协同治理机制,通过持续协商形成动态伦理规范。最后,加强公众教育与认知提升,增强社会对AI生成内容的辨识与应对能力,降低技术操纵可能带来的集体风险。
《中国社会科学报》:解决AI伦理风险不仅是技术问题,更是深刻的社会、法律和哲学问题。您认为,应如何协同各方、各学科力量,共同构建能够持续应对AI伦理风险的多元协同治理体系?
王珏:构建能够持续应对AI伦理风险的多元协同治理体系,关键在两个方面:一是要打破学科壁垒,形成跨学科共识与合作框架;二是需建立涵盖企业、政府、学术界、行业组织与公民在内的多元协同治理机制。
AI伦理治理的前沿目标,是构建一个“负责任的创新生态系统”,确保这项强大技术始终服务于人类整体的长远福祉。在实践层面,这一理念强调多学科协同与多元主体参与。同时,我们注重将伦理原则转化为工程实践,通过构建伦理基础数据平台、开发算法偏见治理专利、训练伦理垂域大模型等实践,努力打通从伦理规范到技术实现的关键路径,构建负责任的AI创新生态。
中国社会科学报记者 吴楠