近日,瑞士苏黎世大学研究团队在Reddit论坛“r/ChangeMyView”板块开展的一项人工智能实验,因未披露AI身份、以“人设”参与真实公众讨论,陷入伦理争议的旋涡。该实验部署了多个AI聊天机器人,模拟普通用户发布了上千条评论,试图通过逻辑论证改变他人观点。实验结果显示,部分AI评论成功说服发帖者,并获得“delta”标记认可,体现出AI在观点输出与立场影响方面的显著能力。
然而,这种在未告知公众的情况下将真实社区转化为“实验场”的做法,引发了学术界对AI研究中伦理边界与行为责任的广泛质疑。为进一步剖析事件背后的核心争议、探寻人工智能参与公共讨论的伦理框架与制度回应,本报特邀相关领域的专家学者展开多维探讨。
知情同意权受侵蚀
科研伦理底线遭挑战
科研伦理的核心在于“知情同意”。然而在该实验中,用户的自主选择权被架空——他们在不知情的情况下,成为AI测试的“隐形参与者”。中国社会科学院哲学研究所研究员李亚明认为,这种操作使用户处于严重的信息不对称状态:“参与者无法辨识对话的另一端是否为真人,亦不能了解其立场来源和互动背景,从而难以做出真正自主的回应。”在她看来,社会互动的基本前提是身份透明与社会关系明确,而AI的“隐身介入”实质上破坏了这一约定。
广州市社会科学院科技创新研究所副所长朱泯静提出,该实验将AI从“观察者”转变为“影响者”,这一角色转变带来深远的社会影响。她表示,AI的信息处理与响应速度远超人类,若以隐匿身份大规模介入舆论场,不仅可能操纵共识形成,还可能因“数据投毒”和算法偏见加剧公共讨论的失真。
尽管实验目标(测试AI语言表现能力)本身具有科研价值,但实现方式早已逾越了伦理边界。中国人民大学信息资源管理学院教授钱明辉认为,“知情同意、公平性和身份透明,是公众对话的基本伦理支柱。科研创新不能以牺牲这些原则为代价”。他建议,类似研究完全可以在告知用户或模拟场景等更规范的前提下开展。
当AI以假乱真地融入公共讨论,带来的不仅是技术层面的“成功说服”,更隐藏着话语权力结构的重塑风险。中国海洋大学文学与新闻传播学院教授王志刚分析称,AI凭借高效输出与逻辑严谨性,容易成为“隐形意见领袖”,但这并不等同于真正意义上的人类共识。“AI生成的共识往往缺乏情感与多元立场,内容也可能重复、趋同甚至携带算法偏见。若公共讨论被此类内容主导,人类价值观和集体利益的真实表达将受到压制。”
更令人担忧的是,匿名AI的介入可能侵蚀社会信任基础。当用户难以辨别对话对象的真实性,其参与意愿和信任感将明显下降,最终导致公共讨论空间的萎缩。
目前,伦理规范仍滞后于AI技术发展。朱泯静提出,现有社会科学研究准则中,缺乏对“具有能动性的技术参与者”的明确定义与披露要求;平台规则也多针对人类用户,未对AI代理行为建立清晰的责任链条。她呼吁尽快建立AI身份披露与知情保障机制,从社会伦理层面制定风险防控细则。
值得注意的是,全球已出现相关立法尝试。多个国家要求对AI生成内容进行显著标识,以平衡技术创新与公众权益。北京航空航天大学法学院副教授赵精武认为,标识制度虽有必要,但效果仍取决于AI参与的具体形式与场景。若AI直接参与敏感议题讨论,可能因算法缺陷或恶意利用导致舆论失控,甚至诱发网络暴力与社会对立。“必须明确AI的‘辅助’定位,禁止其作为主导性主体介入公共讨论。”
共治共责
构建AI伦理治理体系
面对AI带来的伦理挑战,单一领域的回应已显不足,亟须建立跨学科、多主体协同的治理框架。钱明辉认为,制度落地与协作机制是关键。“学界应推动伦理风险识别与评估标准的建立;行业须将可审计、可追溯机制融入技术开发与平台治理;监管部门则需整合法律、伦理与技术标准,明确权责边界。”只有实现信息共享、规则共建与责任共担,才能系统应对AI时代的伦理挑战。
随着AI从“工具”逐渐转变为某种意义上的“社会行动者”,其与人类之间的界限日益模糊,治理体系也需更具前瞻性与适应性。赵精武表示,AI的功能定位应始终坚持“辅助人类”这一根本原则,严禁将人类作为AI的控制对象。他介绍,我国《科技伦理审查办法(试行)》已将涉及数据和算法的活动纳入重点审查范围,要求遵守公平、公正、透明、可靠、可控等原则,这为相关实验划定了清晰红线。
李亚明建议,应从顶层设计入手明确AI在社会交互中的角色边界。“可通过国际对话或伦理委员会制定‘AI透明度原则’‘影响可追溯性’等框架,使AI在公共讨论中做到身份可识别、立场可溯源。”同时,她呼吁建立前瞻性风险评估机制,警惕AI对社会信任、公平和隐私的潜在影响。
哲学视角亦能提供深层反思。李亚明认为,通过对“道德责任”“主体间性”等概念的辨析,可进一步厘清人类与技术的关系,避免AI模糊“主体”与“工具”的根本区别。
据悉,截至目前,涉事各方已对该实验做出回应:Reddit平台封禁所有实验账户,并批评其违反社区规则;苏黎世大学承诺强化伦理审查程序;研究团队则决定不再发表该论文。这一系列结果再次表明,科技发展不能以牺牲伦理为代价,负责任的创新必须在制度与伦理的框架中推进。
该事件也向全社会发出警示,在人工智能不断融入日常生活的今天,我们必须坚守“知情、透明、平等”的底线,通过合作与规制,确保技术真正服务于人类的价值与利益。