军事人工智能的人道视角

2023-10-24 来源:中国社会科学网

微信公众号

分享
链接已复制

  

  近年来,科学和技术领域最重要的一些发展是在机器学习方面,包括大型语言模型的快速发展——人工智能工具迅速引起了公众的关注,不仅是因为其生成文本和图像、或编写代码的能力,还因为其某些用途可能随之而来的风险。因此,我特别高兴能参加今年北京香山论坛中关于加强人工智能国际安全管理的讨论。

  红十字国际委员会已提请各方注意从人道视角看会产生重大人道影响的人工智能在武装冲突中的若干应用。譬如,人工智能的某些军事应用可能会增加自主武器带来的危险,加剧网络行动和信息战对平民造成的伤害,并对人类判断在武装冲突中的关键作用产生负面影响。其中最令人担忧的是,有人建议人工智能可被用于核武器使用方面的决策指导,这就有可能加剧使用核武器的风险,造成灾难性后果。

  近年来,中国发表了《中国关于加强人工智能伦理治理的立场文件》和《中国关于规范人工智能军事应用的立场文件》等,并在最近发布的《携手构建人类命运共同体:中国的倡议与行动》白皮书中表达了对“人工智能缺乏完善治理”的担忧。令人鼓舞的是,中国强调人工智能应“以人为本”,且应遵循“人工智能为善”的原则。这与红十字国际委员会对武装冲突中的人工智能所采取的“以人为本的方法”相互关联——该方法的重点是基于武装冲突参与者的法律义务和道德责任来保留人类对武器的控制和判断。

  红十字国际委员会的即刻关切是当今武装冲突中人工智能的高风险应用。因此,一个重要的优先事项是应对自主武器在军事上日益发展所带来的危险——自主武器指在没有人类干预的情况下选择并对目标使用武力的武器。此类武器引发了严重的人道、法律和伦理问题,而人工智能又加剧了这些问题,因此红十字国际委员会一直在敦促各国通过新的国际规则,对这些武器加以具体禁止和限制。

  10月5日,联合国秘书长安东尼奥·古特雷斯和红十字国际委员会主席发出紧急联合呼吁,要求各国在2026年之前完成上述有关谈判。红十字国际委员会强调,必须禁止使用直接以人为攻击目标的自主武器和不可预测的自主武器,譬如由机器学习控制的武器,同时对所有其他武器制定明确而具体的限制。这与中国明确规定(必须受到禁止)的“不可接受的自主武器系统”和(必须受到规范)的“可接受的自主武器系统”的做法相辅相成。

  随着当今武器的获取及其在冲突中的使用的快速发展,红十字国际委员会欢迎中国在此方面的举措,并鼓励中国加强努力,争取地区和国际社会的支持与合作,为自主武器划定明确的法律红线,以保护现在和未来几代人。北京香山论坛为寻求对话提供了一个独特机会,以支持有效应对当代挑战的多边倡议。

  红十字国际委员会非常重视与中国的持续对话,无论是通过该组织常驻北京的红十字国际委员会东亚地区代表处,还是通过常驻位于纽约联合国总部的双方相关代表机构,以及与中国常驻日内瓦使团开展对话。我个人非常期待在第十届北京香山论坛上就这些问题进行深入交流。

  作者简介:

  尼尔·戴维森(Neil Davison)是位于日内瓦的红十字国际委员会(ICRC)总部国际法、政策和人道主义外交部武器和敌对行为部门的高级科学和政策顾问。自2011年以来一直代表红十字国际委员会参加多边裁军讨论。领导红十字国际委员会应对自主武器和军事人工智能等新兴技术带来的挑战。

 

  

  

转载请注明来源:中国社会科学网【编辑:谢德】