内容摘要:预防人工智能伦理缺失7月 25—31日, 2015年国际人工智能联合会议(IJCAI-15)在阿根廷首都布宜诺斯艾利斯举行。27日的开幕式上,美国生命未来研究所(Future of Life Institute)发布了一封呼吁禁止自主武器的公开信,这封信由来自多国的2500多名人工智能与机器人学科学家联合签名,得到了15000多名其他领域人士的支持。其中包括英国科学家霍金、美国语言学家乔姆斯基、美国太空探索技术公司(SpaceX)和特斯拉(Tesla)汽车公司首席执行官伊龙·马斯克(Elon Musk)、美国苹果公司联合创始人斯蒂夫·沃兹尼亚克(Steve Wozniak)等名人,掀起了关于人工智能技术前景和风险的新一轮讨论。
关键词:武器;公开信;禁止;风险;人工智能技术;伦理机器人;科学家;军备;计算机科学;研究
作者简介:
7月25—31日,2015年国际人工智能联合会议(IJCAI-15)在阿根廷首都布宜诺斯艾利斯举行。27日的开幕式上,美国生命未来研究所(Future of Life Institute)发布了一封呼吁禁止自主武器的公开信,这封信由来自多国的2500多名人工智能与机器人学科学家联合签名,得到了15000多名其他领域人士的支持,其中包括英国科学家霍金、美国语言学家乔姆斯基、美国太空探索技术公司(SpaceX)和特斯拉(Tesla)汽车公司首席执行官伊龙·马斯克(Elon Musk)、美国苹果公司联合创始人斯蒂夫·沃兹尼亚克(Steve Wozniak)等名人,掀起了关于人工智能技术前景和风险的新一轮讨论。
学者对禁止自主武器态度不一
公开信提出,从人工智能技术现状来看,可不依靠人类而独自搜索并消灭目标的自主武器系统在若干年内可能被制造出来,并将引发继火药和核武器后的“第三次战争革命”。如果军事大国推进自动化武器研发,全球军备竞赛几乎将不可避免。这类武器是破坏社会稳定、控制大众的理想工具,且无需昂贵或难以获取的原材料,易于大规模生产,迟早会出现在黑市,落入恐怖分子、军阀等手中。因此,超出人类有效控制范围的攻击性自动化武器应被禁止。对此,英国牛津大学哲学与信息伦理学教授卢恰诺·弗洛里迪(Luciano Floridi)表示,“各国在智能武器上的军备竞赛已经开始,如无人机,但科幻电影中‘终结者’式的超级人工智能还很遥远,当前最先进的机器人甚至无法自如地扭开门把手。这封公开信无可争议,但我希望它不是没有任何真正影响力的懒人行动主义(slacktivism,以签署公开信、‘点赞’或转发社交媒体内容、加入特定的网络社群等简单方式对政治或社会问题呼吁表态,但没有付诸切实努力,也不会产生实质性的影响,只是令参与者自我感觉作出了贡献)的体现。”
美国佐治亚理工学院机器人伦理学专家罗纳德·阿尔金(Ronald Arkin)对记者说,“人工智能武器潜在的风险有很多,我认为,全球军备竞赛并不是最主要的,更令人担忧的是这种技术在未经充分验证时就被过快地用于作战或扩散。近两年,联合国《特定常规武器公约》(CCW)会议就致命性自主武器系统(LAWS)展开了讨论,我建议在我们能确定究竟该禁止什么之前,针对自主武器出台暂禁令而非彻底禁止,并观察这种技术能带来多大的人道主义益处”。
美国哈特福德大学计算机科学教授迈克尔·安德森(Michael Anderson)说,“人工智能不应被应用于相关伦理规范尚不清晰的领域,自主武器显然也在此列,但我没有签署公开信。当自主武器代替人类战斗人员以减少人类伤亡的设想可实现时,禁令可能难以广受欢迎。未来我们弄清楚与自主武器有关的伦理问题时,我愿意重新审视其应用的可能性”。







