故事弥补术语的不足

2024-05-06 作者:龙豪 来源:中国社会科学网-中国社会科学报
  虽然科技工作者是人工智能开发和部署的重要利益相关者,但很少有人关心他们对人工智能发展过程中有关伦理问题的理解。鉴于此,英国剑桥大学性别研究中心负责人裘德·布朗(Jude Browne)等人运用实证研究,收集了一家大型人工智能公司的科技工作者的数据,以便更好地了解这部分人群对人工智能伦理问题的看法。与以往同类研究的不同之处在于,该研究明确使用了女性主义的方法来分析问题,尤其关注如何让科技工作者的声音和叙述引领研究方向。近日,该研究发表于《大数据和社会》(Big Data & Society)期刊。

  倾听科技工作者的需求至关重要 

  当下的经济环境瞬息万变,布朗等人认为,要想确保人工智能的发展符合伦理规范,倾听科技工作者的需求和担忧至关重要。然而,正如研究所表明的,当企业制定人工智能伦理战略时,很少征求员工的意见,这主要是基于企业认为伦理学家等专家更具有认识论优势的假设。这种排斥现象在缺乏STEM(科学、技术、工程、数学)背景的科技工作者身上体现得尤为明显,比如律师、市场营销人员或人力资源专业人员经常受到新技术或新产品部署的深刻影响,但他们的意见和反馈却很少被征集或纳入产品开发和设计过程。

  布朗等人对一家大型人工智能公司的60多名员工进行了深入的访谈,这些员工分布于人工智能、数据科学、法律服务和人力资源等多个领域。研究人员遵循了女性主义理论家萨拉·艾哈迈德(Sara Ahmed)的方法论,允许受访者讲述自己有关人工智能伦理的故事,并利用女性主义政治理论和女性主义科学技术研究来进行解释。女性主义方法的运用以及对个人故事的关注,使企业作为对人工智能伦理有着单一理解的单一实体的假设复杂化。也就是说,该研究强调了员工不同的伦理观点,以及对人工智能可以做什么和应该做什么的理解的重要性。通过探索拥有不同形式知识的科技工作者的观点,该研究展示了在一个拥有全球知名品牌和高度发达的内部企业文化的公司中,人工智能伦理的意义和重要性如何在个人与群体之间发生重大变化。

  企业、政府、国际组织、学术机构、民间组织等已经将人工智能伦理的概念作为指导人工智能开发和部署的一种重要方式。国际层面制定了许多人工智能伦理框架,例如欧盟的《算法问责制和透明度治理框架》。虽然不同的人工智能伦理项目包含各自独特的政治议程,并关涉不同的利益攸关方,但仍有一些共同关注点,例如正义和公平。但是布朗等人认为,通过倾听科技工作者的故事和观点,可以看到一幅更复杂的图景,从而证明一些通用的伦理术语如何不足以实现有效的变革。

  讲述人工智能的故事 

  在科技工作者讲述个人关于人工智能的故事时,研究人员重点关注三个主题。第一,“偏见”(bias)一词对科技工作者意味着什么,他们如何认定这一概念与他们的工作相适应。第二,科技工作者对人工智能发展与多样性、平等和包容性问题以及企业多样性倡议之间关系的看法。第三,将新的人工智能系统与现有的“保留系统”融合,以及维护人工智能系统的过程,给开发合乎伦理的人工智能带来的挑战。

  首先,人工智能伦理政策和话语突出了人工智能系统中的偏见问题,并经常选择优先制定减少偏见的战略。然而,该研究表明,科技工作者对偏见的定义并不一致,而且他们对哪些系统和数据可能会产生偏见的看法也有所不同。科技工作者如果可以更深入地了解结构性不平等如何影响了他们使用的数据,就可以从中受益。受女性主义理论的启发,研究人员鼓励人工智能伦理学家和技术工作者思考人工智能“偏袒”(partiality)的概念,即每一个机器学习模型所采取的局部视角。人工智能“偏袒”源于女性主义理论中的情境知识,该理论声称知识是特定于情境的,而不是普遍的。因此,数据应该被理解为总是充满了不平等背景下的不平衡经验,并且只能提供任何给定现象的部分观点。通过这种方式,布朗等人建议,人工智能系统的局限性应该成为其定义的一个强调特征,这可能比提倡“消除偏见”和其他将系统恢复到中立状态的尝试,更有利于人工智能伦理的形成。

  其次,正如无数人工智能伦理框架所表明的那样,产品团队的多样性或缺乏多样性会影响人工智能的设计、开发和部署。然而,人工智能行业的人口结构仍然同质化严重,以至于有学者提出,人工智能正在遭受“多样性危机”。例如,美国只有26%的人工智能从业者是女性。为了纠正人工智能行业女性数量的不足,人工智能伦理倡议强调需要增加设计团队的多样性和代表性。但大多数受访者都没有看到尝试多样化的劳动力与人工智能伦理发展之间的任何关系。因为在实践中,如果多样性被视为一种选择项而非持续的过程时,科技工作者很难理解为什么多样性如此重要,以及它在创造合乎伦理的人工智能方面可以发挥的核心作用。布朗等人建议,多样性、平等和包容性计划与人工智能伦理目标应当建立直接联系,多样性问题要超越特定个体代表性不足的问题,也应注意到不同形式的情境知识的闭塞性质。政府和其他机构可以超越人工智能人才“多样性危机”的叙述,并开始更好地将人工智能的发展、功能和社会影响置于具体背景中。例如,有的公司不仅致力于提高设计团队的多样性,而且主张充分实现“设计正义”的愿景,以那些通常在技术设计和开发过程中被边缘化的人的声音为中心。

  最后,研究表明,作为一种经过很长一段时间使用并具有多年软件开发和数据积累的大型计算机系统,“保留系统”是发展人工智能伦理的主要障碍之一。保留系统的伦理监管可能需要研究与数据分散或重构相关的潜在伦理问题。有的数据科学家与其正在处理的数据的背景和来源十分疏离,因而被称为“数据集中的陌生人”。数据科学家与数据收集和维护之间的距离,加剧了生产出不具有代表性的人工智能产品的风险。这些担忧凸显出一个事实,即合乎伦理的人工智能的实现,必然需要付出长期而复杂的努力,无法简单地通过开发过程中的一次性“偏见检查”来实现。“维护”是人工智能研究中一个被忽视的领域,女性主义政治经济学研究早就证明了维护工作的重要性,以及这项工作是如何被低估的。布朗等人认为,同样的情况也适用于技术系统。一些受访者认为,调试等维护工作是无聊和不受欢迎的。尽管如此,他们强调,如何监测和校准人工智能系统,以确保其长期的公平和一致的表现,对人工智能伦理的长期实践至关重要。

  辩证看待情境知识 

  该研究使用的女性主义方法的核心是情境知识的概念,这一概念强调知识是情景化的,即由其产生的特定条件塑造。因此,虽然一些人工智能伦理学家强调道德推理,并试图将这些原则移植到行业背景中,但布朗等人认为,探索那些正在从事人工智能领域相关工作的人员的情境观点至关重要,具体的方法就是通过开放式对话探讨科技工作者的情境知识。研究人员没有依赖更受限的调查类别(例如根据问题集预先确定受访者的答案)或基于问卷调查等更严格的访谈问答结构(这往往会使研究人员专注于收集比较类答案),因为受访者的一些观点会因不相关或太琐碎而无法被结构化的方法捕捉到。开放式对话则可以鼓励科技工作者探索他们自己对正在参与的生产、测试、使用和销售技术的感受和期望,以便更清楚地了解人们作出决定的条件。

  当然,研究人员并未不加批判地对待科技工作者讲述的故事,也没有假设它们包含了关于人工智能的唯一“真相”,以及科技工作者在伦理层面发展人工智能所面临的挑战,而是辩证地看待员工讲述的故事,同时认识到他们的经历可能会模糊化或掩盖他们公司的产品可能产生的真正危害。通过运用女性主义方法,研究人员创造了一幅更细致入微的画面,描绘了科技工作者在开发和维护人工智能系统时关于伦理问题的看法。当然,该研究也存在不足之处。例如,研究人员关注的是一家总部位于发达国家的大型科技公司,这显然不能代表整个科技行业。

转载请注明来源:中国社会科学网(责编:程可心)

扫码在手机上查看