人工智能伦理跨文化对话国际学术会议在复旦大学举行

2024-04-29 来源:中国社会科学网

微信公众号

分享
链接已复制

  中国社会科学网讯 2024年4月25日-26日,由中国科协-复旦大学科技伦理与人类未来研究院、中国科协创新战略研究院与复旦大学哲学学院共同主办的人工智能伦理的跨文化对话(AI Ethics: A Cross-Cultural Dialogue)国际学术会议在复旦大学成功举行。

  国际技术哲学学会首任主席、美国科罗拉多矿业大学教授卡尔.米切姆(Carl Mitcham)、第18届国际技术哲学学会主席、欧盟人工智能高级别专家组成员、维也纳大学教授马克•考科尔伯格(Mark Coeckelbergh),德国达姆施塔特工业大学教授阿尔弗雷德•诺德曼(Alfred Nordmann)、德国议会技术评估局主席、卡尔斯鲁厄大学教授阿明•格伦瓦尔德(Armin Grunwald)以及国际期刊纳米与新兴技术伦理杂志主编、卡尔斯鲁厄大学技术评估与系统分析研究所(ITAS)研究员克里斯托弗•科尔南(Chritopher Coenen),南开大学原校长、中国新一代人工智能发展战略研究院执行院长龚克教授、中国科协创新战略研究院研究员、创新环境研究所副所长刘萱以及来自中国社会科学院、北京大学、浙江大学、南开大学、哈尔滨工业大学、上海社科院和复旦大学等海内外高校的30多位专家学者,齐聚复旦大学光华楼思源厅,围绕人工智能、特别是生成式人工智能的伦理挑战,从东西方哲学的不同视角,聚焦人工智能哲学与机器伦理的理论基础技术和伦理进路等话题展开了深度研讨。

  复旦大学副书记周虎出席会议并致辞。他指出,人工智能技术日新月异,其深远影响已经渗透到社会生活的各个方面,它不仅重新定义着人与世界、人与人的关系,也在深层次上重构着我们获取、理解和运用知识的方式,甚至在某种程度上重塑着人类的认知图谱。2022年3月,我国发布了《关于加强科技伦理治理的意见》,强调了加强科技伦理的理论与前沿重大问题研究、构建基于中国特色的科技伦理治理体系,是确保人类命运共同体健康发展的重要举措。复旦大学一直致力于科技伦理在教育、研究和实践层面的推进。本次“人工智能伦理的跨文化对话”国际学术会议的召开是我校进一步深度参与全球性人工智能伦理研究论题的重要举措。他希望通过此次会议搭建起持续互动的国际高端学术交流平台,共同应对全球科技伦理挑战,助力构建一个更加负责任和可持续的科技未来。

复旦大学副书记周虎

  复旦大学哲学学院院长张双利致辞,对嘉宾的到来表示热烈欢迎,她指出,此次活动是复旦哲学学科周的重要组成部分,哲学学院一直致力于支持和发展高质量的学术平台。中国科协-复旦大学科技伦理人类未来研究院成立一年多以来,聚焦科技伦理的重点和难点问题,致力于推动科技伦理的跨学科和跨文化学术对话。期待在会议上学者对科技伦理难题深入反思,进行高水平、跨文化学术对话。

复旦大学哲学学院院长张双利

  开幕式由中国科协-复旦大学科技伦理与人类未来研究院院长、复旦大学哲学学院教授王国豫主持。他介绍了本次会议召开的背景、议题以及中国科协-复旦大学科技伦理与人类未来研究院的使命、研究方向和研究院近一年来的成绩。他认为,人工智能带来的挑战既涉及当代、也涉及人类未来,既有地方性、文化性,也有很多是超越国界、超越文化的。在我们共享的价值观念和维护人类尊严承诺的指导下,促进真正包容性的全球对话,是我们共同的责任。

中国科协-复旦大学科技伦理与人类未来研究院院长、复旦大学哲学学院教授王国豫

  本次会议共包括六个分论坛和一个国际卓越青年学者伦理论坛。

  第一场会议主题为“人工智能哲学——东西方视角”。考科尔伯格教授发表了题为“AI & Common Good: a Cross-Cultural and Intercultual Exploration”的报告,他结合中西方的不同的传统,将共同善(Common Good)概念与AI发展前景联系起来,指出在不同的文化间建立起沟通的桥梁对于当代AI技术伦理有着重要意义。

 

考科尔伯格

  复旦大学哲学学院教授徐英瑾发表了题为“Digitalized Confucianism and the Protection of Data Privacy” 的报告,他从历史唯物论的角度重新解读儒家复古思想的经济学意蕴 ,他指出,面对当代世界的个体隐私权全面受到大数据技术威胁,基于宗族意识的儒家隐私观,在经历了对于"宗族"概念的现代化解释之后,或许能够有力地补充基于个体的西方自由主义隐私观。而小数据技术与家用机器人技术的结合,以及对于区块链技术的合理运用,则可能在人口老龄化的背景下,为上述儒式信息观的复兴提供切实的技术载体。

徐英瑾

  俄罗斯彼尔姆国家研究型理工大学哲学与法律系副教授白雪发表了题为“Human-Robot Interaction (HRI) in Russian Engineering Education: Value Alignment and ‘Ethical Sensitivity’”的报告。她指出,机器人进入社会推动了人机交互(HRI)作为一个跨学科研究领域的建立。人机交互的伦理问题不仅涉及应当如何正确应用一种新技术,还包括了不同价值观之间的冲突与融合,机器人技术的快速增长或许会带来潜在的安全和隐私问题,期待通过友好的跨文化交流和沟通可以贡献出全新的解决方案。

 

白雪

  第二场会议主题为“技术与语境”。科尔南教授发表了题为“Technology as the Measure of Societies and an Indicator of Progress”的报告。他在分析了人工智能技术与现代性的关系的基础上,指出现代性是人类的创伤,不幸的是它依然支配着我们在这个世界上的合作和团结,尽管对人类的未来持悲观主义的立场,但是在纷争和灾难间仍然可以看到人类的合作与交流,看到大家团结在一起应对挑战。

 

科尔南

  上海大学哲学系教授王天恩发表了题为“AI Ethics in Information Context”的报告。他指出,随着人工智能的发展,其伦理问题越来越重要而特殊。一方面,关于AI伦理问题的理解,建立在AI本身及其发展的理解基础上;另一方面,AI的发展凸显了伦理学发展的特殊处境。由于关于AI及其发展的理解越来越必须深入到信息层次,在信息的感受性关系理解基础上,AI伦理问题可以在信息语境中得到更到位的理解。

王天恩

  第三场会议主题为“生成式人工智能的伦理考量”。诺德曼教授发表了题为 “Technology Strikes Back ChatGPT and the End of Authorship” 的报告。他指出作者(Author)的含义是是最初的人、世界的创造者、文本和行为的创造者。ChatGPT的诞生使我们看到作者地位得被推翻的情景则是发生在世俗的、普通的,在被重新定义的人机互动中,这使得一套新的价值观和新的主体被凸显了出来。当我们从复制我们行为的技术镜像中看到自己被模仿时,我们自身会得到重建。

诺德曼

  中国社科院哲学所研究员、中国社科院大学教授段伟文发表了题为 “Generative Artificial Intelligence as a Knoledge-Moral Guide and Its Ehical Reflection ”的报告。他指出,生成式AI是计算智能和数字思维发展的一个全新的阶段,其实质是在现实空间和数据空间之上正在自动化产生一种全新的生成空间。随着人工智能的导航、“副驾驶”等智能代理的发展,数字化数据驱动的智能体会成为一种指导人类日程行为的机制,将使AI成为我们生活的向导,变成我们的知识与道德上的导师,为我们带来全新的以智能驯化为特征的生活方式。

段伟文

  哈尔滨工业大学计算学部教授赵妍妍发表了题为“Aligning Large Language Models with Human Values” 的报告。她在大语言模型在理解能力上与人类能力相近的基础上提出:人类价值是否可计算?人类价值是个人层面上的还是群体层面上的?价值和道德的区别是什么?等三个问题。通过介绍大语言模型价值观对齐的相关任务和算法,她指出大语言模型仍然面临着许多挑战,比如人类多元化的价值观、大语言模型的“有用性”和“无害性”等目标之间的冲突等问题。

 

赵妍妍

  德国达姆施塔特工业大学哲学教授安德列斯•卡明斯基(Andreas Kaminski) 在线上发表了题为 “Is It Working or Is It Broken? Difficulties with the Application of a Key Technological Difference in AI Systems and Its Consequences for the Possibility of Ethics” 的报告,他通过分析四个案例指出,现代技术并不一定会完全按照设计者最初的设计想法所发展,人们很难事先想象每个具体技术可能产生的现实后果。产生技术设计和现实后果之间鸿沟的主要原因在于技术的不透明性,即人们认知上的局限性使得难以目前的情况去设想未来可能发生的所有情况;在设计时所输入的数据、信息和预期目标之间关系的是不透明导致而来上述问题。

安德列斯•卡明斯基(Andreas Kaminski)

  第四场会议主题为“人工智能、技术与伦理”。格伦瓦尔德教授发表了题为Al-fueled Digitalization as Social Process: The Philosophical View on Potentially Gradual Disruptions的报告,他指出,人工智能所带来的“颠覆”是逐渐积累的,因而容易遭受忽视。但与此同时,这一“颠覆”的破坏力却是巨大的,它将威胁人类的自由与独立性,并损害未来的开放性。因此,必须从现在起便敏锐捕捉人工智能潜在的伦理问题,并积极思考应对策略。

格伦瓦尔德

  上海社会科学院哲学研究所成素梅研究员发表了题为The Ethical Examination of Persuasive technolog的报告,她指出,劝导式技术已经被应用于许多领域。含有劝导功能的计算产品会掩盖其劝导意图、限定用户的自由选择权、诱导用户网络成瘾等问题。应对这些伦理挑战需要超越理论伦理与应用伦理二分的观念,拓展责任概念的语义和语用范围,从被动负责的技术伦理转向积极担当的技术伦理,建立关于未来的伦理学。

成素梅

  第五场会议主题为“人工智能伦理的理论基础”。米切姆教授发表了题为安排Two Theses Concerning AI Ethics的报告。他指出,当我们谈论人工智能伦理时,光有“伦理”并不足够。从始自亚里士多德的伦理学传统出发,便能看到伦理分析与政治思考对于人工智能伦理而言同样重要。他认为人工智能伦理仅仅关乎“人工智能”也并不恰当。若想妥善处理人工智能带来的负面影响,必须依靠社会政治层面的变革。

米切姆

  浙江大学哲学学院廖备水教授发表了题为Philosophical Foundation, Basic Features, and Implementation Methods of Machine Ethics的报告,他指出,解决如何赋予智能体的决策以足够伦理考量问题的关键途径是建立基于人类伦理之上的机器伦理。机器伦理具有与人类伦理不同的四个基本特征:(1)当前的智能机器表现为在伦理决策方面的弱主体性;(2)机器的伦理决策需要在不同利益相关方的价值诉求之间取得平衡,即具备社会平衡性;(3)机器在伦理决策时容易受到文化因素的影响,应能反映文化差异性;(4)机器需要向人类主体解释伦理决策、理解情感表达,并进行责任归因,因此必须具备良好的人机交互性。

廖备水

  浙江大学哲学学院李恒威教授等发表了题为Human-Technology Symbiosis: The Anthropocene, Technosphere, and Cyborgs的报告,他们指出,有效加速主义和减速主义两种策略均试图通过人类控制技术这一路径解决环境破坏和资源枯竭等危机,然而这两种视角过于简化。普罗米修斯和埃庇米修斯的隐喻揭示了技术发展和使用中的不可预测性,而技术圈的概念则敦促我们重新思考如何在这个由人类和技术共同构成的复杂系统中寻找平衡,以实现人技共生。赛博格作为一种人机混合的存在,为实现人技共生提供了可能性。

  第六场会议主题为“大语言模型的伦理”。复旦大学计算机学院肖仰华教授发表了题为“The Application of AIGC (Artificial Intelligence Generated Content) Technology in the Era of Artificial General Intelligence: Basic Principles and Ethical Considerations”的报告,他指出,人工智能技术尤其是AGI的快速发展和广泛应用将给人类社会带来双面影响。一方面,AGI有望成为推动社会进步的先进生产力。但另一方面,AGI的滥用也可能给人类带来一系列根本性的挑战。AGI全面渗透和替代人类脑力劳动,会损害人类的核心智力能力,对"何以为人"这一根本问题带来冲击。因此,AI技术应当避免对人性造成伤害防止AI滥用,应当为AI应用设立准则,不应过度、无限制使用。

肖仰华

  上海交通大学科学史与科学文化研究院闫宏秀教授发表了题为“Deceptive Value Alignment and Trust”的报告,她指出,在人类价值与人工智能价值对齐的过程中,欺骗性价值对齐以一种非道德的策略性信任完成了表面的价值对齐。这种欺骗涉及到人-机欺骗、人-人欺骗与机-机欺骗。伴随从弱到强的学习、自我对齐的出现,对欺骗性价值对齐的研究既是构筑良好人-技关系必须破解的问题,更是确保人工智能向善的必要条件。

闫宏秀

  王国豫教授发表了题为From Value Design to Value Alignment: Its Possibilities and Limitations的报告,她讨论了“价值对齐”的理论可行性、实现方法及其局限性。在厘清“价值对齐”概念的内涵与重要性的基础上,分享了王国豫团队进行的多项原创性实验研究。研究的结论既证明了当前行为主义进路的价值对齐方法可以有效提升大语言模型的道德能力,同时,也揭示了这一进路的局限性。

王国豫

  会议期间,特设了国际卓越青年学者伦理论坛。论坛由中国科协-复旦大学科技伦理与人类未来研究院青年副研究员朱林蕃主持。南开大学哲学院教授贾向桐做了“Explainablity Should Not Be a Fifth Ethical Principle in Artificial Intelligence Ethics”的报告,他指出需要在人工智能伦理的原则中增加一个可解释性原则,并且这一原则应该融入开放性原则,以进一步巩固人工智能伦理的综合框架;上海人工智能实验室治理研究中心副研究员瞿晶晶做了“Navigating Challenges for Aligning GPT with Patient-Centered Healthcare”的报告,她指出使用机器评价的优势在于其经济性,根据其访谈量表,她认为中国的大语言模型可以有效增强医患关系,真正的医生是凭借多年的经验与指挥对患者做出判断,机器应当与人类指挥保持一致。上海人工智能实验室治理研究中心青年研究员滕妍做了“Embedding Human Values into LLMs: An Iterative Process of Understanding, Evaluation, and Improvement”报告, 她将人类价值引入ChatGPT来进行价值设计,并指出这一做法在伦理和技术面临的挑战,其团队正在对此进行评估和改进;中国科学院大学博士生艾利克斯安德拉•卡扎科夫娃(Alexandra Kazakova) 做了“In AI We Trust? The Technocratic Discourse on AI Policies in Russia”的报告, 她描述了自上而下的人工智能革命的图景,并指出人们在与人工智能互动时会产生一种碎片化的自我投射。

  在闭幕式交流发言中,王国豫与在座专家学者畅想了未来人工智能技术与伦理领域的新进展与新挑战。

  (中国科协-复旦大学科技伦理与人类未来研究院/供稿)

与会者合影留念

转载请注明来源:中国社会科学网【编辑:李秀伟】