中国社会科学网讯(记者 明海英)6月27日,湖北大学哲学学院、高等人文研究院、《湖北大学学报》编辑部联合主办的“人工智能时代伦理学的社会责任”学术研讨会在湖北大学举行。
来自中共中央党校(国家行政学院)、清华大学、中国人民大学、等全国10余个单位的伦理学专家齐聚一堂,围绕人工智能技术发展所引发的伦理挑战与社会责任问题展开深入探讨。会议由湖北大学哲学学院副院长阮航主持。
从人的本质出发重构人机关系
湖北大学哲学学院教授江畅表示,人工智能时代为伦理学带来了前所未有的机遇与挑战,伦理学既应保持哲学的反思与批判精神,也需不断朝向社会科学化演进。他强调,伦理学应站在人类整体福祉的立场上,揭露AI发展背后受资本逻辑、权力逻辑绑架的可能性,指明利用AI造福人类的有效路径,切实肩负起守护人类价值与尊严的社会责任。
中国人民大学哲学院教授焦国成表示,伦理学在AI时代最核心的社会责任是“追问伦理学应做什么、怎么做”。伦理学必须坚守其作为关于“好生活”的规范性学问角色,关照最广大社会群体尤其是弱势者的利益。伦理学应防止其沦为少数人攫取利益的工具,推动AI朝向公平共享的方向发展。
中国社会科学院哲学研究所研究员孙春晨表示,要重新审视和定义诸如“责任”“公平”“隐私”等概念在人工智能语境下的内涵,构建多元包容的伦理规范框架。同时,培养科技伦理专业人才和提升公众科技伦理素养亦是伦理学不可忽视的社会责任。
南昌大学人文学院教授詹世友主张在制度设计中注入伦理考量,通过法律与政策实现人道关怀。他表示,AI虽然类似于人,但并不真正具备完全的主体意识,只能是一种类人主体。伦理学仍需从人的本质出发重构人机关系。
首都师范大学教授王淑芹关注人工智能在实际应用中的伦理风险,特别是对人类尊严与社会结构的冲击。她强调科技人员应提升伦理素养,在技术研发中强化人文意识。
中共中央党校(国家行政学院)哲学教研部教授靳凤林从宏观层面对人工智能与数字经济的伦理问题进行了分析。他表示,平台资本、国家权力和劳动关系正在被AI重塑,伦理风险日益突出。应倡导构建全球数字伦理治理框架,强化平台责任机制,防止数字霸权和算法压迫,保障社会公平正义。
湖南师范大学道德文化研究院院长向玉乔表示,在人工智能时代,伦理学家应该沿着伦理学研究的传统方式和路径开展研究,不把自己变成人工智能技术人员,以不变应万变。
将公共利益与社会责任纳入算法设计
天津社科院马克思主义研究所所长杨义芹表示,人工智能时代,伦理学的主要职责是规约和引导。AI发展的伦理规范应根植于中国文化语境,要坚持以人为本、公平公正、以中国实践需要为要,将公共利益与社会责任纳入算法设计与治理,让AI既在效率上发挥价值,更在增进公共福祉上有所担当。
清华大学马克思主义学院教授李义天表示,伦理学的根本使命仍是帮助人类思考“何为好生活”,AI只是其中一个变量。人类应保有道德能动性与价值判断力,警惕技术与资本合流对人类生活方式的侵蚀。
中共中央党校(国家行政学院)哲学教研部教授朱辉宇提出三点责任路径:技术层面的风险管理、制度层面的伦理治理,以及哲学层面的价值预设。他表示,价值“对齐”过程中本身也应防止伦理异化。
湖北大学马克思主义学院副教授李婉芝指出,在教育与公共管理领域,生成式人工智能正在深刻重塑公民的道德判断模式。为维护公共伦理环境的稳定与清晰,防止人文价值被技术削弱,亟需通过制度建设、道德教育和社会规范的多维协同加以应对。
在自由发言阶段,湖北大学哲学学院教授周海春表示,人工智能引发的伦理变革远超以往生物技术和网络技术,伦理学必须在保持传统理论框架的同时,勇敢面对变革,提出新的价值判断与回应机制,尤其要关注下一代道德观的重塑问题。
湖北大学哲学学院教授李家莲作总结发言。她结合在苏格兰的访学体验,强调在关注技术变革的同时,更要回归人类深层的情感与价值根基,警惕人工智能对人类心理健康与情感结构的潜在影响。李家莲表示,伦理学的职责不仅是分析,更是提出问题,唤起公共讨论与深层反思。