人工智能(AI)的迅猛发展正以“造物之术”重塑人类生存的物质世界,并以“创世之道”重塑文明演进的精神维度,这种双重重塑既带来生产效率的指数级提升、生活方式的颠覆性变革,也引发技术异化、伦理失序、文明冲突等深层危机。在此背景下,“当AI重塑世界时,我们如何重塑AI?”成为亟待回应的时代命题。2025年8月12日,安徽大学哲学学院主办的“重塑•先锋——设计哲学交叉论坛”汇聚了来自中国科学院、北京师范大学等国内专家学者,从哲学、伦理学、设计学、人工智能等多学科视角展开深度对话,形成了技术伦理建构、人机关系重构、设计哲学革新、文明转型路径的四个维度认识,贡献了为AI时代可持续发展的学术智慧与思考。
开幕式现场图
一、技术伦理建构:为AI划定“不可逾越的红线”
中山大学哲学系潘恩荣教授指出AI技术的“激进性”突破,使其在性能、参数、能耗等方面不断逼近人类认知极限,而技术发展与伦理约束的失衡可能导致“养虎为患”的风险。重塑AI的首要任务是构建刚性与弹性兼具的伦理框架,会议学者们通过技术嵌入、制度设计、文化引领三重路径,为AI划定了“不可逾越的红线”。
(一)代码层的伦理嵌入:从“黑箱”到“可审计”的技术转向
东南大学人文学院王珏教授在分析开源AI发展时指出,技术与伦理的协同需从“代码层”起步。当前深度学习模型的“黑箱”特性导致伦理原则难以落地,传统代码检测方法对复杂神经网络的适用性大幅下降。对此,其研究团队正在探索在代码层嵌入伦理,构建可审计的安全机制,明确伦理许可约束,她举例说,通过将伦理原则转化为可计算的语义结构,可实现对模型决策过程的“伦理审计”。王珏教授团队已取得相关专利,正在建设伦理道德数据库及网络平台,希望以此形成统一的开源AI伦理评估框架,推动伦理大模型研发。
不过这一路径面临两大挑战:一是伦理概念的“技术翻译”困境,如“公平性”“正义性”等抽象价值难以完全量化,王珏坦言,当前伦理概念向技术系统的“翻译”与“落地”仍处于探索阶段,尚未形成成熟、普适的技术框架,未来需跨学科协作,推动“伦理可计算化”的理论与实践突破;二是不同文化背景下伦理共识的差异性,可能导致统一伦理框架的失效。王珏强调,解决之道在于建立“底线伦理”原则——明确禁止AI用于欺骗性信息生成、武器研发、反人类行为等方向性错误领域,在此基础上保留文化适应性调整空间。这种“刚性底线+弹性空间”的模式,既避免了伦理虚无主义,又防止了创新活力的扼杀。
(二)治理层的多元协同:从“单一管控”到“分布式共治”
开源AI的发展凸显了治理的复杂性:其源代码、模型权重、数据集的开放性既提升创新效率,也增加了滥用风险,如用于深度伪造、算法歧视的现象便是滥用的结果。王珏提出,重塑AI需构建“多元主体共治平台”,将设计师、开发者、用户、监管机构纳入治理网络,形成动态调整的责任链。
具体而言,这种治理模式包含三层机制:一是技术层面的“可追溯性设计”,通过区块链等技术记录AI模型的训练数据来源、参数调整轨迹,明确责任归属;二是组织层面的“伦理审查委员会”,由跨学科专家组成,对AI应用场景进行事前评估与事中监督;三是社会层面的“公众参与机制”,通过听证会、开源社区讨论等形式,让非专业群体参与伦理标准的制定。王珏以Linux系统的发展为例说明,合理的治理框架非但不会阻碍创新,反而能通过明确权利边界形成可持续的协作生态——早期“自由软件”运动因著作权问题陷入瓶颈,正是通过“开源”理念的重构实现了创新与规范的平衡。
(三)价值层的对齐反思:从“人类中心”到“动态联盟”
上海交通大学闫宏秀教授对当前流行的“价值对齐”概念提出质疑,认为这一表述过于刚性,隐含着人类对AI的单向控制预设。她主张以“联盟”或“校准”替代“对齐”,强调人机关系应是“动态协作”的共生体。这种观点打破了传统伦理的人类中心主义局限,承认AI作为“智能实体”(王珏语)的相对独立性,同时坚守“以人观物”的核心立场——技术发展的终极目标是赋能人类,而非取代或支配。
潘恩荣教授进一步指出,西方语境下的“价值对齐”受宗教与历史因素影响,难以接受AI具备道德主体地位,导致训练AI“向善”的路径存在局限性。相比之下,中国传统文化中的“整体观”为解决这一困境提供了思路:《周易》“关乎人文,以化成天下”的思想将人机视为共同体,在造物过程中融入伦理考量,而非割裂技术与伦理。这种思路既避免了将AI工具化的短视,又防止了赋予其超越人类的道德地位的极端,为价值层的动态平衡提供了文化根基。
二、人机关系重构:从“工具使用”到“共生共在”
AI的发展正在颠覆传统的“人—工具”二元关系,王珏教授将其描述为“相互嵌入”的新型存在状态。重塑AI的核心在于构建一个负责任的“人机共生”生态,这种生态既不是人类对AI的绝对掌控,也不是AI对人类的替代,而是基于目标一致性的协同进化。
(一)具身智能:弥合数字与物理世界的鸿沟
安徽大学王晓教授的“具身智能”研究为理解人机关系提供了一个补充视角。与单纯的数字AI不同,具身智能通过硬件实体进入物理世界,实现“理论与实践的结合”——类似人类“行万里路”的认知过程。这种特性使AI从“抽象的算法”转变为融入环境的行动者,其与人类的交互不再局限于信息层面,而是延伸至物理空间的协同,如自动驾驶中的人机配合、服务机器人的场景响应。王晓介绍了具身智能研究院相关研究涵盖自动驾驶、社会计算、数字伦理等。如在无人驾驶场景中,通过“相对优先级”“相对理让权”等量化指标将人类价值观嵌入决策系统,使AI在遇到突发情况时的选择既符合伦理原则,又贴近人类直觉。这种设计不是让AI模仿人类的“思考”,而是让其理解人类的“存在方式”,从而实现更深层次的协同。王晓强调,具身智能的探索本质是“哲学的实践”,完美呼应了“认识世界—改造世界”的哲学逻辑,为通用人工智能的发展提供了“非暴力”路径——通过融入人类的生活世界而非对抗,实现人机目标的自然统一。
(二)责任共同体:模糊边界中的权责重构
中国科学院大学王大洲教授提出“人人都可能成为设计师”的观点,揭示了AI时代责任主体的泛化趋势。在传统设计中,设计师、开发者、用户的角色边界清晰,责任归属明确;而AI的介入使这种边界变得模糊——用户通过提示词引导AI生成内容,既是使用者也是“共创者”;开发者不仅负责技术实现,还需预判伦理风险;设计师则从“直接创造者”转变为“规则制定者”。这种角色重构要求建立“分布式责任体系”,使每个参与者都承担与其能力匹配的伦理义务。
以“生成式AI”为例,同济大学张黎教授团队的研究明确了“0到1的原始创意由人主导,1到无穷的扩散可由AI完成”的分工原则,既保护了人类的原创性,又发挥了AI的效率优势。这种分工背后是责任的分配:人类对创意的价值导向负责,AI的开发者对算法的公平性负责,平台对内容的合规性负责。安徽大学王金柱教授指出,这种责任体系的构建需要哲学层面的突破——从“主体—客体”的二元思维转向“共在”的关系思维,承认人机在存在论层面的相互构成性。
(三)动态平衡:在依赖与自主间寻找支点
北京航空航天大学张恒力教授在分析机器人技术时指出,未来社会人机交互将大幅增加,甚至可能出现人机难辨的场景。这种趋势带来的核心挑战是如何在“技术依赖”与“人类自主”间保持平衡:过度依赖会导致人类认知能力退化(王珏教授提出的“认知债”),而完全排斥则会错失技术红利。
解决这一困境的关键在于“交互设计”的革新。张恒力教授提出的“平衡原则”“交互原则”“智慧原则”为实践提供了指引:平衡原则要求动态调整人机权重,在不同场景中灵活分配决策权限,如医疗AI辅助诊断而非替代医生;交互原则强调人机沟通的“可解释性”,使AI的决策过程对人类透明;智慧原则则将技术发展导向增强人类的诸如批判性思维、创造性解决问题的 “元能力”,而非替代具体技能。这种思路下,AI成为“延伸人类能力的工具”而非“替代人类的对手”,实现人机和谐共生理想状态。
综上所述,技术伦理的建构为AI发展筑牢了底线,人机关系的重构则为AI与人类的协同演进指明了方向。前者通过代码层的伦理嵌入、治理层的多元协同以及价值层的动态平衡,为AI划定了不可逾越的红线;后者借助具身智能的实践探索、责任共同体的权责重构以及依赖与自主间的动态平衡,推动人机关系从工具使用迈向共生共在。这些探索共同构成了重塑AI的重要基石。而在此基础上,设计哲学的革新与文明转型的路径同样至关重要,它们将从更深层次指引AI时代的发展方向,下文将详细论述。
(安徽大学哲学学院 杨本华/供稿)