佐夫科教授:为何AI无法进行判断?

2025-12-04 来源:中国社会科学网

微信公众号

分享
链接已复制

  中国社会科学网讯  11月10日,克罗地亚扎达尔大学荣休哲学教授、国际哲学学院(IIP)前院长、国际科学哲学院(AIPS)现任院长尤瑞•佐夫科(Jure Zovko)教授应武汉大学哲学学院陈波教授邀请,做客“武汉大学科学技术哲学论坛”,作了题为《诠释学对AI的挑战:为何AI无法进行判断?》的深度讲座。讲座由陈波主持,武汉大学哲学学院刘任翔副教授作评论人,众多教师和学生参与并展开深入研讨。

  
(诠释学与AI的相遇)
  讲座伊始,佐夫科首先界定了“AI”和“诠释学”两个核心概念。根据欧盟议会的定义,AI是“机器模仿人类推理、学习、规划和创造力等能力的技术”,其本质在于“模仿”。诠释学源自于希腊词“hermeneutikê technê”,即解释与理解的技艺,因而是一门探究“理解如何可能”的哲学学科。过去几十年里,诠释学已发展成为人文学科中具有普遍性的“第一哲学”与文明对话的“共同语言”。他进一步引入古希腊的“technê”概念作为二者比较的桥梁。这一概念远比现代“技术”范畴宽泛,涵盖了工艺技能、心智艺术与美术,是一种“带出”和“创造”的“知”与“解蔽”,正如海德格尔在《技术的追问》中所揭示的那样。而AI作为对人类智能的模仿是否有着无法逾越的界限,是要探索的核心问题。
  在讲座第二部分,佐夫科以达•芬奇的绘画《最后的晚餐》为范例,深度解析诠释学在面对作品时的运作机制,彰显人类理解的深度与创造性。在众多同主题画作中,达芬奇的版本之所以不朽,关键在于其完美的黄金分割比例、鲜明的动态感,对“耶稣宣告有人出卖我”这一关键瞬间的精准捕捉——这一时刻既是时间性与永恒性的交汇,又被达•芬奇以卓越技艺凝固为永恒。他强调了达芬奇与数学家帕乔利的友谊及后者的著作《神圣比例》的重要性。帕乔利的记录让我们得以理解达芬奇如何将几何的和谐赋予画中人物,使其姿态具有神圣维度。而绘画也揭示了达芬奇艺术观的核心:不仅是模仿,更是创造性的超越。在构图解析中,画中四个三元组使图遵循黄金矩形原则。画中基督是几何与叙事的双重中心,是动态中的静止点,如同欧几里得几何中的“点”,万物由此生发。佐夫科指出,这种理解不仅是对构图技巧的分析,更是对作者意图、历史语境及其永恒意义的深度重构与评估。他还引用达芬奇《绘画论》中“眼睛是灵魂之窗”“绘画科学始于点,其次是线,第三是平面,第四是披着平面外衣的立体”等观点,既体现了达芬奇对几何学的痴迷,也彰显了他将绘画视为创造性认知方式的独特理解。
  通过对艺术理解的剖析,讲座在第三部分过渡到对AI判断力之界限的哲学追问。佐夫科引入了海德格尔的思想,特别是“在世存在”(being-in-the-world)的概念,指出这并非指物理意义上的处于世界之内,而是指人与世界的原初关联性。人类的理解源于“在世界之中”的生存结构。我们通过“具身的、与文化交织的实践来理解事物”——正如海德格尔著名
  “锤子”例子所示,我们在使用锤子的过程中理解其意义,它指向工具、目的与文化实践构成的“意蕴整体”。
  在此基础上,佐夫科引用哲学家休伯特•德雷福斯(Hubert Dreyfus)对AI的经典批判。德雷福斯指出,人类理解的核心是“知道如何做”(knowing how),是一种在世存在的样态,而非仅仅是“知道那个”(knowing that)的事实和规则堆积。AI作为“无身体、无童年、无文化实践”的抽象引擎,缺乏根植于生活世界的实践性理解,“计算机理解椅子,却没有使人类能理解椅子的文化嵌入性”。更进一步,佐夫科聚焦于亚里士多德的核心概念“实践智慧”(Phronesis)。这是情境化的、关乎变化事物的明智决策与良善生活追求。它“既非基于规则,亦非基于概括”,无法被编程为特定的刺激-反应序列。这正是AI的盲点:它无法进行这种蕴含价值判断、基于具体情境和生命体验的实践性思考。结合海德格尔的区分,他强调“计算性思维(das rechnende Denken)与沉思性思维(das besinnende Denken)存在深刻区别”,“象棋计算机不思考,而是计算”AI擅长的是在既定规则下的高速运算与模式识别(如击败人类棋手),但这与需要理解语境、价值、历史和人类处境的“判断力”相去甚远。
  在指出AI的判断力局限后,佐夫科阐述了诠释学在当代技术世界中的新使命。基于其2023年发表的论文《将诠释学扩展到技术世界》,他指出,智能手机等数字技术已深刻重塑人类“在世存在”的方式,“以智能手机代替锤子作为分析对象,能清晰看到技术对存在方式的重构”。同时,AI的发展也带来了新的诠释学维度。它不仅是沟通媒介,更在积极地构建理解发生的环境。但当前AI系统缺乏的正是诠释学上至关重要的“在世存在”的实践维度。这种缺失导致其“理解”能力存在固有局限,并可能给未来社会带来重大风险。
  他通过区分狭义人工智能(ANI)与通用人工智能(AGI),指出ANI在医疗诊断、图像识别等特定领域表现出色,但AGI所要求的全面理解能力——包括想象力、批判思维、美感、道德感等,因为根植于人类的“具身性、历史性和文化性之中”,很可能无法实现。
  在讲座最后,佐夫科发出迫切的伦理警示:真正的危险在于technê目标的偏移。当前,基因编辑与AI研究正合力奔向一个目标:“增强”人类,甚至发展出远超人类智能的“超级人工智能”。他对此发出严厉警告:这如同“渡过卢比孔河”,可能是一场无法回头的冒险。他强调,若权力意志和贪得无厌在具有人工超级智能的即将到来的生命形式中仍然占主导地位,那么人类可能面临对其自身自决权的严重威胁。他指出,认为技术发展可以价值中立的观点是危险的。“我们并没有一套现成的‘超级伦理学’来应对超级智能的挑战,必须依靠并强化现有的伦理框架,对技术发展进行持续的、康德式的伦理反思判断。” 
  在评议互动环节,听众们就人类理性的独特性、AI的判断力边界等核心问题与佐夫科展开了深度对话。刘任翔充分肯定了佐夫科讲座的理论意义与现实价值,尤其突出了“因为AI是在世之中的人类的作品,因此AI本身不像人那样在世之中”之论证。他指出,人类与AI相比的独特性并非仅在于智力,更在于那些不可还原为智力的方面,尤其是人类与生俱来的“处于风险之中”的生存状态。
  陈波的提问将讨论推向更深层的哲学领域。他认为,人类与AI的关键区别或许并非“理解”或“判断”,而在于“意识”。“人类拥有意识,能自我设定目标、主动规划并推进。当我向AI提问时,它只是在处理我的指令并做出反应。它没有真正的‘自我’,没有内在的‘我思’。”佐夫科完全赞同陈波关于意识的观点,他认为AI永远无法拥有真正的意识,最多只能模拟出一些类似意识的能力,成为一种“准意识”,绝非“潜意识”(subconscious)。他重申,AI作为人类“技艺”的产物,无法具备人类那种植根于“在世存在”的自我理解与分析能力。
  佐夫科最后回归哲学的根本使命。他引用马克思在《费尔巴哈提纲》中的第十一条论纲——“哲学家们只是用不同的方式解释世界,而问题在于改变世界”,以及海德格尔在《黑色笔记本》中的警句——“人人都在解释,无人在思考”,呼吁在危机时代,哲学与诠释学必须思考得比以往任何时候都更深远。这场讲座不仅清晰地论及当前AI能力的理论边界,更在汹涌的技术浪潮中,为思考“人何以为人”以及“我们应创造一个怎样的未来”投下了一枚沉甸甸的哲学锚点。
【编辑:李秀伟】