人工智能创作的艺术伦理探赜

2025-11-03 作者:欧阳友权 来源:《中国社会科学》2025年第9期P123—P144

微信公众号

分享
链接已复制

摘  要:人工智能带给艺术的不只是创作工具的更新和作品形态的改变,还有艺术伦理的挑战。人工智能艺术伦理之成为问题,源自科技与人文关系中的人类中心主义情结,其理论逻辑的主体性哲学表现为器物层面的“技托邦”憧憬和价值层面的伦理隐忧。人工智能的“拟人”智能不断强化“拟主体”,在伦理价值上形成恒定性、认同以及物质替代的艺术哲学衍生,这可能会在人文伦理层面上带来“忒修斯之船”式悖论。谨防人工智能艺术的“非人伦理”,需要建立后人类智能伦理边界的价值对齐信念,用人文价值观为未来的人工智能艺术立法,从科技伦理和价值赋能两方面构筑艺术的“伦理绿坝”,据此勘察人工智能艺术的伦理边界;同时采用技术的、法规的、道德的律令防控伦理风险,赋予人工智能艺术以伦理价值。只有这样,AI“技术魔方”生产的艺术,才仍然会是那个能让人类诗意栖居的精神家园。

关键词:人工智能创作;艺术伦理;AI艺术伦理边界;价值对齐

作者欧阳友权,中南大学人文学院教授(长沙410083)。

  人工智能(AI)给人类造成的可能性隐患与技术伦理风险直接相关,人们对人工智能艺术的质疑也主要是基于对这一艺术伦理风险的焦虑。我们不怀疑AI技术催生物质生产和社会服务诸多领域的革命性变化,但对于作为精神生产的艺术创作而言,人工智能带来的不仅是创作工具的更新和作品形态的改变,可能还会有艺术伦理的挑战。探究人工智能创作的艺术伦理,旨在推进智能科技的人文化和人工智能艺术生产的人文伦理性,以造福人类及人类的艺术创造。

  一、人类中心主义思维逻辑与AI技术的伦理隐忧 

  人工智能艺术伦理之所以成为艺术创作的一个关注焦点,源自科技与人文关系中的人类中心主义情结,即建基于人类中心主义的人文艺术中心论。我们千百年积淀的文艺传统形成了一个基本的观念共识:艺术的本质是人文的、审美的,而不是技术的或技能的;艺术永远都是属于人的、为了人的,而不是属于人以外的、为了人以外的任何东西,包括技术机器的。艺术是“道”,创造艺术的手段是“术”,道是本,术是末,不可本末倒置,任何文学艺术创作都应该精于术而明道,不可求于术而乏道甚或叛道,秉持这一观念的底层逻辑便是人类中心主义。

  人类中心主义是一种古老的理论,其核心观点有二:其一,人是目的,而不是实现目的的手段,人类的一切行为和活动都应该以人类自身的利益和目的为出发点和归宿。古希腊智者普罗泰戈拉提出的哲学命题“人是万物的尺度”便是对它的经典表述。其二是价值主体论,认为在人与外物的价值关系中,人是价值判断的唯一主体,任何评判价值的尺度都必须掌握在人的手中,判断外物的价值要根据其对人类的有用性来确定。

  在长期的历史发展中,人类中心主义衍生出人的主体性哲学和现代生态主义。其中,现代生态主义是在全球生态危机的压力和现代环境运动的激发下形成的理论观念,认为人类中心主义过分强调人与自然关系中人的主体地位,无视环境资源的有限性,人类为满足对物质财富和精神享乐的追求,过度攫取自然资源而破坏环境和生态平衡。现代生态主义主张人与自然的和谐以维系“绿色社会”生存方式,并以生态价值观来重新界定人与自然的和谐统一关系,希望以此避免全球生态危机。这种基于生态主义的人类中心主义侧重批判性反思,对现代文明构建意义深远,但不在本论题讨论之列,此不赘述。

   真正对人工智能的艺术伦理产生深刻影响的是支撑人的主体性哲学的人类中心主义,以及据此衍生的人本观念孕育的主体性哲学的思维逻辑。在哲学史上,主体性哲学一直是近现代哲学的主流,它涉及人的意识、自我决策和自由意志等方面,强调人作为主体,在与客体的关系中所表现出来的自为的、自觉的主观能动性。康德提出“人是目的,而不是手段”。他把意志自由视为实践理性的三大公设之一,“视意志自由为道德存在的唯一根据,反对道德领域的一切‘他律’,把‘理性为自己立法’的‘自律’视为一切道德法则和符合这些法则的义务的唯一原则”,并明确要求“每一个理性存在者都必须通过自己的意志的一切准则而把自己视为普遍立法者”。在康德主体性思想启蒙下,费希特力图把“自在之物”的自我变成为主动的创造者,使先验的自我转化为充满创造精神的行动者。黑格尔用精神置换了康德的理性,并用绝对精神探索描述人类主体的认识过程,从而揭示主体知识与认识对象之间矛盾运动的精神现象学。后来的西方哲学从理性和自我意识的角度来理解主体,相继出现主体性的认识论转向:如笛卡尔的“心物二元论”强调心灵与物质、思想与广延的对立关系;叔本华等人的唯意志主义和柏格森的生命哲学开辟的生命主体性转向;以及海德格尔的存在本体论从“在者”向存在的转向;再经过哈贝马斯的交往理论和伽达默尔的哲学诠释学,主体性哲学的出发点由作为个体主体的人,转向了超越个体主体的,具有某种客观结构的语言关系和交往关系。直到德里达等人的后现代思潮对中心性主体的消解,主体性理论终而以一种新的、非控制的、多元离散的主体性形式出现。至此,主体性既是人作为主体所具有的性质,又是人作为主体的根据和条件,目的是达成自为的自律性、自觉的能动性和自由的超越性,既让人的主体性成为不断跃升的历史,也为人类中心主义提供了哲学依据。 

   马克思主义哲学认为,主体不是既成的、与生俱来的结果,而是实践活动中的历史生成,是摆脱了物对人的束缚,使人本身真正成为目的的产物。按照马克思的说法,人的主体性价值是以人本身为目的的价值,即自由的目的性。马克思在《1844年经济学哲学手稿》中提出,人以一种全面的方式,作为一个完整的人,把自己的全面的本质据为己有。“动物和自己的生命活动是直接同一的。动物不把自己同自己的生命活动区别开来。它就是自己的生命活动。人则使自己的生命活动本身变成自己意志的和自己意识的对象。”“动物只是按照它所属的那个种的尺度和需要来构造,而人懂得按照任何一个种的尺度来进行生产,并且懂得处处都把内在的尺度运用于对象;因此,人也按照美的规律来构造。”只有在自由个性全面发展的时期,人才能真正作为自主活动的主体而存在,把中心性、关系性和过程性通过价值生成的实践活动统一起来。这就走出了单纯执着于人的先验主体或生存主体的偏狭,赋予人的主体性以历史唯物主义内涵。 

 

   同样,基于主体性的哲学传统,“人文艺术”中心论也是西方文论传统的基石。古希腊哲学家德谟克利特曾以人的热情和灵感来界定诗歌的美,他的《著作残篇》记载:“一位诗人以热情并在神圣的灵感之下所作的一切诗句,当然是美的。”柏拉图在《伊安篇》里以“人”作比:“一个人若是不了解诗人的意思,就不能做一个诵诗人。”亚里士多德提出著名的“摹仿说”,他据此论及喜剧和悲剧时也是以“人”为对标:“喜剧总是摹仿比我们今天的人坏的人,悲剧总是摹仿比我们今天的人好的人。”后来,贺拉斯提出“寓教于乐”,文艺复兴时期卜迦丘主张“诗情精神力量论”,18世纪法国启蒙运动代表狄德罗认为艺术家的职责是“打动人心”。德国诗人席勒把基于现实和抒发理想的两类作品称为“素朴的诗和感伤的诗”。巴尔扎克把文学与人的关系描述得更形象:作家笔下的“人物是从他们的时代的五脏六腑孕育出来的,全部人类感情都在他们的皮囊底下颤动着,里面往往掩藏着一套完整的哲学”。再后来有列夫·托尔斯泰把艺术界定为“情感表达”;里普斯用“移情作用、内摹仿和器官感觉”表征艺术创造;存在主义认为“写作是某种要求自由的方式”(萨特),艺术的“在”是让人能够“诗意地栖居”(海德格尔);卡夫卡认为,文学要表达孤独、苦闷情绪和无能为力的恐惧感;荒诞派剧作家尤奈斯库也以人作比,现实让人感觉到荒诞,“人间变成一个令人窒息的地牢”,他只能用荒诞的形式对抗黑暗和虚无。人类中心主义是人的主体性的理论基础,而人的主体性理论则是“人文艺术”中心论的哲学源头,它先验地厘定了人与艺术的人文审美关系。 

   人类中心主义及其主体性人文艺术中心论的理论逻辑曾受到尼采、福柯等人的质疑,尤其是结构主义、后结构主义的挑战,但真正对其构成实质性影响的是人工智能技术的兴起。因为人工智能“拟人”创作、代人表达,让昔日唯一的“人主体”出现“身份外挂”,主体性哲学不得不对此作出自己的解释。美国计算机科学家库兹韦尔(R. Kurzweil)说过,“人类这一物种,将从本质上继续寻求机会拓展其生理和精神上的能力,以求超越当前的限制。”人工智能的发展让这种超越有了新的利器,AI的技术“拟智”性让昔日的主体有了一个僭越的“他者”,或“我”的“替代品”,昔日高高在上的人类中心主义仿佛一夜间被拉下神坛,其“人本体—人类中心主义—主体性哲学”的思维逻辑链条正遭到技术理性的拆解。人机协作的创作方式不仅已经让“主体”成为“间性主体”,还使其有可能完全失去主体身份。特别是生成式人工智能(GenAI)出现后,基于算法模型生成文本、图片、声音、视频、代码等,可以快速处理数据,还能学习和模拟事物内在规律,再造三维世界,自主创造出新的内容。于是,人类中心开始让位给数据流,人的主体性也让渡给机器的“拟真度”,此时会出现什么结果呢?很显然,席卷而来的人工智能浪潮,一方面通过外化人的智能工具延伸并增强人类认识和改造世界的能力,另一方面也给传统的人类中心主义观念带来巨大冲击,形成对“主体性”哲学的新挑战,反映在精神和心理上主要有两种表现:器物层面的“技托邦”憧憬和价值层面的伦理隐忧。 

  在器物层面上,人工智能无疑能给人以乐观的期待,哪怕只是“技托邦”式的憧憬。一个显而易见的事实是,AI技术的强大力量,有利于提高社会生产力,提高工作效率,推动技术创新,创造新的经济增长点,改善人类生活方式,并且以不可逆的姿态把社会推向技术文明的高台。库兹韦尔引述尼克·波拉斯拉姆(Nick Bostrom)的话:“超级智能还可以为我们创造机会,极大地提高智力和情感的能力,还可以协助我们创造一个充满吸引力的体验世界,在这个世界中,我们可以快乐地娱乐,快乐地与他人相处,快乐地体验、成长,这便是近乎完美的生活。”他还乐观地预测,未来的人工智能将会在更为强大的数字基础上重新构建自然赋予我们的智能,“我们将与技术共同创造,让我们的思维进化得以获得更深刻的洞察力,并利用这些力量创造出让未来的心智去体验和领悟的超凡理念。”

  在精神层面上,面对人工智能技术不可逆的飞速发展,许多人却不是那么乐观,甚至因伦理隐忧而悲观。因为AI技术已经对人类的生存产生了巨大的影响,不仅在于替代某些工作岗位,使许多人失业,造成就业结构失衡,如导致社会出现高技能人才短缺和大量高低技能劳动同时被替代并存的现象,还在于AI技术被利用或被滥用给人们的心头蒙上了一层阴影,让许多人对技术的未来,进而对“高技术”下的人类生活失去信心,出现难以回避的“期待焦虑”或“伦理隐忧”。

   在人工智能时代,人类中心主义及其主体性,并非属于需要唾弃的过时观念,人们对技术伦理的担忧也不单纯是出于对人类中心主义信仰跌落的焦虑,更多的是基于对现实利害的考量和对人工智能未来发展的担忧。AI技术是一柄“双刃剑”,它能造福人类,也能伤害人类,关键是看它掌握在谁的手中,要达到什么样的目的,以及如何实施对技术的伦理掌控。事实上,在AI技术取得突破性进展并被广泛使用后,已经出现诸如数字鸿沟、算法偏见、技术异化、效率陷阱、情感虚置、标准化规训等多重伦理困境。有报道说,技术本身并非总是“向善造物主”,AI大模型有时会造成“幻觉”,它会像人类一样造谣、撒谎、杜撰莫须有的事(可能并非主观故意),或“一本正经地胡说八道”(或许并非出于恶意动机)。利用AI换脸、AI配音骗局,伪造图片敲诈,盗取原创短视频诈骗等犯罪行为已经时见报端,更不用说算法偏见对社会公正的伤害、侵犯隐私对个人权利的僭越等,它们均是人工智能时代滋生伦理隐忧的现实根源。新华社曾提出“警惕‘AI污染’乱象”问题。信息垃圾导致的“AI污染”警示我们,在人工智能越来越普遍应用的今天,我们不仅要明确AI的应用边界,提高对AI生产内容的辨别能力,还需要健全科技伦理,加强AI内容生产源头和传播渠道的监管与治理。当算法比我们更懂情绪操控,人类或许正沦为信息时代的提线木偶,在AI“技术通吃”时代,真正决定人类未来的是AI能否帮助我们突破算法牢笼而非打造精致的“电子镣铐”。可见人类中心主义、人的主体性观念以及人文伦理,不仅没有过时,而且需要在新的技术语境中被赋予新的内涵,并给予强化和发展。 

  人类运用的技术工具越是复杂,所涉及的伦理问题也相应越复杂和特殊,感性、理性、情感相交融的艺术创作更是如此。建基于人类中心主义思维逻辑的人文艺术主体性,在人工智能技术的加持下正发生新的变化,人类的艺术生产不仅面临创作工具和传播载体的本体置换,更需要迎接诸多艺术伦理问题的新挑战。

  二、“忒修斯之船”与人工智能艺术的“拟主体”伦理 

  人工智能的“类智性”让人类中心的主体性出现“技术位移”——人机交互的“拟主体”哲学观念开始浮现,人工智能创作伦理的焦点亦便衍生出 “拟主体”伦理问题。它意味着艺术创作主体及其伦理面临重新勘定:人工智能艺术的主体伦理中的主体究竟是创作者(人)的主体,还是人工智能(机器)的主体,抑或是二者兼而有之的“拟主体”?如果是后者,那么“拟主体”也有伦理吗?如果回答是肯定的,那么这个“拟主体”的艺术伦理究竟是人(创作者)所秉持的,还是机器(AI)赋予的呢?如果二者兼而有之,他们(它们)之间又是什么样的关系呢?

   从符号主义到连接主义,从神经网络到深度学习,从算法智能到语言智能再到想象智能,人工智能技术一路矢量向前。就目前的发展水平而言,与其他领域一样,用于艺术创作的人工智能尚处在弱人工智能阶段,至多属于弱人工智能迈向强人工智能的过渡期。库兹韦尔等人把人工智能的发展总结为三个阶段。第一阶段是弱人工智能(ANI),也称基础人工智能或限制性人工智能,只针对某一项或某几项特定任务进行高效处理,如阿尔法狗(AlphaGo)只能在围棋领域大显身手,对解决其他领域的问题则无能为力;第二阶段是强人工智能,或通用人工智能(AGI),它可以像人类一样独立思考、学习和解决问题,其智能与人相近;第三阶段是超人工智能(ASI),能在所有领域都超越人类,在伦理、社会和法律方面都将带来问题,具有难以预料的不确定性和巨大的潜在风险。与人类共存共生的“仿真人”会不会超越或消灭人类?需要我们高度警觉。未来的人工智能发展势必带来科技领域的巨大飞跃和颠覆性变革,人类会不会就此打开威胁自身安全的“潘多拉魔盒”? 

   人们的担忧不无道理,因为不断升级的“拟人”智能所催生的“拟主体”,或将在人文伦理上出现“忒修斯之船”式的悖论,即在伦理价值上产生恒定性、认同以及物质替代的艺术哲学衍生。当下的人工智能创作,只在局部或部分功能上替代人的创作,如同一次次抽取“忒修斯之船”上的小木板一样,渐进式替代人的艺术创造能力。比如文学写作主要用于写诗、写散文、写短剧脚本、写短篇故事,或者成为“作家助手”,在长篇小说创作时提供故事创意,代拟某些情节、桥段、细节、场景,或文字、句式的修改校对等,如ChatGPT系列、DeepSeek;或者实施美术创作、文生图、文生视频、文与图生视频,如Claude、Runway;还有音乐创作工具Suno、Udio自动生成歌曲;等等。这个时候的艺术“拟主体”属于“间性主体”,由此产生的艺术伦理是由人(创作者)掌控的伦理。但问题在于,这个过程不是恒定的、预设不变的,AI技术性能在艺术品生成中的自主性比重是不断增加的,就如同前两年热议的增强现实(AR)、混合现实(MR)、虚拟现实(VR)、元宇宙(Metaverse)、区块链(blockchain)等,在数字技术的镜像中,适于文学艺术创作的原子化物理现实正日渐退化直至消隐,拟人化的技术操控则一步步走向前台。我们所要担心的是:人和人的伦理价值观在人工智能艺术中的影响力会不会随之也出现退化与消隐?如果这一不确定性是确定的,那么人类所需要的艺术伦理会被什么样的艺术及其艺术伦理所替代呢?这正是“忒修斯之船”带给人工智能艺术的“拟主体”伦理焦虑难以消除的原因。 

  在学理逻辑上考辨这一“忒修斯悖论”,需要廓清三个艺术哲学问题。

  其一,“拟主体”伦理的工具理性与价值理性。

  人工智能艺术的“拟主体”有一“拟”字限定,意味着这个所谓的艺术“主体”不过是代人行事,其“拟”的过程伦理与结果伦理归根到底仍是由人的伦理所掌控和赋予。那么,AI设计者和技术操作者(艺术家)作为艺术创作本源主体的伦理意识、道德觉知和人文价值观就显得至为关键。在通用人工智能到来之前,人工智能的意识和自我意识均属“拟”人而为,那么,考辨人工智能艺术的伦理问题就需要回到它的本体和原点,即创作主体的伦理选择——是选择工具理性还是价值理性。

   “工具理性”与“价值理性”源于法兰克福学派对现代资本主义社会的批判,马克斯·韦伯(Max Weber)正式使用这一对概念并将其用于分析现代社会人的异化现象。其中,工具理性(instrumental rationality)是一种以工具崇拜和技术主义为生存目标的理性形式,强调功利导向、手段至上和效率优先,漠视人的情感与精神价值。与之相对应,价值理性(value rationality)则是基于对某种价值内涵,如道德、伦理、宗教、美学或意识形态信念的坚定信仰,不注重结果是否有利,而关注行为本身是否符合内在价值或终极意义的价值观,具有非功利、原则导向和内在驱动等特点。价值理性提醒我们,在技术发达的现代社会,人类应该建立精神和意义信仰,尤其需要构建道德和伦理信念,为欲望生存和大众文化保留一份澄明情怀和艺术审美空间,关怀人性的世界、人文的世界和意义的世界,避免被消费社会的功利主义所吞噬。 

  在人工智能时代重提工具理性和价值理性,对于我们探讨的人工智能艺术“拟主体”伦理有着特别重要的意义。人工智能是人类历史上至今最强大、最犀利的工具;在艺术生产世界,人工智能同样具有超越人类历史上任何一种创作工具的强劲生产力,无论是写诗、作画、创作音乐,还是制作影视、游戏、动画、短视频,这个“工具达人”神奇的创作效率,可以让任何一位艺术家望尘莫及。但人工智能“拟主体”创作时的工具理性强度并不能带来创作结果的价值理性高度,如果仅有创作工具的“尖牙利爪”而无人文价值的培根铸魂,所谓的“人工智能艺术”无论多么新奇和卓异,都不过是一堆没有灵魂的躯壳。

   人工智能工具也许可以写出比《红楼梦》更曲折的故事,创作出比毕加索更多的画作,抑或作出比贝多芬更丰富的乐曲,但以当下的生成式人工智能水平而论,人工智能创作的小说不会有曹雪芹的《红楼梦》那种家道中落、“举家食粥酒常赊”的生命苦痛,再强大的人工智能制图工具也画不出毕加索的《格尔尼卡》,再先进的音乐创作软件也创作不了贝多芬的《命运交响曲》,因为后者蕴含的人文、人性、人道的价值观及其与命运抗争的意义世界,是类似人工智能大模型等非生命智能体永远理解不了也建构不起来的。2025年播出的科幻IP网络电影《红土地》,讲述了未来核战爆发后,人类转入地下生存,与核辐射变异怪兽搏斗并绝境求生的故事。作品大量运用人工智能技术构建出一个独特的地下乌托邦世界,让整部影片具有强烈的未来科技感。创作者对人工智能工具的使用十分成功,那满目疮痍的废墟、令人毛骨悚然的怪兽、核污染下变异的窟族等,在镜头下无不栩栩如生。但该片的审美内涵不仅在于视觉的科技感和艺术性,更在于借助科技艺术的表现力展现的人类在绝境中不屈不挠的抗争精神,以及人与人之间共克时艰的友善与关爱,是工具理性与价值理性的艺术融合成就了这部科幻影片的价值。以人为本、科技向善,而不是技术至上、效率优先,这才是人工智能创作“拟主体”艺术伦理所要追求的目标。人工智能艺术需要植入的是人类精神的DNA,而不是流水线上的快消品;技术永远在迭代,唯有人文精神应该永远在场。 

  其二,“拟主体”伦理的“查默斯僵尸”悖论。

   “查默斯僵尸”悖论涉及心灵与身体之间是否存在分离的问题,即意识、感知与存在的关系。传统物理主义认为,物质的存在是意识的基础和前提,意识应该由物理过程来解释,而僵尸悖论现象表明,仅从物理角度可能无法完全解释意识的存在,因为即使一个实体(如僵尸)在行为和生理上表现得与有意识的个体一样,也不能保证其具有真正的意识,这是否意味着意识可能具有某种独立于物理身体的特性,而不仅仅是基于物理的结构和功能呢?经验论者试图把一切现象都还原于经验,但在逻辑实证主义退潮后,实在论重回科学界主流,对于意识向经验的还原常常被庸俗化为对特定“大脑组织”的还原,也就是还原“实在论”。随着科技的进步,仅靠物理学无法解释意识的“意识难题”,似乎有理由让神经科学家相信,互联网或人工智能可能很快会变得有意识,尽管这是一个令传统物理主义者深感不安的结论。 

   从理论上讲,人工智能似乎表明,人类所知道的关于这个世界的一切或许只是技术精心设计出来的“幻觉”,但人的意识本身不可能是虚幻的。人工智能用于计算的数字化符码似乎不是物理的,也不是心理的,只有内部有意识的人才能观察到。如果能够用物理结构和功能之外的因素来解释意识现象,说明意识和物理身体之间可能并非简单的依存关系。笛卡尔认为,心灵必须是由一些特殊的、非物质的东西构成的,这些东西不遵循自然法则,那么数据化大模型“算”出的意识要遵循什么法则呢?这种非物理性的精神性的东西如果确实存在,它是否就意味着改写了物理定律?大脑的正常运作看起来好像是基于某些非物理的东西,那么,“拟主体”的大脑又是如何做到的呢?可见,“查默斯僵尸”悖论激发的是对身心关系、意识本质的思考,有助于我们重新审视人工智能时代的人机关系,考辨“心—物”二分在技术智能语境下发生了怎样的变化,进而考察这些变化会带来哪些技术伦理问题。 

  很显然,在通用人工智能、超人工智能和脑机接口的“后人类”智能尚未成为现实的情况下,“拟主体”的意识包括伦理意识,只能是基于数据、算法和算力而获取,无须借助脑成像技术、脑电记录等神经科学方法去观察大脑在产生意识体验时的神经活动区域及功能模式。技术智能体就是智能迁徙的“查默斯僵尸”,它的“僵尸之谜”已经是人的智能的“技术外化”,AI技术的开发设计者与使用者就是掌控意识、决定技术伦理的“上帝”。至此,科技伦理或者AI艺术的“拟主体”伦理便是可以认知和能动把握的意识现象,这便是库兹韦尔所说的:“机器人技术,它所涉及的非生物智能的创造超过了非增强性的人类。较高的智能处理定然会超过低智能处理,它将令智能真正成为更加强大的力量。”

  其三,“拟主体”的技术逻各斯及其“技托邦”风险。

   自从古希腊德谟克利特把“逻各斯”(logos)引入哲学领域以来,这一概念便有着广义和狭义之分。狭义的“逻各斯”是指语言言说和意义规则,而广义的“逻各斯”则是指一种隐秘的、支配万物运行的普遍规律、共同法则和核心逻辑。这里是在后一种意义上使用它的,即人们赋予人工智能的规律、法则与逻辑,并认定这一技术在功能上的逻辑可然性与历史必然性。那么,在人们的期待视野中,AI艺术“拟主体”伦理的技术逻各斯会以怎样的技术逻辑,达成什么样的可然逻辑呢?库兹韦尔从生物和技术两方面将技术逻各斯的进化史分为6个时代,分别是物理定律和化学定律时代(地球早期无生命体阶段),生物与DNA时代(生命诞生与发展阶段),大脑进化时代(人类诞生),技术纪元时代(人工智能正在指数级增长的当下),将人类的生物认知与数字技术的速度和力量结合(脑机接口)的时代,这种结合将释放现在难以想象的认知能力,最后是宇宙觉醒纪元时代(人类智能将延展至整个宇宙)。库兹韦尔认为,前3个时代已经过去,今天正处在第4个时代的节点上。此时,我们期待的人工智能艺术“拟主体”伦理技术逻各斯的可然逻辑是什么呢?那就是实现通用人工智能能够像人类一样理解、学习、推理并解决各种复杂问题,并且在不久的将来,能升至强人工智能或超人工智能,拥有真正意义上的意识、情感以及自我认知,不仅能基于算法和数据完成指定的任务,还能像人类一样有主观体验、内在的心理状态,可以感受到快乐、悲伤等情感,甚至帮助人类解开自身智能如大脑的奥秘。更为重要的是,在这个过程中,“拟主体”智能还能与人类和谐相处,不会出现因智能失控给人类带来危害的情况。 

   库兹韦尔的6个时代划分,为我们理解艺术“拟主体”技术逻各斯的原始设定提供了终极目标,但从今天的技术水平来看,这个目标可能仍然是一个“技托邦”——通过技术手段构建的理想社会或艺术虚拟世界,AI“拟主体”的代人(艺术家)履职很可能难以如愿,原因有二。其一,当下的AI存在技术上的瓶颈。一方面,“如Gemini和GPT-4这样的顶尖AI系统正在将它们的能力拓展至许多不同的领域,这些都是通往智能道路上令人鼓舞的成就”;另一方面,在通过图灵测试之前(图灵测试观念本身也在发展),人工智能还需要跨越诸如情境记忆、常识理解能力、社交互动等众多障碍,“AI也许能创作赢得格莱美奖的歌曲,但或许写不出能赢得奥斯卡奖的剧本;它可能解开数学的千年难题,但或许无法产生有深度的新哲学见解”。当然,这种情形不足以否定AI创作和创造的可能性,在当前的情况下,将其作为可能出现的情形讨论人工智能艺术创作伦理问题仍将是有价值的。其二,也是更为重要的原因——人工智能“拟主体”是否能够建立起伦理(含艺术伦理)安全阀门,以防范“技托邦”风险或破解“忒修斯悖论”呢?如果人类未能彻底认清人类智慧本身的生物原理,即科学家未能在实验室里对人脑的工作原理做出生命与人性、情感、智慧、信仰等的通透认知,我们就不能真正厘清AI拟智能的生物信源,并建立起人工智能的伦理安全阀门,“技托邦”的伦理风险就一直存在。正如有专家所忧虑的:“假如未来人工智能获得与人类对等的自我意识,而能力又高于人类,那么就一定能够破解人类的统治。由此看来,能够保证人类安全的唯一办法只能是阻止超级人工智能的出现。可是,人类会愿意悬崖勒马吗?历史事实表明,人类很少悬崖勒马。”语言大模型的“机器黑箱”、用于AI深度学习的神经网络功能原理的“不可解释性”,无疑在加深“技托邦”的伦理风险,甚至不断制造出新的“忒修斯悖论”,这是我们在警惕人工智能“拟主体”创作伦理隐忧时需要特别关注的。作为一种人工智能艺术观念,这种“技托邦”幻象或将给人工智能创作带来一定的艺术伦理风险:一是可能丧失对艺术的信仰,把文艺创作看成“游技之术”,而不是《论语》所谓“志于道,据于德,依于仁,游于艺”的价值塑造,或《道德经》中提到的“道生”“德蓄”“物形”“器成”的生命创造,把艺术降格为炫技而成的技术流觞;二是对人的主体性的弃置,把艺术与人的本体关联理解为“技”与“艺”的耦合关系,使AI的艺术创造成为外在于人的技术化生成,造成艺术逻辑原点的“非人化”;三是对艺术意义的人文偏离,技术至上,试图用技术的“金手指”去解决艺术创造的所有问题,让人文审美的艺术核心意义消弭在“技术通吃”的艺术实验中。 

  讨论了艺术伦理的三个哲学问题后,人工智能艺术的“拟主体”伦理还需要回答下面两个问题:艺术伦理与一般伦理有何区别,以及人工智能时代的艺术伦理本身的边界是否发生了变化。

   先说前者。艺术伦理是伦理学在艺术领域的延伸,它必须遵循一般伦理规范和原则。文学是人学,伦理学是有关人文伦理道德的学问,文学永远不可能脱离伦理道德的赋能和规制。在这个前提下,艺术伦理的具体内涵大抵包含三个维度。第一是人性的维度。艺术永远保留着人的“精神脐带”,一个艺术作品的内容需要体现出人的生命温度,让艺术书写蕴含人文情怀,使艺术作品拥有对人文伦理的洞明体察和深入挖掘,做到“洞性灵之奥区,极文章之骨髓”。第二是社会历史维度。艺术作品应该有对历史正向价值和社会主流意识形态的清晰判断和精彩表达,有对真善美和假恶丑的清晰分野,有对社稷苍生的关注与责任担当,透过作品能让人感受到时代的变迁和历史的潮动。第三是艺术审美维度。即能否用高超的原创性艺术手法,打造艺术的崭新形态和诱人魅力,用艺术审美值承载人文伦理值,又用人文伦理值提升艺术审美的价值,让作品达至“外师造化,中得心源”的艺术境界。 

   再看人工智能时代艺术伦理本身的边界是否变化问题。美国学者萨贝洛·姆兰比(Sabelo Mhlambi)说:“伦理是衡量一个人跟他人、环境及所有其他相互依存部分之关系的尺度。”人工智能时代的人,已经或正在与他人、环境、技术发生深度相嵌的依存关系,其艺术伦理,特别是人工智能艺术伦理的评价尺度(即边界)也将发生相应的变化。比如,人工智能艺术伦理可能出现技术化“幻觉”,在表达伦理信息时,看似合理连贯,实则暗藏逻辑矛盾或缺乏现实依据,实际是模型基于训练数据的模式匹配和概率计算产生的“虚构信息”,可能是因为“一个一致的形式系统,(如计算数学)本身并不能证明由该系统的规则和公理所产生的所有定理之真伪”。此时的人工智能创作,不仅应该为艺术伦理设立边界“篱笆”,还应该为其配置道德“警察”。再如,人工智能创作过程中存在“幽灵控”现象——算力“蒸馏”、算法容错、数据编程与艺术伦理意图之间存在非兼容性,不仅来自“提示词工程”对艺术目标的引导与限制,也来自“技术黑箱”连同数据库的质和量与作品产出品质间形成的函数关系,既有自变量的影响,也有因变量的制约,从而导致艺术伦理的越界。还有,人工智能艺术伦理评判尺度的“非依源性”。例如,人工智能创作的表现对象(如虚拟世界)、创作方式(如程序创作、人机交互)、作品形态(如可能出现新型的AI艺术)、传播和接受方式(如“拉传播”、互动欣赏、欣赏即创作)等,均发生诸多改变,新的文艺存在方式及其结构和功能形态或将使原有(“源”)艺术伦理评价尺度失去合理性与必然性(无从依傍)。再比如,在传统现实主义的基础上出现“虚拟现实主义”“游戏现实主义”;传统的作家伦理衍生出“拟主体”伦理;传统“典型环境中的典型人物”延伸为“虚拟偶像”“玄幻人设”;传统的文字书写转型为“文、图、音、影、游”融合表意;等等。不仅如此,还有技术工具的升级换代和不同技术路线带来的复杂变化等。目前的人工智能,在技术上主要分为符号主义、连接主义和行为主义等不同技术路径和派别。其中,符号主义是通过编程模拟人的心智,形成结构化知识处理数据并进行推理的功能模式;连接主义认为意识来源于大脑,试图通过输入输出来制造“黑箱”以模拟大脑运转过程,ChatGPT即属此类;而行为主义的出发点是模拟人的行为,通过对环境中的刺激作出反应来完成任务。当下最先进的大语言模型研究,正试图整合符号主义的可解释性、连接主义的抽象能力与行为主义的环境互动,但最终只是模仿人类解决问题的能力,不能建立独立发现问题和定义问题的能力。面对AI技术的功能各异,以及用于艺术创作时的千差万别,人工智能艺术伦理的评判体系和批评标准必然出现一定的差异性和不确定性,这也就意味着人工智能时代,艺术伦理本身的边界必然发生某种改变,并且还将随着人工智能及其创作的快速发展而加快改变的进程。 

  三、“后人类”智能艺术伦理边界与“价值对齐”信念 

   我们毫不怀疑“拔节式”发展的人工智能必将拥有改变艺术世界的能力,问题在于,这一技术能力是否具有人文伦理足够的“鲁棒性”(robustness)力量,促使人类的艺术世界向着更好的、升级进化的方面改变,而不是朝着反艺术、逆人文审美的方向狂奔,这是考辨人工智能创作的艺术伦理时不得不严肃对待的问题。加拿大学者索非安·奥德里(Sofian Audry)在《人工智能艺术:机器学习时代的新艺术形式》一书中,把人工智能创作看作一个“机器学习艺术”的过程,认为它推动了艺术创作进入“分布式主体”与“涌现”状态的复杂范式,将给艺术定义和审美标准、艺术教育和创作实践等带来多方面的挑战,尤其是在伦理、社会和文化等方面引发一系列问题,例如如何看待机器生成的艺术作品的版权问题,以及人工智能技术可能带来的社会不平等和文化同质化等问题,因此需要反思人工智能艺术的社会、文化与伦理影响。他认为:“新技术往往与公共利益背道而驰。历史的真正挑战不在于技术进步本身,因为这是一个不断发展的过程,它关乎明确我们作为一个物种想要发展什么样的人类品质,以及我们想要共同创造什么样的世界。”他启示我们,当我们谈论AI艺术创作时,不仅要明晰它的伦理边界,还应该懂得如何为之设置伦理界碑。 

  确证人工智能艺术的伦理边界,首先需要建立起“后人类”智能的“价值对齐”信念,并在艺术创作实践中自觉追求艺术伦理的价值对齐。“后人类”包括“数字人”或曰“数字智能体”,它类似于人工智能发展到通用人工智能阶段后的“类人”或“超人”,而所谓“价值对齐”其实就是科技向善、以人为本,让科技的创造力与人类的价值观相一致,信奉发展科技的初衷是满足人类对幸福的期待,使人类的生活(包括艺术生活)更美好。

  我们该如何利用伦理的边界防止机器人独立进化而伤害人类艺术呢?“价值对齐”的信念和规制应该成为AI研发和应用的一条“阿里阿尼彩线”。这一观念的逻辑指向是:确保人工智能系统的艺术行为和目标与人类的价值观、道德准则以及社会利益一致,辨析人类价值观念和道德伦理嵌入人工智能系统时的伦理共识与多元价值诉求,让人工智能在运行过程中能够理解并遵循人类所期望的价值(含艺术价值)观念,从而避免产生与人类利益相悖的行为与结果。

   历史的经验告诉我们,技术的进步是一维的、矢量的,艺术的主体性从“间性主体”到“拟主体”再到独立的“后人类智能主体”或将是必然的,不可逆转的。此时我们所担忧的或许不是硅基智能物种创造出稀奇古怪的艺术形态,而是担心它可能自己定义艺术的标准,重新为艺术立法,造成艺术伦理的“非人化”,并终而成为艺术的“败家子”。由此衍生出更糟的情形则是:艺术家越来越像人工智能,而不是人工智能越来越像艺术家——人工智能加持下的艺术让我们人类放弃了艺术应有的逻各斯承诺,无视人文伦理、艺术审美的价值坚守,而任由缪斯女神在智能技术的狂飙突进中没入非艺术的烟尘。因为此时,如马克·波斯特(Mark Poster)在《信息方式——后结构主义与社会语境》一书中所言,“电脑书写处于划分主体性与客体性的界限上,给笛卡尔二元论所代表的澄明而确定的世界带来些许含混。人类面对机器,其关系像照镜子一样,令人焦虑:电脑作为机器以它的非物质性模仿着人类”, 这样会带来怎样的结果呢?正如该著的译者序中所描述的:“电子媒介以其强有力的‘符号暴力’摧毁了一切传统的边界,文化趋向于同质化和类型化,但它又为各种异质因素的成长提供了某种可能。”人类不得不对这一现实保持必要的警惕。 

  对于人工智能创作来说,实现人工智能艺术伦理的“价值对齐”,需要把艺术审美的伦理价值信念贯穿于人工智能创作的全过程。

  其一,建立技术前置的程序性艺术伦理预警机制。

  当人类意识到人工智能可以进入艺术堂奥而成为创作的“幽灵工具”时,就应该在科学主义的语境中植入人文主义的设计理念,让数字人文、神经美学和计算伦理等技术参数成为AI研发不可或缺的价值选择,进而标识数据、算法、算力的伦理边界和艺术向量维度,以尽可能丰富的优质数据语料,丰富不断优化的大语言模型,以创造富含艺术伦理值的“拟态环境”。索非安·奥德里把这个阶段称之为“机器学习时代”。他认为,通过“构建庞大的数据集、微调训练算法,以及大量的预处理和后期处理”,“机器学习很快会拥有超越人类的智力和创造力”,并可能在没有艺术家参与的情况下创造艺术。

   库兹韦尔认为,人工智能一旦达到图灵测试水平,其在大多数领域的能力都将远超最优秀的人类。当前超级计算机的计算能力已经大大超过了模拟人脑所需,脑机接口实验也已经取得实质性进展,他预测,“21世纪30年代的一个关键进展将是,人类大脑新皮质的上部连接到云,这将直接扩展我们的思维。到那时,AI不再是我们的竞争对手,而是人类个体的延伸。当这个时刻来临时,我们大脑的非生物部分的认知能力将比生物部分强数千倍。”技术化地重塑人类智能意味着什么呢?一方面意味着科技造福苍生,化解各种生命难题,推进经济发展和社会进步,比如,科学家预测,由于人工智能的发展,未来十年人类将治愈包括癌症在内的所有疾病;另一方面,人类与超级AI融合的终极未来又潜藏着巨大的风险——如果不给“AI怪兽”戴上笼头,安装刹车和导航系统,它或将征服地球,甚至毁灭人类,那就意味着碳基生命不过只是在为硅基生命超越人类文明铺路。正因为如此,包括马斯克在内的一千多名业界、学术界人士曾发表联名信,呼吁所有AI实验室在未消除安全风险前立即暂停训练,认为人工智能可能是有史以来最具颠覆性的技术,将给公众带来风险,应该对这一行业进行相应监管,以最大限度地降低潜在的灾难性后果。为防控风险,欧盟于2024年8月发布了全球首个《人工智能法案》(EU AI Act),我国颁布的《生成式人工智能服务管理暂行办法》和《科技伦理审查办法(试行)》也分别于2023年8月15日和2023年12月1日正式实施。这类法案法规的颁布与实施,旨在构建从“All in AI”到“AI for All”的良好技术生态,让所有投入人工智能的资源能惠及全体人类并保障伦理安全。对于艺术生产而言,就是要像本雅明(Walter Benjamin)所说的那样,在艺术品从传统“膜拜价值”走向“展示价值”的机械复制时代,谨防技术工业造成人文审美“光韵”(aura)的丧失。 

   建立人工智能的技术前置程序,以形成人工智能艺术伦理的预警机制,就是要通过AI大模型训练系统,让富含艺术“价值对齐”内容的语料库和数据源进入训练参数,更多地选择与人类艺术价值观相一致的训练场景,确保语料数据基数和艺术场景类型符合正向的艺术伦理价值诉求。通过AI大模型使用过程中的“价值对齐”,用正确的艺术价值规范让人工智能创作的“提示词工程”符合伦理需求,让如臂使指般使用的智能工具产出价值理性的作品,谨防人工智能艺术生产的“意图谬误”和目标偏向。还有,通过人工智能评估系统的“价值对齐”,验证艺术作品的伦理价值品相,在试错、出错时能及时纠错以矫枉,同时采用技术的、法规的、道德的律令防控伦理风险,防止因技术靶的偏失而游离艺术应有的“伦理值”。因为“只有注重技术的人文效应,关注并着力缓解其负面的影响,才可能有助于高技术时代人与技术的协同发展,才能使高技术紧紧围绕人性水平的提高而发展,也才能使人可以有效地借助新技术手段来丰富自己的价值,更充分地展开人生的意义”。 

   在实际操作中,构建人工智能艺术伦理的“价值对齐”可以通过建立普适性道德数据库、设置模拟场景、持续监督训练、实施技术筛查等人机合作的方式,评估和完善人工智能在艺术生产中的道德表现,探讨人机交互中人类艺术价值观被人工智能所理解和内化的互动机理与协同关系,反思智能系统作为技术治理的艺术审美风险和责权归属。“通过展现人工智能与人类相似的浪漫气质,将人工智能系统从‘杀戮机器’重塑为‘造梦机器’。”这就需要通过数据投喂和机器学习来理解和遵循人类的艺术伦理价值,让人工智能在与艺术创作场景的交互中,根据人类设定的价值奖励信号来调整行为;或通过计算机科学、哲学、伦理学、社会学、艺术学等多学科合作,获得相关理论和方法支持,为实现艺术伦理观念的“价值对齐”提供更全面的解决方案;还可以通过人机协作的监督机制,对AI的艺术行为进行功能干预,设置防范伦理风险的“护盾”,并构建纠错机制,及时矫正技术指令与人类艺术价值观相悖的情况,确保智能体艺术生产的“人化”,而不是人的艺术的“智能体化”,或者用“艺术的技术性”替代“艺术的技术化”。人类艺术的未来不能仅凭AI技术来定义,人类艺术伦理的价值观应该为未来的AI艺术立法,应当使用AI技术前置程序来奠定艺术预警机制的基础。 

   与此同时,还要看到这一问题背后隐含的AI技术对于人的内在尺度的塑造。麦克卢汉(Marshall McLuhan)在《理解媒介——论人的延伸》一书中曾提出,任何一种新的发明和技术,都是人的肢体或中枢神经系统的延伸,都将反过来影响人的生活、思维和历史过程。他在解释“媒介即讯息”的含义时说:“所谓媒介即是讯息只不过是说:任何媒介(即人的任何延伸)对个人和社会的任何影响,都是由于新的尺度产生的;我们的任何一种延伸(或曰任何一种新的技术),都要在我们的事务中引进一种新的尺度。”随后他进一步解释说:“技术的影响不是发生在意见和观念的层面上,而是要坚定不移、不可抗拒地改变人的感觉比率和感知模式。”人类正在研发运用的人工智能技术是不是也成为“人的肢体或中枢神经系统的延伸”,将其应用于艺术创作时,会不会也在“引进一种新的尺度”,或改变我们“为艺术立法”的尺度呢?回答是肯定的。因为技术能改变艺术的存在方式,也能改变人类的感知模式和看待艺术的眼光,我们应该做的只能是“人—技术—艺术”的与时俱进,只不过在这个“三位一体”中的“人”,不是被动地适应,而是积极地引导与矫治,以确保技术以人为本、为人服务。因为艺术(如AI艺术)永远是属人和为人的,这是建立“价值对齐”信念的底层逻辑,也是建立技术前置程序、实现艺术伦理预警机制的目标所在。 

  其二,在人工智能创作过程中,培育艺术伦理的主体自觉。

  人工智能的艺术创作问题本质上仍然是人的问题,是人的主体性的伦理觉知问题。在使用人工智能工具创作文艺作品时,创作者需要以明确的主体意识设立提示词,保持对艺术伦理的敏感度和认知力,识别艺术内容的人文道德内涵,理解创作对象的艺术伦理关系,秉持正确的“三观”来塑造人物、构思情节、立意主题,用人文审美的艺术价值观把握人工智能创作的全流程。

   在此过程中,要实现“后人类”智能艺术的“价值对齐”,需要研判人工智能之于艺术创作的适恰性与有限性,以便更精准勘察人工智能艺术的伦理边界。从不时涌现又不断升级的人工智能工具看,适恰于艺术创作的AI软件大都具有两种功能性偏向:一是更适于制作视听艺术而非文字写作;二是用于文学创作时,更适于诗歌、散文、故事创意、桥段描述等较短篇幅的文字表达,而非长篇叙事。从生成式人工智能ChatGPT系列、DeepSeek、Grok等,到人工智能升级与拓展工具如Pika、Claude、Sora、LTX Studio、Veo、Qwen等,其特点是通过对投喂语料的自我学习、自我训练、自我进化,自己编程升级自己的程序,然后综合性解决人类指定的任务。一类人工智能程序对于文学创作来说,更适合成为“作家助手”,辅助完成某些作品构思、灵感启发,或场景代笔、文学细节刻画,或独立写出几百至数千字的短篇小说、散文或诗歌,暂时难以独自完成网络类型小说那样的鸿篇巨制,即使写出了长篇字数,质量也难以保障。王峰团队用“大模型长篇小说创作系统”创作的百万字玄幻小说《天命使徒》,是在人工干预下,使用大量提示词,并不断加工修改,历时一个半月才完成的。文学网站平台开发的用于网络写作的人工智能工具,如阅文妙笔、中文逍遥、橙瓜码字、番茄助手等,同样也只能扮演辅助写作的角色,暂时还完成不了高难度的长篇小说创作。另一类人工智能程序属于视音频类制作工具,它们拥有强大的绘画、制图、影音生成技术,让文生图、文生视频、图生视频、“文字+图片”转视频,或设计工艺美术品、制作PPT等变得轻而易举。只需将生成式人工智能与视音频类制作工具结合起来,就能让多媒体叙事变得轻松便捷。这样的技术语境表明,用人工智能工具制作艺术作品如短视频、影视剧、游戏、动漫、有声作品、音乐作品等,远胜于文学创作。比如,在当下的人工智能艺术市场,经常可见用视音频人工智能工具制作的高水平艺术作品,而AI创作的文学作品(诗歌除外)却较为罕见,已有的人工智能小说质量也不尽如人意。 

   不同人工智能对于艺术创作的适恰性及其所形成的差异性,均与人的主体性之于文艺创作的伦理自觉程度相关。与许多其他领域的情况不同,在文艺创作领域,人工智能常常力有不逮,这表明艺术生产不大容易被人工智能替代。网络作家“愤怒的香蕉”就曾说,作家可能是最后一个被人工智能颠覆的职业,“AI对社会造成了很多很大的影响。当它走到取代文学这一步的时候,可能整个社会的绝大部分工种都已被颠覆。”个中缘由大抵有二。一是艺术的情感性、想象性、隐喻性、灵感的爆发性、情绪的异变性,以及独特的个性等,很难被技术设计出来。即使人工智能再强大,如脑机接口“后人类”智能体,也不过是在模仿,在数据筛查与对接,是算力、算法对大数据的精准计算。而冷冰冰的计算定然没有“肉身经验”和情感热度,没有生命历险和灵魂震颤,没有爱恨情仇的切肤之痛,缺少同理心、共情感和道德判断,没有“半生生活活生生”“举家食粥酒常赊”的夜半垂泪,没有自己的世界观、人生观和价值观的浸润,更没有对生命意义的追寻,因而不能仅凭大数据处理能力就“计算”出莎士比亚戏剧或巴尔扎克的《人间喜剧》。这正说明,在使用人工智能创作工具时,只有“人”能够坚守伦理自觉,机器智能“拟主体”只有在“人主体”的掌控和干预下,才能坚守一定的艺术伦理边界,完成艺术伦理的有效建构。二是人脑“黑箱”尚未被科技完全破解,在依托大数据的神经网络技术、脑机接口技术等尚有难以抵达的边界之前,用于艺术创作的“脑机理”仍然是现代科技“阿尔卑斯山顶的明珠”。乔姆斯基(A.N.Chomsky)说过,AI系统实际上是在进行“高级抄袭”,既受限于“已有”,又止步于“未知”,它们可以生成看似连贯的文本,但却不理解自己在说什么。这就好比一只会背诵莎士比亚十四行诗的鹦鹉,虽然能说出优美的词句,但对诗歌的内涵却一无所知。可见,高技术时代要坚守高人文的艺术伦理,不是被动地坚守价值理性就能实现的,还离不开对价值理性的主体自觉。 

  在当下的弱人工智能时代,人工智能能否在创作过程中扮演人类所期待的艺术角色,尚不确定。 “如今科技已经对艺术形成了一边倒的震慑态势。倘若说网络时代承诺‘人人都可以成为艺术家’的话,信息时代则宣称‘智能体都可以成为艺术家’。前者洋溢着乌托邦情调,后者蕴含着恶托邦风险”。人工智能给人类带来什么样的艺术惊喜,或许不在于它创造了怎样新奇的艺术形态,而在于能否用文质兼美的作品触达AI艺术的审美境界,为艺术构筑“伦理绿坝”,使其保留人文审美的伦理基因。

  实现这一目标需要从科技伦理和价值赋能两个方面去着力,这样便走进了我们要讨论的人工智能艺术“价值对齐”信念的下一个问题。

  其三,人工智能艺术效果的伦理评估与价值勘正。

   就人工智能的科技伦理看,早在1942年,美国科幻作家艾萨克·阿西莫夫(I. Asimov,1920-1992)在他的短篇小说《转圈圈》(“Runaround”)中提出的机器人“三定律”,就已经为人工智能奠定了科技伦理的基础。库兹韦尔把超级AI的风险成因分为三类:第一类是误用(misuse),即AI按照人类操作者的意图运行,但这些操作者故意利用它来伤害别人,如恐怖分子利用AI在生物化学方面的能力设计出导致疾病大流行的新病毒;第二类是外部失准(outer misalignment),指的是程序员的真实意图与他们为实现这些意图而教给AI的目标之间存在不匹配的情况;第三类是内部失准(inner misalignment),它发生在AI为实现特定目标而学习的方法导致不良行为时。他提出的解决办法,一是借助AI本身来显著增强自己的“对齐”能力,让安全对齐的AI能够识别危险的请求并拒绝遵从;二是设立防止滥用的道德防线,即支持安全、负责地部署AI的强有力的国际规范。 

   虽然目前的人工智能技术还无法精确遵循这些定律和办法来设计和运行,但这些办法所提供的伦理方向和原则对于今天处理人工智能与人类艺术伦理的关系仍然是有效的,对于我们评估人工智能创作的艺术伦理效果也具有一定的启发性。阿西莫夫和库兹韦尔构想的“伦理绿坝”,其基本要求是为机器智能开发制定相应的技术、政策法规和伦理规范,让智能开发用于增进人类福祉,在为人类创造更多的利益和价值的同时,减少科技应用可能带来的负面影响和风险。未来的人工智能不是简单地增加计算能力,而是应该在人性的伦理结构上构建“数智人”正确的认知结构。运用这样的价值理念从事创作,人工智能艺术才会谨遵人类的伦理边界,而不会背弃人类的伦理准则。如果技术是“发动机”,人性就是它的“制衡器”,无论多么先进的技术,都必须确保其在人文伦理的轨道里制动前行。说到底,人工智能的风险仍然是来自人性,而不能怪罪于技术,因为“人工智能唯一相当于‘欲望’的就是不断电,只要保证人工智能的能源供给,人工智能就没有理由去做坏事,除非人类教给它。如果说人工智能会有什么危险,都来自危险的人性”。同理,聪明的人工智能不能只是聪明,还需要善良,否则,越是聪明的人工智能对人类来说就越危险。如研究者所言:“生而为人,我们便不能仅仅从技术本身来看问题,而必须从自身出发,以一种悲天悯人的人文关怀来审视技术。技术不仅是一种解放的力量,而且也是问题之源。只有从社会、文化和哲学等方面来探讨技术,澄清技术与自然、社会与人的关系,并进而用人文来提升技术,才能使技术得到妥善的运用,为人类带来一个真正幸福的光明前途。”也只有这样,人工智能艺术才会真正拥有光明的未来。 

   有了智能科技的“伦理绿坝”,就不难勘察人工智能艺术的伦理边界,实现人工智能艺术的价值赋能,并据此勘正人工智能创作的艺术效果。人类应该给未来的艺术智能体赋予怎样的“伦理值”, 才能确保艺术效果的伦理饱和度呢?比照人类艺术史的传统价值,未来人工智能的研发和使用的艺术效果,可以选择已有的价值维度实施对标评估和验证。不过即便如此,作为艺术创作的AI应用,或仍将存在艺术审美的伦理难题,譬如:“人工智能一旦有了情感,和人类的关系可能就完全改变了(至少是增加了许多变数)。它既可能依恋人、热爱人,也可能迎合人或妒忌人,甚至讨厌人、痛恨人。这些变化对于文学创作或许是幸事,对于人类生存和发展却未必如此。”对此,人类在研发人工智能,或将其应用于艺术创作,进行人工智能艺术伦理效果的评估与勘正时,仍然会产生需要重视的伦理隐忧。无论是作为艺术创作主体的人,还是作为创作“拟主体”的AI机器,都必须对标艺术伦理原则不断认识自己、提升自己,以便及时对人工智能作品的艺术效果作出正确的评估。 

   从逻辑的周延性上看,我们在讨论人工智能艺术的伦理边界及艺术效果时,强调了人的价值对于建构AI创作“价值对齐”信念的重要性,这是不是意味着又回到“人类中心主义”立场而拆解了应有的逻辑闭环呢?其实不然,其吊诡之处正在于,“人类中心”与“人类中心主义”本就是相互关联而非对立的概念。我们描述“人类中心主义”的理论逻辑,不过是为了阐明中外文论史上的人文艺术中心论的思想源头,为艺术主体性和“拟主体”概念的“出场”找到观念依据,并非要揭示“人类中心主义”之于人工智能艺术伦理的负面关系,即坚守“人类中心”立场不是要否定“人类中心主义”。在人工智能艺术伦理问题上谈论“人类中心主义”,属于这一概念的“能指”范畴,而使用“人类中心”一词,则是“艺术与人”特定关系中的“所指”;并且在现代生态主义的意义上,“人类中心主义”是一个带有批判意涵的负面词汇(如过分强调人的中心地位,忽视人类对大自然的敬畏与尊重),但在人文科学如艺术学领域,这一概念则褪去了其负面意味而具有普遍的有效性。毕竟,“人是万物的尺度”“人是目的而不是手段”这些哲人名训,不仅适用于历史上相对主义的认识论,也是未来人工智能创作的艺术伦理所要坚守的价值底线。 

   尽管人类迈向超强智能体的IQ“奇点”的进程已经步入冲刺阶段,但当下的人工智能艺术仍处于实验期,其“伦理值”如何还有待证实。可以预言,正如未来的文学都将成为“网络”传播的文学,未来的艺术创作,无论是影视、音乐、绘画,还是游戏、动漫、演艺等,都将会有人工智能技术的介入,或者由“拟主体”智能独立完成作品创作,甚至打造全新的人工智能艺术门类。在神经网络、量子计算、脑机接口技术,或由数智递归进化效应等催生的类脑智能的强力加持下,无论“后人类”智能艺术走向何方,在价值观上,它们最终都应该是人的智能的技术化延伸,人类都需要用自己的理性律令构筑伦理的“闸门”,制定法律规约,引导技术的发展方向与功能指向。AI应为人的意志和艺术目标服务,不能容许它剑走偏锋伤害人类和人类艺术;在人工智能艺术创作中,不仅要有人机协作,还要有“人”对“机”的伦理导引与制衡。这就需要重申库兹韦尔提出的“价值观对齐”原则:“高度自主的AI系统的设计应确保其目标与行为在整个运行过程中与人类价值观保持一致。”即使AI模型步入通用人工智能阶段,出现“智能涌现”(intelligent emergence),人工智能的艺术创造仍然需要坚守“艺术审美、科技向善”的价值伦理,让数字技术始终打造的都是富含人文审美性的艺术作品。只有这样,人工智能“技术魔方”生产的“艺术”,才仍然会是那个能让人类“诗意栖居”的精神家园。 

  〔本文注释内容略〕

原文责任编辑:杨琼 责任编审:张跣

【编辑:苏威豪】