ChatGPT给虚假信息治理带来更大挑战

2023-03-13 来源:中国社会科学网

  ChatGPT是人工智能发展史上又一款里程碑式的产品。此前,人工智能领域也曾多次推出现象级产品。例如,1997年,IBM开发的深蓝计算机在国际象棋的世纪大战中打败了当时的世界冠军加里?卡斯帕罗夫;2016年,Google开发的AlphaGo与在与世界顶尖棋手李世石的五番对决中,以4:1的成绩获胜。

  但此次推出的ChatGPT不同点在于,它超越了单一的游戏领域,让各行各业的普罗大众直接亲身领教了一番人工智能的魅力攻势。特别是ChatGPT不仅上知天文、下知地理,而且在文本生产、数据分析、代码编写、图像生成等多模态话语领域均体现出让人惊艳的可靠性、高效性与逻辑性,以生产力工具的面貌突然出现在大众面前,因此也产生了远超以往的社会震动。已有经验表明,人总是容易高估一年内的变化,但却容易低估十年内的变化。虽然ChatGPT发展为成熟的应用进入普通生活场景,仍需一定的时日。但基于长期眼光来看,ChatGPT所带来的风险并不会仅局限在个体层面,从社会维度来看,这类人工智能产品或将带来前所未有的治理挑战,其中尤其值得关注的风险之一就是虚假信息治理。

  首先,从技术原理来看,以ChatGPT等为代表的大语言模型难以避免的“幻觉”(Hallucination)会造成对真实性的污染,使得未来的虚假信息治理面临更严峻的挑战。作为人工智能领域最先进的产品之一,ChatGPT在底层数据与核心技术方面均为世界领先,特别是其核心的人工智能语言大模型在参数规模上已经达到了千亿级别,使其具备了优秀的意图识别与语言理解能力。但是它因为数据质量与技术的限制,也难以避免幻觉现象。所谓“幻觉”,指的是自然语言处理模型生成自然流畅,语法正确但实际上毫无意义,或包含虚假信息,就像人产生的幻觉一样。

  这种幻觉问题导致一些网民在试用时发现,ChatGPT在交互中会生成不少的事实性错误,有时对一些简单问题也会一本正经地胡说八道。Meta公司推出的大型语言模型Galactica主打科学研究领域的内容生成服务,上线后也被发现部分生成的内容失实,三天后就遭下线。因此,纽约大学教授Gary Marcus认为,尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容本身并不一定真实。不过,在隔行如隔山的今天,这种似是而非的内容对非专业用户却具有极大的迷惑性。再加上随着现代科学的蓬勃发展,科学技术的先进性与权威性已经深度捆绑,并植入到了大众的脑海之中。ChatGPT因其技术的先进性,就可以利用这种认知惯性,裹挟着科学的威势,在潜移默化中影响特定问题的社会认知。可以预见,面对着ChatGPT的加持,未来的虚假信息治理必将面临更严峻的挑战。

  其次,ChatGPT等大语言模型可以直接应用于计算宣传活动,大大提升虚假信息生产与传播的自动化、智能化水平,从而提高舆论操纵与认知操纵的效率。计算宣传指的是“使用算法、自动化和人工策划展示等手段,在社交平台上进行的有目的地操控和分发虚假信息的传播行为”(Woolley & Howard,2016)。从当前技术发展与应用来看,以ChatGPT等为代表的人工智能技术不仅可以制造足以以假乱真的文字,还可以利用深度伪造技术,对图片、声音、视频等各种媒介类型进行伪造,实现虚假信息生产的多模态信息结构,进一步提升虚假信息的逼真性与生产效率,催生场景化、沉浸式、具身性的互动与传播,从而大大提高谣言扰乱认知的能力。

  第一,ChatGPT等人工智能技术推进了虚假信息生产的智能化水平。在素材上,已经有学者发现,深度学习技术所制作的虚假文字评论,不仅能够令普通人难以辨别真假,更能成功骗过平台方的过滤机制(Yao et al.,2017)。在行为上,应用于Twitter、Facebook等社交网站的深度学习技术,可以快速创造海量机器人账号,通过发帖、点赞、评论、转载等各种行为实现协同引流(Ferrara et al., 2016)。基于ChatGPT,就可以将上述两类功能整合,不仅可以实现对于传播素材、行为的造假,甚至可以直接推进“事件”造假,令虚假信息的生产流程与产能实现质的飞跃。经由乔治城大学研究,GPT-3人工智能系统能够围绕某一宣传任务,自主选择重要交谈对象、自动生成内容,并展开对话与说服工作。研究人员发现,这种系统可以将具有针对性的虚假信息的生产缩短到几分钟内,并且在模仿特定的文风与情绪上有着不俗的表现(Buchanan et al., 2021)。总体来看,基于ChatGPT等人工智能技术,虚假信息的生产成本和技术门槛被大大降低,生产效率大大提高,并且实现了“人机协同”的智能化模式转型。

  第二,ChatGPT等人工智能技术还可以进一步助推虚假信息话语的多模态化,使虚假信息生产实现由单一“口语型”向“多模态型”的转变。话语的多模态是指调用了听觉、视觉、触觉等多种感知模态,或者通过语言、图像、声音、动作等多种手段和符号资源进行表达的话语形式。就性质而言,多模态话语是人类感知通道在交际过程中综合使用的结果。谣言自古以来有着鲜明的“口语性”,即依赖口耳相传。从理论上来看,多模态话语具有单一模态的口语或文字所无法比肩的注意力竞争能力、社会动员力量和形象建构能力。不仅如此,使用多模态话语还可以有效突破主要针对文字的网络审查,更容易得到大范围的传播。此外,文本属性上的“多模态”,也创造了信息本身在认识论和本体论上的分离空间,发挥了为谣言信息真实性增值的效果。具体而言,即将原本真实的素材用于另外的语境,以形成移花接木之效。综合而言,在有限的传播空间里,使用多模态话语传播的虚假信息更丰富、更生动,也更容易规避审查。

  随着各类社会化媒体平台的迅猛发展,虚假信息的传播规模愈来愈大,并产生了广泛的社会政治经济影响。特别是在各种类型的社会运动中,毫无根据或严重失真的政治消息,以造谣和诽谤为主要手段,以攻击政治人物、国家政策和政治主张等为根本目标,造成社会认知混乱和群体对立,甚至直接引发社会动荡。在这种背景下,针对ChatGPT可能引发的虚假信息治理挑战,亟需综合施策,以寻求有效治理。

  (作者系复旦大学新闻学院教授)

 

转载请注明来源:中国社会科学网(责编:张赛)

扫码在手机上查看