ChatGPT:人工智能的现实与未来

2023-04-20 来源:中国社会科学网

 

  编者按:

  ChatGPT是美国人工智能研究公司OpenAI研发的最新聊天机器人模型,在短期内引发了全球关注,颠覆了人们对于人机交互的传统设想,也推动了信息传播模式的新一轮变革。ChatGPT的出现将会带来哪些突破?是否会带来新闻传播学的革命?ChatGPT的发展前景如何?又将带来哪些机遇和挑战……成为值得认真探讨的话题。

 

  每一次智能机器的逼近,都让人类陷入某些困顿,但也带来一次人类反思契机。在机器面前,人应该扮演什么样的角色,应该如何与机器相处,人究竟有什么优势?在不同阶段,我们的回答或许有所不同。面对AIGC,至少在当下,我们还可以对以下这些角色抱有信心:

  人是机器的学习模板。机器的智能来自对于人类的信息、知识与思维的学习,机器的行为也是对人类行为的学习与模仿。一定程度上,人提供什么样的样板,机器就会向什么方向成长。机器也成为了人类的一面镜子。从人那里学习到的一切,也会反弹回人类。为机器做好榜样,这也是人类对自身的救赎。

  人是机器的驾驭者。机器自身没有创作目标,它们的力量能否激发、在多大程度上激发,取决于人们为它设置的任务与目标。理解机器的能力与习性,并为它设置任务与方向,这仍是人要做的。人不仅需要为每一个具体的智能创作任务指明目标,更需要为人工智能的大方向导航,前者相对简单,而后者则是一个巨大的工程。

  人是机器的检修者。AIGC以人类的知识与信息为处理对象,机器虽然有一定的核查能力,但未必能识别一切谬误,产出的内容也难免漏洞累累。机器本身,也可能存在系统性偏差或偶然性失误。如果没有更强大的判断能力以及纠错能力,人最终会被机器玩得团团转。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202303/t20230313_5602807.shtml

 

  从宏观层面而言,人类对人工智能技术的整体反应是复杂的。一方面,作为人工智能的缔造者,人类希望AI能够为日常的工作和生活起到帮助和辅助的作用,这确实也是目前各类AI应用的最常见定位。另一方面,人类又对技术保持警惕,担心人工智能会凌驾于人类社会的规范之上,甚至在有些方面取代人类。比如,在关于ChatGPT的讨论中,欢迎、惊喜、拥抱、忧虑、排斥、抵抗、不屑等各种态度纷纷涌现。社会科学中许多经典的理论和著述往往强调要对技术保持审慎反思,学者们讨论技术对人的规训,人与技术之间的驯化和反向驯化,提醒不要只享受技术带来的舒适,不要沦为“单向度的人”。这种反思和警惕早已有之,当互联网刚刚兴起时,就有过很多类似的讨论。人们希望机器人能够智能,又不希望它太智能,人们创造了技术,但又担心对技术失控。回顾人机共存的历史,这种心态不会因为技术的更迭而发生太大的变化。而这种矛盾而复杂的心态,体现了人类的情感与思想,这正是人与机器之间最大的区别。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202303/t20230313_5602818.shtml

 

  ChatGPT作为21世纪第二个十年出现的最新和最强大的人工智能,其原理并没有脱离上个世纪中期以来推动人工智能发展的两个重要理论——“信息论(概率)”和“控制论(反馈)”。这两个理论也极大地推动了传播学的发展。

  1948年,香农发表了名为《通讯的数学原理》的著名论文,其中他指出,所谓“信息”(information)就是能提高判断准确性概率,降低不确定性的东西。在英语中存在这一个所谓“马尔可夫过程”(Markov Process)的规律,即英语中后一个字母为何在概率上决定于其前一个字母为何,以及我们对前面的字母知道得越多,就越能在概率上判断其后一个字母为何。以此类推,我们从英语单词、段落、篇章、书籍、学科知识的上下文(context)能提升我们判断其“是什么”以及“意味着什么”的概率。控制论(Cybernetics)的创始人和人工智能先驱诺伯特·维纳(Norbert Wiener)1954年在《人有人的用处》一书中指出,如果我们通过“反馈机制”来设计机器,就能让机器变得智能。ChatGPT的“智能”就是基于自监督反馈原理的“左右手互搏,对抗迭代学习”。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202304/t20230406_5618205.shtml

 

  从技术原理来看,以ChatGPT等为代表的大语言模型难以避免的“幻觉”(Hallucination)会造成对真实性的污染,使得未来的虚假信息治理面临更严峻的挑战。作为人工智能领域最先进的产品之一,ChatGPT在底层数据与核心技术方面均为世界领先,特别是其核心的人工智能语言大模型在参数规模上已经达到了千亿级别,使其具备了优秀的意图识别与语言理解能力。但是它因为数据质量与技术的限制,也难以避免幻觉现象。所谓“幻觉”,指的是自然语言处理模型生成自然流畅,语法正确但实际上毫无意义,或包含虚假信息,就像人产生的幻觉一样。

  这种幻觉问题导致一些网民在试用时发现,ChatGPT在交互中会生成不少的事实性错误,有时对一些简单问题也会一本正经地胡说八道。Meta公司推出的大型语言模型Galactica主打科学研究领域的内容生成服务,上线后也被发现部分生成的内容失实,三天后就遭下线。因此,纽约大学教授Gary Marcus认为,尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容本身并不一定真实。不过,在隔行如隔山的今天,这种似是而非的内容对非专业用户却具有极大的迷惑性。再加上随着现代科学的蓬勃发展,科学技术的先进性与权威性已经深度捆绑,并植入到了大众的脑海之中。ChatGPT因其技术的先进性,就可以利用这种认知惯性,裹挟着科学的威势,在潜移默化中影响特定问题的社会认知。可以预见,面对着ChatGPT的加持,未来的虚假信息治理必将面临更严峻的挑战。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202303/t20230313_5602821.shtml

 

  随着人工智能技术的不断发展,如今传播主体从“人”向“人机共生”转变。在信息生产、分发、事实核查、用户的交流和互动等各个环节,人工智能技术正在发挥着重要的作用。它不仅改变了信息传播和人类交流的内涵,也重塑了人、技术和社会之间的互动关系。在计算宣传视角下,社交机器人是指借助算法技术批量注册和自动运营的社交媒体账号。社交机器人是计算宣传大规模实现的最主要手段,一般通过营造虚假人气、推送大量政治消息、传播虚假或垃圾信息干扰舆论、制造烟雾遮蔽效应混淆公众视听等策略展开行动,以试图影响舆论。在英国脱欧、2016年美国总统大选等重大政治事件中都发现了社交机器人操纵舆论以实现政治目的的痕迹。

  在ChatGPT的加持下,社交机器人能够根据不同的场景、以不同的人设、甚至是不同的立场生成内容。即使面对同样的问题,ChatGPT也能够给出不同版本的内容以回答,可能生成难以判断真伪的内容以混淆视听。除此之外,ChatGPT可以让社交机器人根据上下文情景来生成内容,减少逻辑前后矛盾的情况发生,甚至能够与用户持续交流。这彻底改变了以往社交机器人千篇一律、机械地转发信息的状况。普通用户更加难以判断发布者到底是真实的人类用户还是社交机器人,从而进一步放大了干扰信息环境的风险。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202303/t20230313_5602819.shtml

 

  对于ChatGPT对自然语言处理研究带来的冲击,不同的从业人员(无论是来自于学术界还是工业界)持有不同的态度,从我个人的角度,我是持积极态度的,即我认为自然语言处理的相关研究任务会借助以ChatGPT为代表的大规模预训练语言模型技术的发展而迎来更大的进步,甚至是在可以预见的短期时间范围内,带来研究范式的变迁,至于现有某些研究任务的消失也不需要感到悲观和绝望,毕竟这就是技术发展必经之路上常见的“风景”,我们可以做的是“不念过往,不畏将来”,毕竟我们已经看到强如ChatGPT也暴露出了很多未能解决的新问题,如生成内容的事实性较弱而幻象较强、与人类常识有一致性上面的矛盾、偶尔还会生成有害性或误导性的内容等等,而以上的这些问题也为自然语言处理的研究人员提供了新的研究机遇和挑战。

  综上所述,人工智能的发展过程是一个不断变化的过程,是一个新事物代替旧事物的过程,伴随着技术的迭代和应用场景的不断更新,我们看到的积极的方面是由人工智能驱动的生活便利性、幸福感和舒适度的不断的提升,对于无论是人工智能的专业从业人员还是受惠于人工智能发展的普通民众,我们都可以积极地拥抱这种变化,毕竟无论对于人工智能的研究还是应用,唯一不变的就是变化。

  阅读原文:http://www.cssn.cn/xwcbx/rdjj/202303/t20230315_5607721.shtml

 

转载请注明来源:中国社会科学网(责编:张赛)

扫码在手机上查看