人工智能大模型的风险识别与规制建议

2024-01-23 来源:中国社会科学网

微信公众号

分享
链接已复制

  在智能科技方兴未艾的今日,OpenAI推出的聊天机器人——ChatGPT以及谷歌发布的AI模型Gemini,已经取得了令人瞩目的成就,被誉为人工智能发展的里程碑式应用。从技术角度看,ChatGPT和Gemini都是集合深度学习、自然语言处理(NLP)、分布式计算、云计算、大数据处理、算法优化、强化学习等多元技术的人工智能大模型。人工智能大模型不仅是搜索引擎的进步,更是一个深入知识输入和舆情输出的门户。从我国国家层面而言,人工智能大模型的应用象征着未来国家数字主权的制高点,是我国在全球话语权竞争日益呈现白热化背景下突破“卡脖子”问题的关键领域之一。人工智能大模型发展的三大要素是数据、算法、算力,我国在这三方面都有良好基础。随着我国国内诸多科技巨头争相投入人工智能大模型领域,华为盘古、阿里通义、讯飞星火、百度文心、复旦Moss等通用大模型,商汤商量、云知声山海等对话模型,腾讯X music等音乐模型及多个垂直行业专业模型已在教育、办公、汽车、医疗、工业等领域落地,并实现从0到1的创新应用。然而,人工智能大模型将对人类生活方式带来革新的同时,也必然引发一系列的社会治理与法律规制问题。如何引导人工智能大模型与现实社会的协调并行,以及如何应对由此产生的一系列问题,是当下需要我们深入探讨并积极回应的重要课题。

  一、人工智能大模型可能引发多重风险

  人工智能大模型借助其强大的功能,无疑为个性化信息获取与科技文化的深入传播开辟了全新的路径。然而,它可能引发的种种风险也与其他人工智能解决方案相比更为突出。这一现象背后的一大原因在于,这类生成式人工智能系统的使用,往往通过API接口进行,导致对其发展的控制力及透明度相对较低。对于人工智能大模型所可能引发的风险,大致总结为以下四个主要领域:

  (一)意识形态风险。人工智能大模型不仅促进了传播形态、传播方式、媒体格局、舆论生态的深度转变,而且重塑了网络意识形态竞争的格局与手段,使之时刻在变化之中。特别需要警惕的是,人工智能大模型的输出内容主要依赖于其训练数据。如果这些数据中包含有害、偏激或错误的信息,模型可能会学习并再现这些行为。更为重要的是,人工智能大模型依托其技术的叠加性、实时交互性、时空无界性等优势,能直接或间接对国家、社会、私权利造成严重损害。国家层面,人工智能大模型可能诱发暴力冲突。在社会层面,人工智能大模型可能形成数据垄断和基于数据的垄断,并通过算法垄断不断扩大垄断风险,最终形成信息垄断。这无疑加速了意识形态重塑的步伐,加大了网络意识形态竞争的多变性、复杂性和不确定性。

  (二)安全性风险。随着深度合成与生成式AI技术在社会各领域的广泛普及,相关安全隐患也正逐渐显现并已导致实际损害。开源代码推动了这些技术应用的丰富性与多样性,也加速了技术民主化的步伐。然而,我们应保持警惕的是,这些先进技术有可能被用于制造假冒音频、视频和图像,用于恶意诬陷、诽谤、诈骗甚至勒索等违法行为已屡见报端。这类安全风险及其实质性危害,不仅对个体和企业的形象、声誉以及经济权益形成实质性威胁,更有可能触及社会秩序的稳定、国家的政治均衡和安全。为此,必须在追求技术进步与推广应用的同时,加大对相关安全风险的认识,建立和完善相关法规制度,有效防范和处置这类风险,以保护人民群众的合法权益,维护社会公正秩序,保障国家的安全稳定。

  (三)法律风险。由于人工智能大模型无法对其所依赖的信息和数据进行事实检查,这就可能带来个人数据及商业秘密泄露、提供虚假信息以及侵犯他人著作权的风险。首先,由于人工智能大模型的运行依赖于大量的数据库信息,而其中部分来自于用户的输入,因此存在信息泄露的可能性。其次,人工智能大模型可能会提供虚假信息,包括误导性的信息,以及通过恶意训练生成的诈骗信息或钓鱼网站链接。再者,人工智能大模型在建立语料库和生成文本的过程中,可能会使用非公开的开源代码,或未按照开源代码许可证要求进行操作,从而可能构成侵权行为。

  (四)隐私风险。尽管人工智能大模型在技术层面展示了一定的安全性,但在实际使用过程中,用户的个人信息仍可能面临被不法分子窃取,进而导致隐私泄露的风险,包括在获取和使用用户历史数据时,可能发生的隐私信息泄露和数据滥用、窃取等行为,以及人工智能大模型可能产生偏见性的文本,从而引发不良社会影响等。

  (五)伦理道德风险。虽然人工智能大模型在提升信息传播的效率和创新人机交互模式上取得了显著成果,但我们不得不面对的一个问题是,由于模型训练数据来源于网络,这意味着人工智能大模型可能吸收和复制存在于这些数据中的偏见和偏颇。大量的虚假信息或误导性信息的快速生成,可能在舆论场中产生严重的伦理道德风险。这其中涉及的伦理风险包括:认知性因素带来的伦理风险,如数据不确定、数据难以理解以及数据污染等;规范性因素带来的伦理风险,如在技术社会应用中的伦理挑战,包括技术偏见引发的社会不公,数据依赖削弱人的自主性,以及信息茧房效应带来的技术权力规训等。

  二、对人工智能大模型潜在风险的一体化规制建议

  面对人工智能大模型可能带来的诸多挑战,我们需要对风险规制的逻辑进行深刻改变。首先,由被动、消极的治理方式转变为主动、积极的治理方式。鉴于人工智能大模型的更新迭代日新月异,我们应采纳一种及时、回应性强的积极规制观,以便进行有效的动态适应和对人工智能大模型的有力引导。其次,由笼统、泛化的规制模式转变为具有针对性的差别化规制模式。可以根据风险的高低对不同类型的数据信息进行分类管理,例如,对人工智能大模型的开发者、使用者以及在不同应用场景下的使用进行不同的规制标准设置。再次,由权力与技术的简单双向关系转变为权力、技术和伦理的融合关系。面对数据垄断、数字资产盗窃、数据篡改、电信诈骗等问题时,应把权力(包括强制性权力与社会性权力)、技术(包括行业标准或加密标准等)和伦理(如人类伦理效仿等)这三个要素融合起来,引导人工智能大模型朝着数字正义的道路前进。最后,由仅注重形式正义的覆盖模式,转变为追求实质正义的穿透模式。通过采用自动化决策,可以有效减少潜在的歧视意图,从而纠正算法中隐藏的歧视与不公等伦理问题。

  第一,以明确的态度和科学的方法,打造坚实的防线,保障我国的信息安全与社会稳定。在应对人工智能大模型可能带来的意识形态风险时,我们需立足于多个层面制定有效的对策和建议。首先,为了防止模型复制训练数据中的有害、偏激或错误信息,需要建立严格的数据筛选和审核机制,确保模型训练所依赖的数据科学合规,内容健康,符合社会主义核心价值观。其次,针对技术叠加性、实时交互性、时空无界性等特性,应着力加强对人工智能技术的科学管理。对于可能被用于散播错误信息、进行政治宣传或操纵公众舆论的行为,应积极倡导建立更加完善的法律法规和技术标准,对其进行有效的约束和打击。这需要全社会,特别是科技界、法律界和公众共同参与,共同监督。最后,应以高度的历史责任感和使命感,鼓励科研人员进行更深入的技术研究,探索在保证信息传播自由、效率的同时,更有效地防控人工智能技术带来的风险,为我国在全球化信息社会中维护网络空间安全和意识形态安全,提供有力的技术支撑。只有这样,才能在善用科技的同时,确保人工智能技术的发展更好地服务于社会主义事业和人民群众的福祉。

  第二,推动网络安全、数据安全、个人信息保护、反诈领域形成规制合力。首先,应充分发挥工信、网信、市场、保密、公安等规制部门在保障网络安全、数据安全、个人信息保护方面的作用,推动《网络安全法》《数据安全法》《个人信息保护法》及其配套制度在人工智能大模型领域的延伸适用,落实网络产品和服务管理、数据安全、个人信息保护等制度。其次,特别注意需要加强对境内提供类似ChatGPT和Gemini对话服务的人工智能企业的数据安全和个人信息滥用情况的规制,这是避免在模型训练过程中利用真实个人信息数据而造成个人信息泄露、滥用等不良现象的关键。再次,针对APP商店充斥着模仿、假冒应用程序,以及人工智能大模型账号市场交易活跃的现象,应持续推进《中华人民共和国反电信网络诈骗法》配套制度的建设,加强对人工智能大模型应用涉及诈骗风险的安全评估。结合不同的服务与应用场景,需要明确各主体的反诈义务边界,动态更新人工智能行业的反诈责任清单和任务清单。最后,针对人工智能大模型涉诈重点问题的解决应精准发力。从人工智能涉诈的黑灰产业链入手,强化对电诈前端涉及个人信息犯罪的惩治,特别是重点打击批量提供个人信息的行为。同时,应提高警惕,防范以人工智能大模型为噱头的新型骗局。

  第三,探索算法推荐与深度合成技术管理制度落地路径。针对人工智能大模型,需要从《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》的视角,进一步强化推荐和深度合成技术的管理制度,寻找其实施路径。首先,应提升算法的透明度。建议建立算法备案制度,以便为算法风险监控和事后追责提供法律支撑。同时,建议通过“互联网信息服务算法备案系统”等渠道,公开展示算法推荐服务的基本原理、目标意图、主要运行机制等信息,这不仅能增进公众的理解,也有助于提升算法的透明度。其次,应高度重视安全评估制度的建设。要充分利用具有舆论属性或社会动员能力的互联网信息服务安全评估制度在风险发现、隐患处理等方面的作用,为网信、公安等部门进行全流程的规制提供有力工具。最后,应强化责任主体的责任落实。建议由工业与信息化、科技、市场监督管理等行政主管部门要求相关责任主体在研发、运营、服务提供等各个环节中,将法律法规要求和安全保障义务深度融合,例如,深度合成服务提供者和技术支持者应强化训练数据管理,采取必要措施保障训练数据安全;对涉及个人信息的训练数据,应严格遵守个人信息保护的相关规定。

  第四,针对人工智能大模型的开发及应用,需构建全链条规制,以防止其被用于违法、犯罪行为。首先,必须确保其不被滥用为违法乃至犯罪工具,要在全方位上制定出切实可行的防范措施,这既包括技术层面的防护,也包括法律层面的约束。其次,应充分发挥人工智能大模型作为人工智能技术自身的优势,用以实时检测、防范以及应对可能出现的恶意行为。通过将人工智能技术转化为监控和应对风险的工具,可以在保护公民权益的同时,也推动技术的积极应用。再次,需要对数据安全与隐私保护予以足够的重视,确保相关的管理制度得到充分的落实,强化对数据的管理,从源头上防范可能存在的风险。最后,需要对人工智能大模型的使用界限、责任主体以及违规行为的处罚措施进行明确的界定。只有明确了这些问题,我们才能真正地实现人工智能技术的积极利用,而非仅仅将人工智能看作是一种技术工具,避免其被用于危害公民权益和社会公共安全的行为。对于这种新型技术,应立足当前,展望未来,通过科学的管理制度,引导其健康发展,真正将其转化为推动社会进步的力量,而非无序的破坏者。人工智能的发展,需要全社会共同努力,确保其在保护公民权益与社会公共安全的前提下,健康、有序地发展,服务于人民,服务于社会。

  第五,健全网络综合治理体系,培育公众的算法技术素养,为推进针对人工智能大模型等人工智能算法的社会治理指明方向。政府部门要充分发挥其在网络综合治理中的主导功能和核心作用,树立全局意识;行业组织应鼓励建立人工智能算法治理行业自律机制,推动行业标准、最佳实践等配套规则落地,促进算法应用向上向善,强化算法应用示范引领;公众则应提高对算法可能带来的风险的识别能力,对于涉人工智能大模型技术与概念诈骗,利用和建设可靠的反诈技术体系,加强对未成年人、老年人等特殊群体防骗宣传。

  第六,要通过建立算法责任制度,重塑算法推荐的道德责任主体。首先,创新主体的自我规制能力必须得到强化。创新主体需要通过伦理教育和培训,把握职业规范和道德职责。他们应运用伦理理论和原则,克服基于个人利益的道德论证局限性,对道德难题进行论证,寻找解决技术伦理问题的策略路径,提升其道德论证和伦理应用的能力。其次,我们必须推动行业内部自主制定规范和技术标准。从专业角度看,智能算法的技术标准具有“价值敏感性”,我们必须确保算法的安全可控、数据的可理解性、算法的可追溯性,以及技术应用的公平公正等价值得到体现。最后,对技术伦理监管的主体责任必须强化。各地方和相关行业主管部门需要细化和完善本地方和本系统的科技伦理监管框架及制度规范。基于此要求,国家科技伦理委员会应通过研究制定技术伦理风险清单,展开全流程的技术伦理监管,完善科技伦理审查机制,展现管理层面的监督引导力量。

  参考文献:

  [1]宋杰:《智联世界,生成未来 直击2023世界人工智能大会》,《中国经济周刊》2023年第13期。

  [2]商建刚:《生成式人工智能治理元规则》,2023年7月25日,https://mp.weixin.qq.com/s/c29M3kXz2j3H9O6K9U_luQ,2023年12月25日。

  [3]张凌寒:《生成式人工智能的法律定位与分层治理》,《现代法学》,2023年4月。

  [4]刘宪权:《ChatGPT等生成式人工智能的刑事责任问题研究》,《现代法学》2023年4月。

  [5]吴静,邓玉龙:《生成式人工智能前景下的公共性反思》,《南京社会科学》2023年7月。

  (作者系西北工业大学全球治理国际研究中心执行主任、研究员)

 
 
 
关键词:人工智能大模型
转载请注明来源:中国社会科学网【编辑:闫琪】