查看原文
其他

域外采风第44期 | ChatGPT和欧盟《人工智能法》【刘子婧编译,郑春燕指导】

The following article is from 规制与公法 Author Helberger

点击蓝字 关注我们


ChatGPT和欧盟《人工智能法》

作者

Natali Helberger 荷兰阿姆斯特丹大学法学院教授

Nicholas Diakopoulos 美国西北大学传播学院副教授


编译

刘子婧,中国政法大学法学院2020级硕士研究生

指导老师

郑春燕,浙江大学法学院教授

建议引用格式:

Helberger, N. & Diakopoulos, N. (2023). ChatGPT and the AI Act. Internet Policy Review, 12(1). https://doi.org/10.14763/2023.1.1682.


内容摘要

欧盟即将出台的《人工智能法》采取了一种基于风险程度对人工智能系统进行分类管理的监管思路。但是,类似ChatGPT这样的生成式人工智能产品对当前的风险分类方法提出挑战。为迎应这种挑战,应采取更为动态的监管思路,对此,文章提出了三点建议。第一,将生成式人工智能和通用人工智能视为有别于高/低风险的一般风险类别;第二;课予产品供应商对系统性风险的定期监测义务;第三,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制。

一、引言

       如今,作为技术监管机构并非易事。欧盟正尝试在2023年秋天前敲定欧盟《人工智能法》(theAIAct),然后就出现了像ChatGPT这样的生成式人工智能系统[①](generativeAIsystem),一个强大的语言模型。它依据前所未有的数据量进行训练,并且能够进行令人惊讶的多样化对话,从写影评和诗歌到给学校论文打分,从筛选简历到编写软件代码。在一系列的使用场景中,用户使用自然语言提问,然后获得一个听起来十分流畅的回答。数百万人已经在使用ChatGPT,而类似这样的生成式人工智能挑战了当前欧盟《人工智能法》草案中基于风险的分类方法。

距离ChatGPT的首次发布仅过去了几个月,但是人们有关技术对社会的作用、意义和价值的想象和讨论已经高涨,在立法者中亦是如此。据报道,在2月初,欧盟议会建议将可能被误认为是人类生成的和深度伪造[②](deepfakes)的文本列入高风险类别(high-riskcategories),以扩大《人工智能法》可能的管辖范畴。与此同时,法案中的新立法语言包括了对通用人工智能(general-purposeAI)的定义,并且欧盟立法委员会将进一步出台细则以说明高风险条款在法案中将如何具体适用。问题是:《人工智能法案》基于风险的分类方法是否仍然适用于生成式人工智能系统?

我们认为,类似ChatGPT的生成式人工智能系统具有至少两点重要特征——动态语境和使用规模——与《人工智能法案》最初旨在规范的传统人工智能系统相区别。生成式人工智能系统并非为了特定的语境或者使用条件而建立的,它们的开放性和易控制性允许被应用于前所未有的使用规模。生成式人工智能系统的产出可以被具有一般沟通能力的人理解为媒体(文本、音频、视频),因此极大地降低了成为用户的门槛。并且,在某种程度上,由于生成式人工智能系统在训练时攫取的数据规模之大,使得其可以基于各种各样的原因而被使用。仅ChatGPT就有3000亿字的训练数据量,其范围涵盖了互联网所能提供的各类内容,从个人数据到公共文件、新闻报道、文学文本和艺术等等。

      这些特征——没有特定目的和宽泛的运用规模——至少在三个方面挑战了当前《人工智能法案》所采取的监管路径:1.将人工智能系统分类为高风险/非高风险的分类方式的可行性;2.未来风险的不可预期性;和3.对私人风险秩序的忧虑。

二、高风险、低风险和一般风险

当前的《人工智能法案》依据供应商所预设的使用目的将人工智能系统分为高风险和低风险两类。所有旨在实现附录3中特别规定领域内目的的人工智能系统都被划归为高风险类别。在其他情形下,人工智能系统被归为低风险类别(或者,在深度伪造和聊天机器人的案例中,最终监管方案是将其列入低风险类别并辅之以透明度要求)。但是对于通用人工智能而言,决定如何使用系统的并非人工智能的供应商,而是专业用户(professionalusers)。是用户决定了人工智能系统属于低风险还是高风险类别。社会面临的风险则将产生于终端用户(enduser)(又称“消费者”)所使用这些系统的方式。依据《人工智能法》第4b条[③]中“可能被作为高风险人工智能系统使用”(“maybeusedashighriskAIsystems”)一词的解释方式,这可能意味着法案中高风险人工智能的法律义务只有在生成式人工智能被运用在高风险领域时才产生约束力。

从社会和基本权利的角度考虑,前述做法可能为时已晚。生成式人工智能系统的作为通用人工智能系统的一个关键点是:由于其具有多种用途,因此激励系统供应商从最初的数据质量就开始着手考虑这些系统的安全性问题至关重要。否则,任何存在潜在的偏见、侵犯隐私、非法使用的内容,或者其他数据和模型中的不公平因素都会渗透到未来无数可能的应用场景中。但是,根据当前版本的《人工智能法案》,供应商预先进行这样安全性考虑的可能性几乎为零。《人工智能法案》赋予了供应商通过明确排除所有高风险用途来“排除适用”(“opt-out”)高风险条款(《人工智能法案》第4c条[④])的权利。并且,目前还完全不清楚在这种情形下,专业用户或者终端用户需要承担何种义务,终端用户尤其被排除在了《人工智能法案》的适用范围外。

另一种可能的情形是:由于无法排除在高风险领域的运用,因此所有的生成式人工智能都属于高风险类别。在这种情况下,则有可能产生过度监管的风险。

基于上述原因,我们建议,与其将通用人工智能纳入现有的高风险类别,不如将它们本身视为一种一般风险(generalrisk)。类似聊天机器人或者深度伪造被视为基于其自身特点的单独风险类别,并且应当规定生成式人工智能系统与其系统特征相适应的法律义务和要求。例如,当前《人工智能法》中的数据管理义务主要涉及完整性、准确性和无偏见。但是对于生成式人工智能,及其从各类来源——无论合法或授权与否——中提出训练数据的纯规模而言,我们所提及的“提取的公平性”(extractionfairness)问题都会出现。提取的公平性问题涉及更为宽泛意义上的法律和道德担忧,即在数据创造者不知情、未授权、不承认或者未受补偿的情况下,人工智能系统大规模地攫取训练数据。

三、从预先定义的风险到系统性风险监测

在推出后的几个月里,ChatGPT拥有了1亿活跃用户,被称为“有史以来用户增长最快的应用”。ChatGPT的使用规模及其技术的多用途特征,在第二个方面挑战了《人工智能法案》基于风险分类的监管方法,即对于在社会上发布出这类极其强大的人工智能系统将会产生何种风险的不可预测性。近日,欧盟议会在《人工智能法》中将生成式人工智能的核心风险定义为缺乏真实性(lackofauthenticity)。但是真实性并不一定是对健康、安全和实现基本人权的最主要挑战。而应当考虑对隐私和创造力造成的风险、并非基于信息的不真实而是自事实错误的风险、过度依赖诸如ChatGPT生成的法律知识的风险、缺乏可验证性和易使虚假信息规模扩大的风险、网络安全问题和由于庞大的业务规模所导致的监管机构崩溃的风险等等。如何应对这些风险,我们还未完全找到答案。而社会也才刚刚开始广泛地探索生成式人工智能在校园课堂、工作场合或者在客厅中的应用可能性。

因此,与其忙着将风险领域固定在难以进行修改的附件3中,我们需要思考如何采取一种更加动态的方式监测和减轻可能对个人和社会产生的任何风险。《数字服务法案》(theDigitalServicesAct,DSA)第34条采取的系统性风险监测方法可能是一种启发。在《数字服务法案》中,超大型在线平台和超大型搜索引擎有义务监控它们的算法系统,以了解其对基本权利和社会过程所产生的任何实际或者可以遇见的负面影响,包括因实施生成式人工智能系统而产生的负面影响。可以想象,类似于定期监测和减轻系统性风险的义务也应该适用于大型生成式人工智能模型的供应商。

四、私人秩序(Private Ordering)

具有通用用途的生成式人工智能模型可能引发的另一个后果是,预期目的和使用条件将最终依据用户和供应商之间的(合同)关系而定义。依据《人工智能法案》的逻辑,决定“供应商—用户”关系的核心要素是供应商提供给用户的使用说明(instruction)。在实际使用和预期目的一般难以遇见的情况下,使用说明对廓清任何使用场景中合法使用的安全性要求与条件来说至为关键。用户(包括专业用户和终端用户)可能非常依赖供应商的合作以遵守他们的法律义务(例如数据质量或人工监督),反之亦然。供应商依靠用户所分享的系统使用经验以进一步优化和负责任地使用系统,以确保安全。

这同样意味着用户和供应商之间关于生成式人工智能合同条款的质量和公平性在解决、分配和消除(系统性)社会风险时具有决定性作用。例如,ChatGPT的供应商OpenAI目前正在规定其自身的“更大风险”(greaterrisk)类别,其中并非所有的类别都被《人工智能法》所涵盖(例如增加了用于医疗保障、治疗、健康、辅导、金融和新闻等新类别)。对于这些类别中的使用,公司对用户施加了一套独特的义务。另一个生成式人工智能系统的供应商StableDiffusion则制定了一套远超出《人工智能法》第5条范围的禁止性用途,包括禁止生成虚假信息来伤害他人、诽谤或骚扰,或者提供医疗建议和解释医疗结论。

前述举措尝试将合同条款中的责任和参与规则具体化,这在生成式人工智能社会实践日益勃兴的当下,对于负责任地使用人工智能系统大有裨益。话虽如此,与任何合同条款和使用限制一样,它们也存在对于私人秩序的典型忧虑,例如信息不对称、不平等的谈判权,和以较弱方为代价限制合同责任的法律激励(见上文《人工智能法案》最新提议的第4c条)。一个复杂的私人秩序系统也可能挑战《人工智能法》促进法律确定性、可预见性和标准化的宏观意旨。依据目前的法案,“用户—供应商”之间使用说明的公平性和品质不受任何法律约束,《人工智能法》甚至完全没有提及终端用户。我们的第三条建议是建立关于合同条款和使用说明公平性、质量和充分性的监管审查机制。

结论

本文中,我们反思了当前《人工智能法》草案在充分处理通用人工智能,尤其是类似ChatGPT的生成性人工智能方面的适用性。我们的结论是,生成式人工智能挑战了《人工智能法》目前的一些核心概念与原则,特别是基于风险的方法。因此需要调整《人工智能法》以更好地适应生成式人工智能系统中与不具有预设目的、多用途使用情景和大规模攫取训练数据相关的风险。

更新《人工智能法》以充分纳入生成式人工智能不仅仅是将生成式人工智能纳入当前的高风险条款。相反,我们主张将生成式人工智能和通用人工智能视为一般风险类别。我们还指出,需要根据生成式人工智能系统的特点对法案规定的义务进行严格审视和重新校准,充分考虑这些义务如何适用于不同角色(供应商、专业用户和终端用户)间的复杂互动关系。我们建议课予供应商类似于《数字服务法》中所规定对系统性风险的定期监测义务,并且更多地关注生成性人工智能系统的供应商与用户间的合同关系。一般来说,有必要仔细考虑专业用户和终端用户之间的区别。值得称赞的是,当前版本的法案中已经预见了将需要更多时间和讨论来决定如何将生成式人工智能和通用人工智能系统纳入其监管范围。但是,我们也应该意识到,生成式人工智能所带来的监管挑战远不止这些,而我们在这一过程中做出的决策将产生对社会和经济产生深远的影响。


[①]生成式人工智能系统指可以根据提示生成文本、图像或者其他媒体的人工智能系统。生成式人工智能系统使用生成式模型,如大型语言模型,以实现基于训练数据集来对新数据进行统计抽样。广为人知的生成式人工智能包括ChatGPT以及OpenAI使用的GPT-3,GPT-4等大型语言模型构建的聊天机器人。avaliable at https://en.wikipedia.org/wiki/Generative_artificial_intelligence#cite_note-nytimes-1.(译者注)

[②]深度伪造(deep fakes)是机器学习(deep learning)和虚假(fake)的合成词,它指将现有图像或视频中的人物替换为他人的肖像。深度伪造技术因其在制作儿童性侵材料、名人色情视频、假新闻等方面的潜在用途引起了业界和政府的关注,后者对其使用进行了监测和限制。avaliable at https://en.wikipedia.org/wiki/Deepfake.(译者注)

[③]《人工智能法》4b条规定了通用人工智能系统(general purpose AI systems)的法律义务,其第1款规定:“可能被作为高风险人工智能系统,或者作为高风险人工智能系统一部分而使用的通用人工智能系统......需遵守本法规标题三中第二章的规定。”

[④]《人工智能法》第4c条载明了排除适用第4b条的情形,其第1款规定:“如果供应商在通用人工智能系统的使用说明或随附信息中明确排除了所有高风险用途,则第4b条不适用。”


文章转自“规制与公法”公众号

原文链接:https://mp.weixin.qq.com/s/5ORZyGB7pU5Qgw5k7696gg



点击上方名片,及时了解前沿立法资讯


推荐阅读

立法名家讲坛 |史彤彪:真正的立法者

法条对照|《中华人民共和国立法法》(修改前VS一审稿VS二审稿VS修改后)

浙江省人大常委会2023年立法计划公布

通知|关于公布2023年度浙江省社科规划 “地方立法”专项立项课题的通知

新闻|《备案审查案例分析》三度开课 课堂同步“审议”立法法二修草案

新闻|全国人大常委会法工委召开备案审查理论研究与学科建设座谈会

吴恩玉:浙江以首创性立法塑造最优营商环境


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存