查看原文
其他

会议综述 | 生成式人工智能算法规制

未来法治研究院 人大未来法治研究院 2023-05-03

生成式人工智能算法规制

2023年4月27日下午,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”在中国人民大学明德法学楼召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。

一、开场致辞


中国人民大学法学院副教授

未来法治研究院执行院长  

张吉豫

中国人民大学法学院副教授、未来法治研究院执行院长张吉豫在致辞中首先代表中国人民大学副校长、中国人民大学未来法治研究院院长王轶教授向与会嘉宾表示欢迎。张吉豫副教授代表王轶教授作开幕致辞,以发展、安全和法治三个关键词概括了对ChatGPT为代表的大规模语言模型的系列关注。第一,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步;第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战;第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展,为世界贡献中国理论、中国思想,具有重要意义。最后,她表示,人工智能的发展不只是科技竞争,也是制度竞争,期待大家能共同努力,将法治中国的制度优势和数字中国的科技优势有机结合,赋能人工智能产业链的可信发展。

二、主题发言



01

主题发言一:

AIGC的产业创新发展与安全之衡平

全国人大法工委经济法室副处长

林一英

会议主旨研讨的第一单元“AIGC的产业创新发展与安全之衡平”由全国人大法工委经济法室副处长林一英主持。林处长指出,生成式人工智能是最近非常热的话题,今年“两会”关于人工智能立法提案和建议也很多,也是编制十四届全国人大立法规划需要研究的问题。


百度公司副总裁

吴梦漪

百度公司副总裁吴梦漪首先介绍了百度公司在生成式人工智能领域的发展,其次围绕发展与安全的角度,从五个方面对《生成式人工智能服务管理办法(征求意见稿)》提出相关建议:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。


腾讯研究院首席数据法律政策专家

王融

腾讯研究院首席数据法律政策专家王融从以下三方面对生成式人工智能的规制提出了建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。





02

主题发言二:

AIGC规制之法理思考

中国人民大学法学院副教授

未来法治研究院副院长

王莹

会议主旨研讨的第二单元“AIGC规制之法理思考”由中国人民大学法学院副教授、未来法治研究院副院长王莹主持。王莹副教授指出,AIGC技术作为一种全景式的、泛在式的突破性技术将会改变、重构我们的生产生活方式,也必然对传统的法理制度、监管模式及规制的技术性工具带来挑战,因此我们设置这个议题环节邀请数字法学领域的专家,在思考其技术本质的基础上梳理规制与治理的底层逻辑,具有基础性的意义。


中国人民大学法学院教授

“长江学者”特聘教授

王利明

(李铭轩博士代发言)

中国人民大学法学院教授、“长江学者”特聘教授王利明(李铭轩博士代发言)指出,应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或指定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。其次,对于ChatGPT引发的侵权问题,王利明教授提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对于个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。


中国社会科学院大学副教授

互联网法治研究中心执行主任

刘晓春

中国社会科学院大学副教授、互联网法治研究中心执行主任刘晓春从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与《网络安全法》相协调,在算法的评估和备案问题上,也应基于现有的机制协调。


对外经济贸易大学副教授

对外经济贸易大学数字经济与法律创新研究中心主任

许可

对外经济贸易大学副教授、对外经济贸易大学数字经济与法律创新研究中心主任许可认为,《生成式人工智能服务管理办法(征求意见稿)》与之前的法律、现有的实践和技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网信息服务深度合成管理规定》中的深度合成技术和《生成式人工智能服务管理办法(征求意见稿)》中的深层次人工智能技术之间有何异同尚不明确,未来执法过程中可能产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智能服务管理办法(征求意见稿)》涉及的内容超出了《个人信息保护法》覆盖范围,部门规章是否能设立超出上位法的域外管辖权存在疑问。第三,网络信息内容安全管理和通用技术规制之间的矛盾。将通用性的人工智能限制在网络信息内容上,可能出现规制工具和规制目标的不匹配。实际上,在不同的场景下,生成式人工智能的风险因形态而异,如何判断其风险,需要模块化判断。第四,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。总之,对生成式人工智能应坚持以“宁小勿大,宁浅勿深”的敏捷治理方式。


对外经济贸易大学副教授

数字经济与法律创新研究中心执行主任

张欣

对外经济贸易大学副教授、数字经济与法律创新研究中心执行主任张欣从监管对象、监管方式和监管创新三方面提出了生成式人工智能的法理思考。在监管对象上,我国的人工智能企业此前多集中在应用层,在基础层和和技术层分布相对较少;在监管方式上,面向生成式人工智能的产业链特点,可以提升监管的互操作性、一致性。在监管创新上,一方面应注重监管的韧性,另一方面应积极探索以模块化监管为代表的新型监管方式。同时,张欣副教授对《生成式人工智能服务管理办法(征求意见稿)》提出了四点修改意见:第一,进一步厘清征求意见稿第2条对“生成式人工智能”的定义。第二,面向产业链特点明确征求意见稿第5条中“产品生成内容生产者”的范围,不宜通过一刀切的方式让所有行动主体都承担产品内容生产者的责任。第三,征求意见稿第7条关于预训练数据和优化训练数据来源的准确性问题可以适当调整,只要在可接受的技术水平条件下,组织和企业履行了相应义务,可认为符合人工智能准确性原则。第四,征求意见稿第15条关于防止再次生成的期限和防止再次生成的方式聚焦于技术过程,目前的技术手段上难以达成,可以转换为从结果监管的角度防止被用户举报的不合法合规的内容再次出现。


中国人民大学法学院副教授、未来法治研究院执行院长张吉豫指出,这一轮生成式人工智能取得显著进展的背后,大规模数据训练是必要的基础,应从这一角度深入探讨相关问题。从著作权的角度,海量的数据挖掘和海量内容的输入对于著作权或其他权利的侵犯存在法律责任上的问题。对于输出内容的侵权责任问题,可以回归网络服务提供者和网络内容提供者划分背后的基本原则。两者的划分实际上是基于客观分层而导致的发现和组织侵权行为的成本不同,同时对于用户隐私保护的影响程度也不同。在进行生成式人工智能的相应责任分配时,也应当体现分类分层认定的基本原则。当下能采取的措施应超越过去简单的删除责任,但仍然建立在技术发展的基础上进行合理的界定,这也是探讨问题的必要基础。回到征求意见稿上,其并未根据核心技术、在不同的服务场景下对内容生产者的责任进行相应的划分。既然我国一直倡导并强调人工智能对智能社会发展的支撑,让核心智能服务提供者承担所有责任不符合法理判断。同时,行政领域的责任界定应该从体系化的角度与民事领域的责任分配进行必要衔接。所以,在此基础上,对不同场景化的生成式人工智能,应坚持过错责任的基本原则。风险伴随着机会,应当在模型提供者、应用层开发者和使用者之间进行合理的义务分配,在人工智能的发展场景下促进人工智能的合理使用。在这一过程中,安全与发展相统筹仍然是领域中的重要原则。在过错判断的具体方法上,著作权法中可借鉴网络服务提供者过错界定的多因素判断法,考虑是否积极采取了预防侵权的合理措施,避免静态一刀切的方式。


中国人民大学法学院教授

未来法治研究院副院长

丁晓东

中国人民大学法学院教授、未来法治研究院副院长丁晓东从马斯克对ChatGPT的监管倡议切入,结合美国两党政治的背景,指出了马斯克倡议的动机。由于ChatGPT在美国是偏向民主党意识形态的产品,不少共和党声音担心其成为民主党的政治工具,短期内又无同类产品相抗衡,因此呼吁对其内容标注审查。以此为背景,如果我国缺乏与ChatGPT相抗衡的产品,在意识形态领域反而会缺乏优势,对国家安全造成重大风险。因此,当前对生成式人工智能可以注重价值观方面的监管,但应当以促进其发展和整体安全为主轴,不应以零风险、内容准确等思路进行监管。面对网络风险安全,无论是敏捷治理还是韧性治理,在监管思路上需要明确定位,都应该以习近平总书记所提到的“开放、动态、整体、相对”的视角去看待。对于不涉及意识形态安全的问题,应当更多利用侵权法、平台责任、避风港等制度进行监管,在司法实践中通过已有法律与个案进行监管,注重法律的融贯性。最后,中国的人工智能发展还应破除很多法律障碍,关于数据融合、数据汇聚等问题,现行法律还需要转型升级。


中国人民大学法学院教授

未来法治研究院研究员

万勇

中国人民大学法学院教授、未来法治研究院研究员万勇指出,首先,在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,因应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。最后,在中国的合理使用制度改革问题上,以往的司法实践通过在《著作权法》之外,以创新的方式认可相关的合理使用类型。而在目前的情况下,则建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。


中国人民公安大学法学院教授

数据法学研究院院长

苏宇

中国人民公安大学法学院教授、数据法学研究院院长苏宇认为,处于追赶中的国内生成式人工智能在风险治理之余也非常需要制度支持。生成式人工智能大模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等问题,《生成式人工智能服务管理办法(征求意见稿)》的主要考量问题是信息内容安全问题,在安全保障方面设计了“六重叠加”的机制,包括输出端的生成结果控制、输入端的数据来源和数据信息内容限制、扩展的内容生产者责任、用户举报与主动监管结合、宽泛的信息提供义务、与算法推荐和深度合成等已有立法的有限衔接等。其中部分机制存在不同程度的安全冗余溢出。除此之外,还有需要充分考虑的治理要点,包括生成代码的单独归类、训练数据的必要区分、输出结果的类型提示、数据来源合法性的具体界定等。未来在生成式人工智能治理方面可能还需要考虑的额外问题是如何精细发展新型算法规制工具箱,平衡好通用人工智能发展和风险防范的需求,尤其是既防范提示工程引发的复杂风险,又确保使用者能利用提示工程引导生成优质结果。总体来说,对于生成式人工智能的法律治理,大幅度降低无效或低效风险冗余应当是机制设计的重要目标。





03

主题发言三:

AIGC的产业创新发展与安全之衡平

中国社会科学院法学研究所编审、教授

姚佳

会议主旨研讨的第三单元“AIGC规制之方略探讨”由中国社会科学院法学研究所编审、教授姚佳主持。姚佳教授指出,就人工智能时代技术与法治之间的关系而言,需注意风险泛在并不等于风险泛化,本环节将对AIGC规制的妥适方略展开探讨。


中国信通院高级工程师、法学博士

程莹

中国信通院高级工程师、法学博士程莹分享了生成式人工智能的三大特点,并在算法治理的演进历程中分析新的问题挑战与对策建议。第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键问题。征求意见稿第5条应对各个主体进行精细划分。第二个特点是内容生成性,其带来了知识产权、虚假信息等问题。未来生成式人工智能代表了知识调用方式的变迁,将掌握绝大多数信息来源,相较于深度合成的重点标识义务,负有更高算法评估、自我审查等义务。然而,一刀切要求训练数据和生成结果的真实性可能与生成式人工智能的技术本质存在一定冲突。第三个特点是数据依赖性,这是人工智能一直以来的典型特征,但是呈现了新的形式,例如中文语料库输入不足带来的文化偏见、数据虹吸效应带来的数据泄露风险等,相关法律义务应注意保持与上位法要求的一致性。最后,应综合考量大国竞争博弈、常态化监管要求、未来产业生态三个视角纬度,布局生成式人工智能的未来治理路径。


中国科学技术信息研究所

人工智能发展研究中心助理研究员

刘鑫怡

中国科学技术信息研究所人工智能发展研究中心助理研究员刘鑫怡首先就英国的ChatGPT大模型应用的监管框架和背后的监管依据进行分析。英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,其在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。其次,在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。最后,结合大模型发展趋势提出了相关的监管建议。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。


商汤科技人工智能伦理与治理研究主任

胡正坤

商汤科技人工智能伦理与治理研究主任胡正坤从实务角度提出自己的体会和观察。首先,面对正处于发展早期阶段的大模型服务,我们对其实际应用风险应进一步加强论证,深化认识。从产业的可持续发展角度来看,强化风险管理是必要的,目前,模型安全和伦理问题已经成为行业重点关注和投入的方向之一。在这方面,商汤也积极贡献力量,推出了“AI安全治理开放平台”,为行业提供技术公益服务。其次,治理体系的落地还需要加强配套基础设施的供给,在保障治理效果的同时,降低治理成本。最后,全球各方均在积极探索人工智能治理,可以考虑在数字贸易协定框架下,推动人工智能治理规则的“互联互通”,降低人工智能国际合作壁垒。

三、自由讨论

 中国法学会网络与信息法学研究会常务理事

陈晨

会议自由讨论环节“探求AIGC发展与安全的道与术”由中国法学会网络与信息法学研究会常务理事陈晨主持。


百度集团交易及合规法律部AI业务法务合规负责人

徐全全

百度集团交易及合规法律部AI业务法务合规负责人徐全全从人工智能合规一线的角度提出对生成式人工智能治理问题的看法,指出应当通过倡导性的科技伦理方式进行引导,实施分阶段治理,不能一刀切地要求其承担超出法律范围的责任。


中国人民大学交叉科学研究院博士后李铭轩提出了两点补充。第一,关于价值观的安全问题,ChatGPT体现的价值观可能与训练数据中的价值观偏向有关,也可能与人在回路强化学习(Reinforcement Learning from Human Feedback)中标注者的价值观或者标注指南中蕴含的价值观有关。通过人在回路强化学习等方法可以进行一定程度的价值观对齐,但目前还不能完全解决这一问题。第二,法律本身是非常讲究体系化思维的学科,在面对生成式人工智能带来的问题时,其应对的原理可能与现有法律规则的原理是相通的,因此或许通过适用、类比或者借鉴现有规则,可以解决此类问题。此外,如果要针对生成式人工智能设置新的规则,也要注意其与现有相关规则之间的协调。


中国法学会网络与信息法学研究会常务理事陈晨总结表示,美国的GPT4在生产力上具有跨越性,相关的生态已经逐步形成规模,并已经开始影响国内中小企业的技术布局和产品布局,这会造成严重的数据跨境、训练模型跨境、衍生产品跨境等问题。中国自身的大模型,比如百度的文心模型,必须尽快迎头赶上,这有赖于政策立法的宽容性支持。

结语

两高律师事务所管委会主任

唐兴华

会议闭幕环节由两高律师事务所管委会主任唐兴华主持。唐兴华律师总结指出,生成式人工智能算法的已经超出了传统互联网信息服务的功能,结合个人使用生成式人工智能算法产品的交互体验,可以从信息输入和结果呈现两端进行监管,对于信息的处理过程,应该对标世界标准,给予科学技术以充分的空间。在信息安全等有关重大问题上,我们要认识到监管的必要性,但监管的科学方式与合理空间应在产业部门、监管机构、立法机关之间进行充分沟通。未来在法律查询、案例检索、案例分析、法律分析等重要工作上,人工智能都能很好地提供助力,甚至表现出远超人类的特质,我们要适应这种变革,积极拥抱这种变化。


中国人民大学法学院副教授、未来法治研究院副院长王莹在闭幕致辞中指出,AIGC技术的革新性、颠覆性引发了广泛的风险焦虑,学界与监管者、立法者应科学、理性地对待这种风险焦虑,我们今天邀请到产业界、学界、政府部门研究机构等多元主体从社会政治学、科技伦理、网络传播学、传统法教义学等不同维度对该技术及其效益、风险展开系统分析,以期为监管部门制定妥适的生成式人工智能规制方略提供参考。从更广泛的地缘政治与国际竞争层面来看,生成式人工智能技术可能是国际权力重构的技术武器,我们在积极设置风险护栏时也应避免设置过多发展桎梏,未来法学界应深入对人工智能正当技术程序工具与算法责任原理的研究,平衡过程与结果端的规制手段,引入风险场景与类别的区分式规制模式,为我国生成式人工智能发展提供中国的规制方案。

综述撰写:梅海岚,指导老师:王莹,编辑:杜佳璐

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存