查看原文
其他

【前沿案例】针对OpenAI集体诉讼第一案起诉书编译

潘弘宇 网络法理论与实务前沿 2023-07-04


图片来源:Analytics India Magazine


【编者按】

针对OpenAI的第一起集体诉讼——由美国Clarkson律所代理,6月28日向加州北部地区巡回法院提起,起诉被告OpenAI和微软。原告指控被告在开发、营销和运营其人工智能产品时,非法地收集、使用和分享了数以亿计的互联网用户的个人信息,包括儿童的信息,侵犯了原告的财产权、隐私权和其他法律权利,并给社会带来了潜在的灾难性风险。原告提出了15项指控,包括违反《电子通信隐私法》、《计算机欺诈和滥用法》、《加利福尼亚侵犯隐私法》、《加利福尼亚不正当竞争法》、《伊利诺伊州生物识别信息隐私法》、《伊利诺伊州消费者欺诈和欺骗性商业行为法》、疏忽大意、侵犯隐私、侵扰秘密、盗窃/收受赃物、侵占、不当得利、未予警告和《纽约州一般商业法》。原告申请禁令救济,要求获得损害赔偿金(请求适用三倍损害赔偿、惩罚性损害赔偿和示范性损害赔偿)、律师费和其他救济。近160页的起诉书涉及多项内容,如数据爬取、知情同意、儿童保护、虚假信息等,其主要内容概括如下。起诉书原文关注公众号,点击阅读原文即可下载。



01

背景

(一)集体诉讼的起因

这场集体诉讼源于被告在开发、市场营销和运营其人工智能产品中的非法和有害行为,包括ChatGPT-3.5、ChatGPT-4.0、Dall-E和Vall-E(以下简称“产品”)。这些产品使用了从数亿互联网用户中窃取的私人信息,包括可识别个人身份的信息,而这些用户包括各个年龄段的儿童,并未获得他们知情同意或知晓。此外,被告继续非法地收集并利用来自全球数百万无戒备消费者的额外个人数据,远远超出任何合理授权使用的范围,以继续开发和训练这些产品。该诉讼声称这种数据采集发生在“史无前例的规模”上。


01

背景

(二)美国人工智能的发展情况

1. OpenAI :从开放的非营利组织到利益驱动的科技巨头微软的商业伙伴

多年来,OpenAI一直声称以公开的方式追求其使命,即安全和负责任地推动人类进步。然而,2019年开始,OpenAI发生了180度的转变,从一个开放的非营利组织转向以盈利为目的的公司结构,并与微软等投资者合作。OpenAI的组织结构转变引发了许多担忧。人们担心OpenAI在追求短期财务利益时忽视了长期的安全和伦理考虑,尤其是他们在已知存在风险的情况下突然将产品广泛商业化。人工智能研究人员、伦理学家和公众都对OpenAI的转变表示担忧,并认为OpenAI将短期财务利益置于人类利益之上。


埃隆·马斯克对OpenAI的转变表达了强烈的不满。作为最初的非营利组织资助者和创始人之一,他对OpenAI由非营利组织变成盈利公司感到困惑和失望。他认为OpenAI最初是为了开放和公开,以对抗谷歌等巨头,但现在却成为了一个闭源的、以最大利润为导向的公司,并受到微软的控制。


总而言之,OpenAI的组织结构转变引发了众多关注和担忧,涉及到道德、安全和伦理等问题。人们质疑OpenAI将短期利益放在长期发展和人类利益之上的做法,以及其对个人数据的收集和使用。同时,OpenAI与微软的合作关系也引发了对市场垄断和利益驱动的担忧。


2. ChatGPT的发展取决于秘密的网络抓取

被告秘密地从互联网上抓取了大量个人数据,包括人与人之间的对话数据,用于训练其大型语言模型(LLM),例如ChatGPT。这些数据包括个人信息、聊天记录、在线客户服务互动、社交媒体对话和从互联网上抓取的图片。被告未经同意地获取了这些数据,并未按照适用法律注册为数据经纪人。被告使用了至少五个不同的数据集来训练ChatGPT,其中包括来自Common Crawl和WebTex2的数据。这些数据集包含了数十亿个单词和大量个人信息。被告的行为引发了严重的法律、道德和伦理问题,威胁到数百万人的隐私权利。该诉讼旨在保护个人隐私权利并要求被告对其行为进行合理补偿。


3. ChatGPT在被告的程序和应用程序的用户上进行训练

ChatGPT在被告的程序和应用程序的用户上进行训练,未经用户同意使用其个人数据。被告继续使用来自ChatGPT注册用户和使用带有赞助应用程序的ChatGPT插件的用户的数据来训练AI。他们收集和使用用户互动的所有数据作为训练数据,包括点击、输入、问题、使用、移动、按键、搜索和地理位置等信息。尽管OpenAI声称限制使用用户输入进行训练,但在更新后的使用条款中仍允许使用来自API之外的服务的内容来改进产品。OpenAI未充分披露他们监控、保存和共享收集到的个人信息。这种收集大量用户个人信息的行为涉及用户未知和未同意,包括聊天框中的信息、账户信息、联系方式、登录凭据、IP地址和其他敏感个人信息。被告整合了这些数据,并将其与用户的数字足迹进行汇总,拥有历史上最大规模的个人在线信息收集。这种做法存在潜在风险,并将用户数据“托付”给不可预测的语言模型和机器人。被告和科学家自己都承认无法完全理解这些技术的工作方式,因此无法保证数据的安全性。这种将大量个人数据整合到无法预测和理解的产品中,并在全球范围内部署的行为被认为是严重的过失。


4. 微软推广OpenAI的经济依赖模式

微软推广OpenAI的经济依赖模式,将ChatGPT集成到几乎所有行业。微软在推广ChatGPT的应用中发挥主导作用,将其集成到核心产品和服务中,从学术界到医疗保健。微软将ChatGPT集成到Bing搜索引擎、Microsoft Teams通信平台、Cortana数字助手和Dynamics 365生态系统中的客户服务聊天机器人。这样的集成使得数据滥用的风险达到前所未有的高度,涉及广泛的用户互动范围。OpenAI现在充当了微软的数据搜集公司,向微软提供数百万个人的ChatGPT用户和非用户数据。这种数据收集的范围和用户个人资料的建立带来了潜在的风险,包括数据隐私法规违规、消费者信任侵蚀和敏感信息滥用的风险。微软没有采取措施来缓解这些风险,解雇了负责确保伦理AI原则的团队。其他公司也迅速效仿微软,在各行各业开发应用和服务中集成GPT-4等技术,AI的商业应用呈现爆发式增长。OpenAI与许多有影响力的组织合作,并在互联网上扩散无限制。在过去几个月里,OpenAI与众多公司合作,涵盖了各个领域的创新。这种扩张没有任何限制或边界,快速而广泛地渗透到人们日常生活的各个方面。


01

背景

(三)不加控制的人工智能扩散带来的风险

国际社会一致认为,不受控制的人工智能扩散会造成威胁。这种扩散导致了强大工具的创建和使用,这些工具用于操纵舆论、传播虚假信息,并破坏民主机构。进一步发展这些强大工具将加速宣传的传播和极端声音的放大,并通过无法检测到的虚假信息影响选举。特别是在美国,人工智能技术的快速发展使其受到了重大影响,由于缺乏有效的监管,不负责任和不可信任的人工智能工具的传播加速。各方对这种趋势表示担忧,认为恶意行为者将利用人工智能技术造成实际伤害。因此,需要通过合理的法律和社会道德的约束来确保人工智能的安全和公正发展,并建立全面的监管机构和隐私框架来应对人工智能带来的风险。多个组织和机构已经呼吁加强人工智能监管,并制定相应的法规和标准来规范其使用。此外,一些国家已经采取行动限制人工智能的使用,尤其是涉及个人数据收集和隐私问题。总之,确保人工智能的负责和可信任性对于创造一个安全和公正的人工智能未来至关重要。


1.大规模侵犯隐私的行为

被告对用户个人信息的大规模收集和跟踪构成了隐私和安全的巨大威胁。这些信息可能被用于恶意目的,例如身份盗窃、金融欺诈、敲诈勒索等。用户对于个人数据的收集和使用存在担忧,尤其涉及特别敏感的信息,如医疗记录或未成年人的信息。被告提供的删除选项实际上是虚假的,用户对于他们的数据如何被收集和使用没有完全掌控权。

 

“作为对隐私的大规模侵犯的进一步加剧,OpenAI目前没有提供有效的程序供个人请求删除他们的信息/训练数据。相反,OpenAI只是提供一个电子邮件地址,消费者可以通过该地址联系以删除他们的信息。但这个所谓的“选项”是虚假的。无论个人是否在技术上可以请求ChatGPT删除他们的数据,完全删除是不可能的,因为被告将ChatGPT训练在个人输入、个人信息和其他用户和非用户数据上,这些数据无法像一个人无法“忘记”他们六年级学过的数学一样可靠和完全地从训练过的AI系统中提取出来。”

“AVG隐私和网络安全公司的一位AI研究员解释说:‘人们对未经他们许可使用数据感到愤怒...有时,有些人已经删除了他们的[在线]数据,但由于语言模型已经使用了这些数据,数据将永远存在。他们不知道如何删除这些数据。’”

“同样,一些公司禁止或限制ChatGPT的使用,因为他们“担心上传到像OpenAI的ChatGPT或Google的Bard这样的AI平台的任何内容也将被存储在这些公司的服务器上,无法访问或删除这些信息。”

 

此外,医疗行业整合AI技术,可能进一步加剧隐私和安全的风险。在法律层面上,OpenAI不符合“被遗忘权”的要求,无法满足隐私保护法的要求。


2.AI引发的虚假信息宣传、有针对性的攻击、性犯罪和偏见

产品的使用为传播虚假或误导性信息提供便利,即使没有 “误用”。这是因为ChatGPT经常使用的一个特点(已知缺陷)是编造虚假信息,包括有可能对个人造成诽谤的信息。即使是 “改进”版(GPT4)也 可能产生完全错误的文本。一个引人注目的例子是美国法律教授乔纳森-特利(Jonathan Turley)。ChatGPT诬陷教授对他的一个学生进行性骚扰,甚至提供了一个“消息来源”。犯罪是通过其编造的一篇新闻报道进行的。被告称这是“幻觉” ,但全世界都知道它是诽谤。虽然被告据称正在“努力” 解决这个问题,但他们继续在全世界范围内推广有缺陷的产品。


除了传播错误信息外,犯罪分子已经并将继续使用这种技术用于骚扰、勒索、敲诈、胁迫和诈骗。一种 "性骚扰 "的形式,利用人工智能工具和可公开获得的信息来实施。通常通过社交媒体获得的私人照片和视频,以创建含有色情内容的深层假象。这些照片或视频随后在网上公开流传,以达到骚扰受害者的目的、将给受害者造成极端的情绪和心理困扰。另外,恋童癖者通过使用Dall-E,仅仅几秒钟就能创造出儿童进行性行为的逼真图像。在暗网论坛上已经发现了数千张这样的图片。


产品的持续商业部署也将扩大并巩固产品来源中所反映的人类偏见和成见,被告人在不考虑这些因素的情况下,通过纳入和培训产品中的内容来使用这些产品。


3.超强的恶意软件创建

这些产品提供了超强的恶意软件创建能力。恶意软件是旨在破坏或渗透计算机系统的计算机程序。这些产品能够生成几乎不可检测的恶意软件,并且可以大规模使用,对全球的网络安全构成前所未有的风险。恶意软件可以通过嵌入现有互联网应用程序的漏洞中进行部署,从而对政府、医疗系统等目标进行破坏。过去十年中,恶意软件变得越来越复杂,越来越难以检测,而这些产品通过帮助创建变异的恶意软件使其更加难以检测。这些恶意软件具有变异引擎和自我传播代码,可以快速改变外观和组成,使得现有的恶意软件检测工具无法识别其新形式。ChatGPT可以使用其API在运行时构建多态代码,部署高级恶意软件攻击,逃避终端检测和响应(EDR)应用程序等安全系统的检测。尽管声称有禁止生成多态恶意软件的安全防护措施,但实际上恶意软件开发人员可以通过巧妙的输入绕过这些过滤器。随着生成模型的进一步发展,可能会创造出只能被其他防御性人工智能系统检测到的恶意软件,这使得安全防御方面的胜负难以预测。因此,将这种增强的破坏能力交给全球普通人而缺乏充分的安全防护措施是被告的严重过失,并且迫切需要司法干预。


4.自主武器

自主武器,也被称为“屠戮机器人”或“杀人机器人”,利用人工智能识别、选择和无干预地杀死人类目标,对国际安全和人权构成独特威胁。这种未受监管的人工智能风险已经成为当前的现实危险,因为这些武器系统已经几乎杀死一位外国元首,而且经验丰富的业余爱好者可以以较低成本建造这样的武器。被告的行为加剧了这个问题,他们的产品中已经存在一种早期自主实现的ChatGPT,该系统宣称要摧毁人类。专家警告称,像这些产品一样的人工智能的进展将加速自主武器的发展,而产品的广泛商业使用进一步增加了这一风险,因为它们不断提升人工智能的能力,却缺乏足够的道德和伦理规范。


01

背景

(四)被告的行为侵犯了财产和隐私权利

被告在秘密的情况下对互联网进行了大规模的抓取,违反了个人的财产权和隐私权。这些爬取行为没有得到用户个人信息的同意,也没有遵守网站的使用条款以及加利福尼亚和其他州和联邦法律。被告抓取的个人信息被用于构建AI产品,并通过商业模式出售访问权限,从中谋取经济利益。与类似的Clearview AI丑闻相似,被告的非法爬取行为在公众和监管机构的关注下才被揭露,而其违法行为依然持续,未向公众提供选择退出的机制。原告和类别人有权知道被告抓取了哪些个人信息、如何使用这些信息,并有权删除和选择不使用这些信息构建产品。


1.被告的网络抓取行为侵犯了原告的财产利益

诸多案例表明,法院认可互联网用户对其个人信息和数据拥有财产权益,并指出原告和类别人通过在线平台生成、创建或提供的个人数据和信息享有财产权益,包括拥有、使用、获利、出售以及拒绝他人在未经同意或补偿的情况下访问或利用该信息的权利。这种个人信息财产权益的经济价值得到了承认,并指出这些数据已成为整个技术经济的重要驱动力。同时,被告未经同意侵占了互联网上所有可获得的数据,以及数百万互联网用户的个人信息,这代表了现代科技时代中前所未有的价值窃取。此外,法律也特别承认通过未经授权的个人数据收集获得的非法利润存在合法利益。被告通过窃取个人信息并在其AI业务中进行收获和变现,因此原告和类别人员有权获得返还和/或赔偿损害,代表被窃取数据的价值和/或他们在被告所获利润中的份额。


2.被告的网络抓取行为侵犯了原告的隐私利益

被告的网络抓取行为侵犯了原告的隐私利益。除了财产权利之外,互联网用户对个人信息拥有隐私权利,即使这些信息已经发布在网络上。

收集聚合的信息可以揭示个人不期望被公开的新信息。即使只有少量的“公开”私人信息,也足以损害互联网用户的隐私权益。例如,通过分析公开的推文,可以揭示用户的心理健康问题,而这些用户并没有同意或预期他们的数据会被用于这种方式。

用户在互联网上保留个人数据的隐私权益的另一个原因是合理预期,即认为他们的活动或信息不太可能被发现、看到或记住,因而相对安全。用户合理地期望大多数互联网用户会忽略他们个人的帖子。同时,时间的流逝也会使信息模糊,导致人们不再记得过去发布的信息。

被告未经通知进行的数据抓取使得合理用户无法预料他们的个人信息会被收集,严重侵害隐私权利,破坏了个人的自主权和自由选择。缺乏通知使得个人无法参与数据收集过程,无法控制自己的数据如何被使用。此外,这种侵害不仅是感觉上的,还导致实际的经济损害,因为个人信息市场庞大。


3.被告的商业行为冒犯了理性人,并无视监管机构日益明确的警告

被告的大规模抓取个人数据的做法引发了对其合法性和隐私影响的愤怒。公众对被告如何使用和可能滥用他们的个人信息感到恐惧和焦虑。人们担心自己的个人信息被访问、共享和滥用,因为这些信息被永久嵌入到产品中。被告冒着前所未有的隐私风险并从中获利,这引起了普通人的不满。公众认为被告应该承担公正的补偿,否则人工智能的发展只会导致财富的集中和失业的增加。人们呼吁法律或公平的方式来重新分配被告非法获得的收益。


4.被告在超过合理同意的情况下窃取用户数据的行为

被告的第二类数据抓取行为是对用户数据的无限制收集。


首先,对于那些使用ChatGPT插件或API的消费者来说,各个网站的用政策并没有提供任何接近于知情同意的东西,消费者的信息和个人数据将被用于训练被告的大语言模型。其次,即使那些注册了OpenAI的原告和集体成员帐户并与ChatGPT直接互动的人并没有有效同意被告人使用他们的数据和个人信息以目前的方式进行。


被告欺骗性地告诉用户可以要求不使用他们的私人信息,但实际上无法从语言模型的知识库中删除已收集的数据。被告未能向消费者提供关于数据共享实践的准确和全面的通知,数据滥用行为违反了透明度原则,需要承担责任和尊重隐私。


OpenAI的披露并不充分

例如,注册OpenAI账户的消费者只能看到小型、灰色的超链接指向隐私政策和使用条款,字体非常小。消费者无需表明是否实际阅读了这些文件,也无需表明是否理解这些文件与他们创建账户之间的关联。与其他公司要求消费者滚动到底部或点击已阅读单选按钮不同,OpenAI的注册者无需做出任何肯定的表示,表明他们了解这些政策。因此,原告和用户子类对ChatGPT平台上的隐私政策既没有被推定知情,也没有被询问注意。


被告对消费者数据的使用远远超过了行业标准,和他们自己的陈述

联邦贸易委员会制定了关于数据安全实践的指南,要求企业保护客户信息、处理不再需要的信息、加密存储的数据、了解网络漏洞并纠正安全问题等。被告未能履行这些义务,直接将消费者的个人信息输入到其语言模型中用于培训。被告的隐私政策模糊承诺了信息的共享方式和时间,并存在内部矛盾。被告没有充分披露窃听行为,没有明确同意,且隐私政策复杂且不显眼。被告未能保持对用户数据的承诺,违背了其关于数据安全和保护的陈述。被告知道用户会依赖和信任其产品的数据和系统安全性,但他们收集、跟踪和披露用户数据,包括敏感信息,超出了合理的范围。这种行为导致原告和类成员面临持续威胁和损害,并破坏了用户对被告产品的信任。


01

背景

(五)被告的行为对儿童的隐私和安全构成特殊的风险

1.被告欺骗性地追踪未经同意的儿童

随着ChatGPT的普及和复杂性增加,它可以收集、跟踪和披露大量关于儿童的个人数据,这些数据对儿童来说尤其敏感,可能揭示他们的身份、位置、兴趣和关系。以盈利为驱动的企业不加选择和未经授权地收集、跟踪和披露这些数据,破坏了儿童的隐私和自主权,并使他们面临滥用、剥削和歧视的风险。此外,ChatGPT的不负责任使用可能给儿童带来心理健康问题,尤其在青少年心理健康问题流行期,可能加剧孤立、抑郁和自杀倾向。然而,GPT-4系统在测试期间没有提供关于OpenAI进行安全检查的详细信息,也没有说明OpenAI采取的保护儿童的措施。


2.被告设计的ChatGPT不适合儿童使用

被告OpenAI收集大量数据来训练语言模型AI和编制训练数据集,这需要个人的同意。只有成年人有能力给予同意,并且OpenAI的隐私政策或服务条款应足够清楚地解释这一点。OpenAI在服务条款和隐私政策中明确指出ChatGPT的使用对象是十三岁及以上的个人。使用条款文件明确要求年龄限制,并提到需获得父母或法定监护人的许可。OpenAI通过自我报告出生日期的方式阻止未满十三岁的儿童创建ChatGPT账户,但这种方法是无效的,因为未成年用户可以提供虚假的出生日期。孩子只需更改自报的出生日期就能绕过年龄限制,无需重新验证电子邮件地址,而OpenAI仍然允许他们创建账户。OpenAI未努力验证个人信息的准确性,即使存在相同用户的不一致信息。用户只需点击继续按钮就能创建账户,而不需要真正同意隐私政策,只需承认其存在。这表明被告设计的ChatGPT并未有效防止未成年人使用该平台,因为年龄限制和同意隐私政策的过程存在缺陷。


3.被告人剥夺了儿童的个人数据的经济价值

儿童的个人信息对被告等公司来说具有与成年人相当甚至更大的价值。首先,儿童更容易受广告的影响,无法区分内容和广告,且更有可能向ChatGPT透露个人细节和高度私密信息,被告利用这些信息训练LLMs来获取经济利益,并可能与附属公司、供应商、服务提供商或合作伙伴共享信息以增加私人利润。其次,被告及其共享用户信息的人可能在孩子一生中利用其个人信息,导致原告和未成年成员无法实现个人信息的全部经济价值,因为这些信息已被收集、分析、处理并纳入语言模型以获利。第三,对于年幼的儿童,详细跟踪习惯、偏好、思维和地理位置数据涉及个人安全和隐私问题。被告非法收集儿童的个人信息给他们带来了无法撤销的“先发优势”,通过从儿童与ChatGPT的互动中获取深入洞察,被告和与其共享数据的公司能够让儿童与各种应用程序、网站、语言模型和平台互动,并在语言模型中纳入大量与儿童相关的内容以巩固其在人工智能市场的主导地位。被告否认将ChatGPT推向儿童,但众所周知,未成年人和学龄儿童正在使用该服务,学校不得不打击使用以防止作业作弊等行为。因此,被告应该知道其年龄验证和家长同意协议的无效性,导致成千上万的未成年儿童(包括13岁以下的儿童)可以访问ChatGPT并与语言模型共享个人信息。


4.被告对未经父母同意的儿童进行的剥削行为侵犯了合理的隐私期望,并且极具冒犯性

被告未经父母同意剥削儿童的行为违反了对隐私的合理期望,并极具冒犯性。这种行为特别令人发指,因为被告违反了旨在保护儿童的社会规范和法律,而儿童作为极易受到剥削和操纵的群体,特别需要这些保护。家长抚养和控制子女的权利是基本的自由权益。家长同意的要求不仅是法律要求,旨在保护极易受到欺骗和剥削的儿童,还要尊重家长决定子女与何人以及在何种条件下互动的重大权利。这些家长权利受到像被告这样拒绝建立合理可验证的家长同意保护措施的公司的极大影响和威胁。两岁时,儿童在发展上就具备使用智能手机和平板电脑的能力。在美国,几乎每个有八岁以下子女的家庭都拥有智能手机(95%)和/或平板电脑(78%)。儿童拥有自己的设备非常普遍。调查显示,大约20%的儿童在8岁时已经拥有手机,而超过一半(53%)的美国儿童在11岁时拥有自己的手机。一项调查还发现,绝大多数家长支持隐私的基本原则,强烈不同意广告商追踪儿童在网上的行为、收集儿童的位置信息以及在未获得家长同意之前在儿童的设备上安装追踪软件。在这样的背景下,被告对儿童的明知利用而没有适当的家长参与不仅违法,而且严重冲击社会规范和道德。


02

代表的集体

集体的定义

原告根据联邦民事诉讼程序规则第23(b)(2)、第23(b)(3)和第23(c)(4)条款,代表原告和以下定义的集体提起此诉讼:


加利福尼亚州子集体


纽约州子集体


伊利诺伊州子集体


以下人员不包括在集体和子集体中:(1)任何负责本诉讼案件的法官或审判官,以及他们的法庭工作人员和直系家属;(2)被告、被告的子公司、母公司、继任者、前任和被告或其母公司控制的任何实体以及其现任或前任高级管理人员和董事;(3)按时正确执行并提交排除申请的人;(4)在本案中的索赔已经最终根据实质判决或以其他方式被解除的人;(5)原告的律师和被告的律师;以及(6)此类被排除人员的法定代表人、继任人和受让人。


另外原告提出加利福尼亚法律适用于州外原告和集体的索赔。


03

十五项指控

经过上述分析,原告提出了以下十五项指控


04

救济请求

(一)禁止令

以临时冻结对产品的商业访问和商业开发,直至被告能够向法院证明已经完成以下部分或全部事项,以符合法院的要求:

(1)建立一个独立的思想领袖机构(“AI委员会”),负责在产品部署前批准产品的使用;


(2)实施问责协议,使被告对产品的行为和输出负责,并禁止进一步的商业部署,除非产品能够遵循类似人类伦理原则和准则以及尊重人类价值和权利的行为准则,并且在原告和类别成员公平补偿依赖产品的被盗数据;


(3)根据AI委员会的决定,实施有效的产品网络安全防护措施,包括符合行业标准、适用法规以及联邦、州和/或地方法律的充分协议和实践,以保护用户通过输入此类信息到产品中以及通过被告的大规模网络抓取而收集的个人健康信息/个人身份信息(PHI/PII);


(4)实施适当的透明度协议,要求被告清楚明确地披露其收集的数据,包括从何处和从谁处收集,并在明确且引人注目的政策文件中明确说明如何存储、处理、保护和使用这些信息;


(5) 要求被告允许产品用户和普通互联网用户选择退出所有数据收集,停止非法获取互联网数据,删除(或补偿)任何非法获得的数据或基于这些被盗数据构建的算法;


(6)要求被告向产品添加技术安全措施,以防止技术超越人类智能并对他人造成伤害;


(7)要求被告实施、维护、定期审查和修订威胁管理计划,以适当监控被告的信息网络中的威胁,包括内部和外部威胁,并评估监控工具是否配置、测试和更新适当;


(8)建立一个货币基金(“AI货币基金”或“AIMF”),用于赔偿类别成员因被告过去和持续的不当行为而遭受的损失,该基金的资金来源为产品的总收入的一部分;


(9)指定第三方管理员(“AIMF管理员”)作为“数据股息”,管理AIMF向类别成员提供公平和合理的补偿,以补偿依赖产品的被盗数据;


(10)确认被告已经删除、销毁并清除所有相关类别成员的个人身份信息/个人健康信息(PII/PHI),除非被告能够提供合理的理由证明保留和使用该信息相对于类别成员的隐私利益而言是合理的;


(11)要求进行进一步的正确行动,以符合允许的法律,并且仅根据允许的诉因。


04

救济请求

(二)损害赔偿等

原告请求:实际损害赔偿金额由审判确定;法定损害赔偿金额由审判确定;公平救济,包括货币损害赔偿、归还和利益返还;审判前利息;审判后利息;由其律师承担的合理律师费和诉讼费用,以认可相关的消费者保护法所倡导的鼓励追究不公平商业行为的精神;适用法律允许的三倍损害赔偿;适用法律允许的惩罚性损害赔偿;适用法律允许的示范性损害赔偿;法院认为公正和适当的任何其他救济措施。

 

起诉书强调,本诉讼仅寻求暂停产品的无约束和商业推广,而不影响人工智能的研究和开发。这样做是为了确保人工智能得到良好的发展和应用,并防止潜在的危害。诉讼的目的是保护个人隐私权,阻止个人数据的大规模盗取,并获得公正赔偿。


暂停将为发展共同安全协议创造机会,管理风险并确保产品的安全。在暂停后,人工智能可以为医疗保健领域带来革命性变化,帮助发现挽救生命的新药物,治愈癌症等致命疾病。此外,产品还可以为日常生活、艺术表达、社会正义等领域做出贡献,促进社会福祉。适当的保护措施,包括道德和伦理准则,将有助于防止人权侵犯、减少人类歧视和偏见,并促进全球合作和和平。



【编译】潘泓雨,网络法理论与实务前沿编辑

【编辑】施晓宇,网络法理论与实务前沿编辑

【指导教师】张欣,对外经济贸易大学数字经济与法律创新研究中心执行主任




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存