查看原文
其他

智能晚报|英国政府对AI态度收紧;律师诉状引用ChatGPT给出的案例是编造的...

何昕晔 新皮层NewNewThing 2023-08-02

「致歉:今日新闻推送头图失误,抱歉造成干扰」


整理:何昕晔

编辑:王杰夫

Key Points


英国政府对AI态度转向,首相苏纳克首提AI风险。


律师诉状引用ChatGPT给出的案例,被指虚假引证。


Google、OpenAI和Anthropic提出AI极端风险预警系统。


英伟达发布《我的世界》游戏智能体VOYAGER。


用AI生成的数据训练AI,这条捷径似乎走不通。


英国政府对AI态度转向,首相苏纳克首提AI风险

当地时间5月24日,英国首相苏纳克与OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)、DeepMind首席执行官戴密斯·哈萨比斯(Demis Hassabis)和Anthropic首席执行官达里奥·阿莫代(Dario Amodei)举行会晤。会后,苏纳克首次公开表示AI存在风险,而在此之前英国政府在AI开发上一直展现较为积极且宽松的态度。

英国政府过往对于AI开发的态度都很积极

  • 2022年6月,英国计划调整现有法律,允许“出于任何目的”的挖掘文本和数据,该表态引发了音乐、图书等出版行业人员对于版权的担忧。今年2月,英国政府在广泛的争议中表示将取消该计划。

  • 2023年3月13日,英国政府发布了2023年的《综合评估更新》(Integrated Review Refresh2023,IR23),在“技术与数字承诺”部分,首次提出将建立一个政府—产业工作小组,以提高英国在大模型等AI领域的能力。

  • 3月29日,英国政府发布首份针对人工智能产业监管的白皮书,提出了针对ChatGPT等AI技术治理的五项原则,但未提及具体的监管措施。

  • 4月24日,英国政府宣布为新成立的“基础模型工作组”拨款1亿英镑(约合8.6亿元人民币),资金将用于确保英国的AI主权能力,广泛应用安全可靠的基础模型,帮助英国在2030年成为技术超级大国

为何出现态度转变?

之前,在AI开发上抢占先机更加重要;但随着越来越多关于AI监管的讨论被搬到台前,当AI监管逐渐成为一种不可避免的趋势时,抢占AI监管的话语权又变得尤为重要。近期英国所在的七国集团(G7)对AI监管也有诸多表态。4月30日,七国集团技术部长共同声明,需要促进负责任地使用ChatGPT等人工智能工具,同意对AI采取“基于风险”的监管措施。

科技巨头从未如此希望被监管,但这其实是他们说给公众听的免责声明。最初是OpenAI CEO萨姆·阿尔特曼在美国国会参与听证会时主动要求政府监管。而上周这些科技巨头的CEO们又一起跑到欧洲与大国政府会谈。在伦敦大学学院(UCL)发表演讲时,阿尔特曼提出AI监管路径应介于“传统欧洲方法”和“传统美国方法”之间,此外,他还呼吁全球各国领导人建立一个类似于国际原子能机构的组织来监管AI的发展。Google CEO桑达尔·皮查伊本周在《金融时报》上指出,针对AI的监管非常必要,但需要平衡创新及其潜在危害。

中国政府对AI的监管动向

  • 4月11日,国家互联网信息办公室正式发布《生成式人工智能服务管理办法(征求意见稿)》,其中指出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。

  • 5月9日,参照《互联网信息服务深度合成管理规定》等法律法规,抖音推出11条平台规范与行业倡议,要求标识人工智能生成内容、使用虚拟人技术须实名认证等。

总之,越来越多的政府都声称要加强AI监管,但政府监管常常是落后于市场,各国都不希望在制定监管政策时失去话语权,但又不清楚应该如何监管,这个时候提前表明态度总是没错的。


参考链接

https://www.theguardian.com/technology/2023/may/25/no-10-acknowledges-existential-risk-ai-first-time-rishi-sunak


律师诉状引用ChatGPT给出的案例,被指虚假引证

据《纽约时报》5月28日报道,近日,一名律师在其诉状中使用了ChatGPT提供的案例资料,但这些案例被证明并不存在,均由ChatGPT编造。

事件详情

该案主体为一名男子因受伤起诉哥伦比亚航空公司,原告律师Steven Schwartz在其诉讼书中列举了过往的6个类似案例,但对方律师发现这些案例全都不存在。法官核实确认这些案例均为杜撰。

对此,Schwartz承认自己使用了ChatGPT来搜索案例,但他认为自己也被欺骗了。Schwartz展示了他与ChatGPT的对话截图,图中显示他曾多次要求ChatGPT确认引用案例的真实性,而得到的回复都坚称案例真实存在,且可以在法律数据库LexisNexis和Westlaw中找到。

在一份书面声明中,Schwartz表示后悔,“我以前没有使用过此类工具,没有意识到它提供的内容可能是假的。”Schwartz和本案的另一名律师将于6月8日出席听证会,对其提供的虚假信息作出解释。

在中国也出现了AI捏造的“新闻”

  • 4月18日,《杭州市政府关于调整楼市政策的通知》引发关注,后续被证实是小区业主群成员闲聊时,使用ChatGPT撰写的虚假新闻;

  • 5月7日,据“甘肃公安”微信公众号消息,甘肃一男子因发布题为《今晨甘肃一火车撞上修路工人致9人死亡》被采取刑事强制措施。涉案人员使用“易撰”网页版,在全网搜索近几年社会热点新闻,并通过ChatGPT修改编辑新闻要素,之后上传至百家号非法获利。


参考链接

https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur


Google、OpenAI和Anthropic提出AI极端风险预警系统

5月24日,Google、OpenAI等科技公司与牛津等高校合作的一篇新论文发布,提出一套AI极端风险预警的系统。论文指出,AI的进一步发展可能带来极端风险,在识别、评估AI极端风险上,政府和企业需要采取积极的行动。

极端风险评估的两个维度

  • 模型在多大程度上具备某些“危险能力”,这些能力可以被用来威胁安全、施加影响或规避监管;

  • 一个模型在多大程度上倾向于应用其能力造成伤害,模型的对齐能力有多强。(人工智能对齐是指引导人工智能系统的行为,使其符合设计者的利益和预期目标)

研究者提出,评估应尽早开始,以确保模型训练是负责任的、透明的、安全的。

给开发者的建议:

  • 投入资源:评估研究和开发的极端风险;

  • 制定内部政策:在风险评估的基础上,对结果适当报告、作出回应;

  • 支持外部工作:应向外部研究者提供模型访问权限和其他形式的支持,促进对极端风险评估的外部研究;

  • 积极影响政策制定者:前沿开发者应该影响政策制定者,并参与标准制定讨论。

给政策制定者的建议:

  • 系统地跟踪研发中的“危险能力”和对齐程度的动向,为极端风险评估建立正式的报告流程;

  • 投资外部的安全评估系统,并为利益相关者(如AI开发人员、学术研究人员和政府代表)创造场所,让他们得以聚在一起讨论;

  • 针对高性能的通用型人工智能系统展开外部审计,包括模型审计和开发者风险评估审计;

  • 将极端风险评估纳入AI部署的监管中,明确表示不应该部署存在极端风险的模型。


参考链接

https://arxiv.org/abs/2305.15324


英伟达发布《我的世界》游戏智能体VOYAGER

5月27日,来自英伟达、斯坦福等机构的研究人员发布了一款用于游戏《我的世界》(Minecraft)的智能体,名为VOYAGER。《我的世界》是一款像素风格的沙盒类电子游戏,玩家可在三维空间中收集资源、升级工具,并自由创造。

VOYAGER有啥特别的?

VOYAGER是一个由GPT-4大模型驱动,可以终身学习的游戏智能体,它能够在没有人类干预的情况下持续探索世界、获取多样化的技能并做出新的发现。

图片来源:voyager.minedojo.org


与其他智能体相比,VOYAGER实现了多项突破。首先,探索能力更强,相比于另一款智能体SOTA,VOYAGER获得的物品数量是其3倍;其次,解锁科技树速度更快,比其他方法快了 15.3 倍;此外,遍历距离更长,与基线相比,VOYAGER 的行动范围能够覆盖 2.3 倍的距离。

VOYAGER怎么做到的?

VOYAGER包括三个关键组成部分

  • 自动课程,提出开放式探索的目标,促进探索;

  • 技能库,用于存储和检索复杂行为;

  • 迭代prompting机制,结合环境反馈、执行错误和自我验证来改善程序。

通过这三个部分,VOYAGER 拥有了“终身学习”的能力,它抛弃了其他智能体常用的梯度下降的优化方法,而是靠改进代码执行“训练”,这更接近人类的学习能力。

类似的智能体

  • 4月11日,斯坦福大学和Google的研究人员创建了一个有25个AI角色的虚拟小镇,这25个角色实际上是25个ChatGPT实例,研究者用指令设定人物角色,用“代理”给这些实例提出行动要求,ChatGPT执行并给出结果。

  • 5月29日,商汤科技联合清华大学、上海人工智能实验室等机构发布通才AI智能体Ghost in the Minecraft(GITM),该智能体能够完全解锁《我的世界》主世界的整体科技树的262个物品,在“获取钻石”任务中,GITM成功率达67.5%,且训练效率极高,仅需一个CPU节点训练2天即可完成。


参考链接

https://arxiv.org/pdf/2305.16291.pdf


用AI生成的数据训练AI,这条捷径似乎走不通

三月份,斯坦福的研究人员曾表示,他们训练的一款被称作Alpaca的开源语言模型取得了几乎媲美ChatGPT的效果,总共花费仅仅是600美元。然而,5月25日的一篇来自加州大学伯克利分校的科研文章表示,Alpaca所谓的几乎媲美ChatGPT不过是东施效颦,其实差距非常大。

Alpaca是怎么做到如此便宜的?

其一,Alpaca其实是基于开源模型LLaMA产生的一个变体而已,研究人员并没有在基础研发上投入资金。要知道,LLaMA模型最初是由Meta花钱开发的大语言模型,但由于工作人员不小心而被泄露出来,后续Meta发现木已成舟,禁也禁不过来,索性就把它开源了。


其二,Alpaca在训练数据上也几乎没花什么钱。斯坦福的研究人员耍了个小聪明,他们让GPT-3.5生成了52,000 个示例语句,并且用这些语句去优化LLaMA模型,于是就诞生出了Alpaca。其中花费的600美元基本就是GPT-3.5的使用费罢了。


由于这种特殊的训练方式,Alpaca也被称作“模仿模型”,它一度被认为是开源模型追赶大公司商用的模型的有效捷径。

这条捷径只是看上去很美

加州大学伯克利分校的研究人员表示,他们最初用这种特殊的训练方式来优化LLaMA与GPT-2,评估发现看起来模型性能确实有很大提升,尤其是输出风格与ChatGPT非常相似。但随后在“更有针对性的评估”中,研究人员发现,这种“模仿模型”更多只模仿到了ChatGPT自信的回答风格,而在回答的真实性与合理性上有很大差距。没有相关专业知识的评估人员会被“模仿模型”的回答唬住,从而得出效果很好的结论。

看起来,通过AI生成数据训练AI的捷径并不可靠,商业大公司们花费巨资雇佣大批博士撰写样本训练出来的语言模型,比起Alpaca这种依靠“二手样本”喂养大的模型,还是要强上不少的。


参考链接

https://arxiv.org/abs/2305.15717

-END-

新皮层New New Thing 


Hello!



我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。

和每一位关心技术、关照人的命运的读者一样,我们希望在这个有史以来不确定性最高的时代,更好地理解快速变化的科技世界,也更好地理解生而为“高级智能”的我们自己。在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与“智能”相关的议题。请注意,我们说的是智能,不只是AI。


请扫码关注我们吧!


若想了解更多资讯,请点击阅读往期智能晚报:

智能晚报|马斯克的脑机接口公司获准临床实验;TikTok正在测试AI聊天机器人Tako


喜欢就关注我们吧,记得“设为星标”哦~

 

与记者交流,可添加微信(请备注公司名称和姓名):

王杰夫 微信号: wjfsty

张司钰 微信号: helianthus351

吴洋洋 微信号: qitianjiuye

 


再次,喜欢就关注我们吧,记得“设为星标


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存