查看原文
其他

AI日报|Meta开源多感官AI;GPT-2神经元可被解释;OpenAI将出席听证会;Anthropic为AI编写“宪法”...

张司钰 新皮层NewNewThing 2023-08-02

「每天重要的新闻不会超过5条」

记者|张司钰
编辑|吴洋洋

Key Points


Meta开源多感官AI,除了跨图文,还跨深度、热量和运动数据。



OpenAI用GPT-4解释GPT-2的 30 万个神经元,开启AI解释AI序幕。



OpenAI CEO将在国会首次就技术问题作证,涉及人工智能的监管。



Anthropic为AI编写了一部“宪法”,谈的也是价值观。


大公司: Meta开源多感官AI联动6种模态

5月9日,Meta AI宣布开源ImageBind。 

ImageBind是什么?

该模型可以跨图像、文本、音频、深度、热量(红外辐射)和运动(惯性传感器)数据等6种不同的模态。与传统的文生图、文生视频等多模态模型相比,ImageBind多了深度、热量和运动等无力空间的数据。

ImageBind意味着什么?

ImageBind是Meta创建多模态AI系统的一部分,目标是从所有相关类型数据中学习。随着模态数量的增加,ImageBind有助于Meta未来开发更接近真实世界的AI系统,比如结合3D和IMU传感器,设计多感官、更接近真实的虚拟世界。总之,Meta显然还没放弃它的元宇宙梦想。不过它更引人注意的AI战略是开源,以下是它之前开源的AI模型:
· 3月8日,Meta的AI大模型LLaMA被泄露,不少网友通过4chan论坛上发布的资源,成功下载了70亿参数的LLaMA;· 4月7日,Meta开源可实现“任意图像分割”的基础模型(Segment Anything Model,简称SAM)。


参考链接

https://ai.facebook.com/blog/imagebind-six-modalities-binding-ai/


论文: OpenAI用GPT-4解释GPT-2的30万个神经元

5月9日,OpenAI在官网发布《语言模型可以解释语言模型中的神经元》(Language models can explain neurons in language models)论文,指出只要调用GPT-4,即可计算出其他架构更简单的语言模型上的神经元行为。 

OpenAI的可解释性研究是怎样的?

团队首先使用GPT-4生成神经元行为的自然语言解释,对其评分,再将其应用于另一种语言模型中的神经元上,这里OpenAI选择了GPT-2作为试验样本。其试验过程为:使用GPT-4生成解释;使用GPT-4模拟被解释的神经元会做什么;根据模拟激活与真实激活的匹配程度对解释评分。

这项研究有怎样的突破?

大语言模型的黑箱问题一直存在。以前我们需要手动检查神经元、确认其代表数据的哪些特征,才能了解AI模型各个组件在做什么,这需要高昂的成本,而且不一定能找到解释。但现在,GPT的自动化方法使AI解释AI变得更可行。
总之,虽然绝大多数解释的得分还不高,OpenAI还是迈出了用AI解释AI的重要一步。

 

论文地址:https://openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html

你也可以点击下面这个链接,看看AI发现了哪些有趣的神经元(btw,我们看到了微笑神经元、时间神经元,还有成功神经元):

https://openaipublic.blob.core.windows.net/neuron-explainer/neuron-viewer/index.html


监管: OpenAI CEO将在美国国会首次就技术问题作证

5月10日,OpenAI首席执行官山姆·奥特曼(Sam Altman)表示将于5月16日首次向负责隐私、技术和法律的参议院司法小组委员会作证。目前美国参议院多数党领袖查克·舒默(Chuck Schumer)已将监管人工智能列为优先事项。

这场听证会将围绕什么议题?

这场听证会的标题是“人工智能的监督:人工智能的规则”。目前关于听证会议程的细节仍然很少。预计议程将围绕:随着政府和企业开始在从医药、金融到监视员工的各个领域使用AI,政府可以采取哪些行动或制定怎样的法规和标准,以确保人们从AI技术中获利,并减少不利因素。

除了山姆·奥特曼还有谁参加?

IBM首席隐私官克里斯蒂娜·蒙哥马利(Christina Montgomery)和纽约大学名誉教授盖瑞·马库斯(Gary Marcus)也将参加本次听证会。虽未参与3月22日“暂停”社区驱动的AI开发六个月的联名信签署,但马库斯是“暂停”的全力支持者。奥特曼和蒙哥马利则反对“暂停”。
总之,这次听证会开启了美国国会监督并阐明AI先进算法和强大技术的工作。但其效果仍然难以预料——结果更多时候取决于国会相信哪些专家。有观点认为,如果国会决定对AI采取严厉的监管措施,可能对创新造成寒蝉效应,并影响由GPT技术支撑的诸多部门。


参考链接:

https://www.reuters.com/world/us/openai-ceo-testify-us-senate-next-week-amid-questions-about-technology-2023-05-10/


监管: Anthropic为AI编写了一部“宪法”

5月9日,人工智能初创公司Anthropic公布了一套针对AI发展的书面道德价值准则,概述了AI聊天机器人Claude与用户互动时必须遵循的一系列价值观和原则,以期构建更加可靠、可解释和可操纵的AI系统。

这部“AI宪法”的亮点在哪里?

这次公布的AI道德价值准则也被该公司称为“Claude宪法”,这些准则借鉴了包括联合国的《世界人权宣言》、苹果公司的数据隐私规则、DeepMind的Sparrow(麻雀)模型原则、Anthropic的AI研究实验室原则,比如不会告诉用户如何制造武器,也不会使用带有种族偏见的语言。同时,“Claude宪法”在训练模型还考虑非西方观点,使其选择最不可能被视为对非西方受众有害或冒犯的回应。

“AI宪法”的提出背景

一周前,Google、微软、OpenAI和Anthropic四家公司的CEO们受邀在白宫与美国副总统哈里斯会面,讨论有关人工智能的关键问题。哈里斯在一份声明中表示:“技术公司需要承担道德和法律责任来确保其产品的安全。每家公司都必须遵守现行法律,保护美国公民。”
总之,文本生成AI存在巨大缺陷,在社交媒体等互联网资源的训练下,它们不仅会生成带有性别歧视、种族主义倾向的内容,还会编造超出其知识范围的问题的答案。目前,行业标准是通过基于人类反馈的强化学习(RLHF)使AI系统符合人类偏好,但这可能使劳工过度暴露在可能引起创伤的材料中。基于“Claude宪法”采用的Constitutional RL框架,可能会减少训练过程中产生的对人的伤害,同时使AI系统更可靠。 


参考链接:https://www.anthropic.com/index/claudes-constitution



-END-


喜欢就关注我们吧,记得“设为星标”哦~

接下来将更新:

王小川专访

谁该为生成式AI的内容负责

……

 

与记者交流,可添加微信(请备注公司名称和姓名):

王杰夫 微信号: wjfsty

张司钰 微信号: helianthus351

吴洋洋 微信号: qitianjiuye

 

再次,喜欢就关注我们吧,记得设为星标

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存