查看原文
其他

Anthropic:OpenAI"宫斗"背后的公司

硅谷科技评论 SV Technology Review 2024-04-14


2023年11月,OpenAI 的 CEO Sam Altman和首席科学家 Ilya Sutskever 关于AI发展和安全之争,引发了全球关注,在这场举世瞩目的“宫斗剧”中,屡次出现一家公司的身影,那就是Anthropic。


Sam Altman在上周被解职之前,与公司董事会长达一年多的时间一直陷入争吵之中。Altman试图排除一位董事会成员Toner,因为他认为她合著的一篇研究论文批评了OpenAI在保持其人工智能技术安全方面的努力,同时赞扬了Anthropic采取的方法。


OpenAI董事会成员,问答网站Quora联合创始人亚当·德安杰洛(Adam D’Angelo)在Sam Altman被免职后,上周末曾游说多位科技领袖--包括Anthropic的创始人达里奥·阿莫代伊(Dario Amodei)--担任OpenAI的新负责人,导致奥特曼回归的意图未能立即实现。


从融资金额来看,Anthropic在所有大模型初创公司中融资额仅次于OpenAI,而且是唯一同时得到谷歌和亚马逊两大巨头力捧的公司。更多,巨头的AI战争:英伟达、微软、谷歌、亚马逊的战略与选择


那么,Anthropic到底有何与众不同?文末有访谈视频。





人类历史上,有两次重大的技术驱动变革:农业革命和工业革命。这些“通用”技术从根本上改变了经济运作的方式。而在今天,人工智能(AI)将是下一个通用技术革命。


与狩猎采集者转向农耕或机器制造业的崛起一样,人工智将将在各个领域产生重大影响。特别是生成式人工智能的兴起,已经在任务自动化领域取得巨大突破。像OpenAI和Anthropic这样资金充足的研究机构已经利用专有的自然语言处理(NLP)模型,为成千上万个人开发者和机构构建新的人工智能应用提供了基础。据估计,生成式人工智能(AGI)将在接下来的十年内将全球GDP提高7%。


在基础模型开发者中,Anthropic将自己定位为一家特别关注人工智能安全的公司,并描述自己正在构建“将安全置于前沿的人工智能研究和产品”。该公司由对伦理和安全问题感到担忧而辞去OpenAI职位的工程师创立,Anthropic已经开发了自己的方法来训练和部署“宪法人工智能”( “Constitutional AI”),即具有嵌入式价值观且可由人类控制的大型语言模型(LLM)。自成立以来,其目标一直是部署“可操控、可解释和稳健的大规模人工智能系统”。



一、创立故事


Anthropic 由前 OpenAI 高管 Dario Amodei(首席执行官)和 Daniela Amodei(总裁)兄妹两人于 2021 年创立。在推出 Anthropic 之前,Dario Amodei 是 OpenAI 的研究副总裁,而 Daniela 是 OpenAI 的安全与政策副总裁。



Dario Amodei于1983年出生于意大利,并在美国长大,他是意大利和美国混血儿。2006年在斯坦福大学完成了本科学习获得物理学学士学位后,前往普林斯顿大学完成了物理学和生物物理学的博士学位,他的博士论文题目是“网络规模电生理学:测量和理解神经电路的集体行为。2011年博士毕业后,他再次回到斯坦福大学从事博士后研究, 主要研究方向就是现在创投领域火热的蛋白质组学。4年后,他终于离开校园,找到业界的第一份工作,是在百度担任研究员。


2014年,全球人工智能领域的顶级大牛吴恩达出任百度首席科学家,同时负责百度研究院的领导工作,其下属的硅谷AI实验室(SVAIL)也于此时正式成立。刚从高校走出的Dario Amodei也正是在这个时候加入了百度的SVAIL实验室,但其在百度仅仅工作了不到一年时间便离开,前往谷歌担任高级研究员。


2016年,Dario Amodei与Google的其他同事共同撰写了《AI安全中的具体问题》一文,讨论了神经网络的内在不可预测性。这篇论文引入了副作用和对不同模型能力的不安全探索的概念。它讨论的许多问题可能源于“机械可解释性”(mechanistic interpretability),或者对复杂模型内部运作机制的不理解。这些共同作者中,许多人在2016年与Dario一起加入OpenAI,他们试图传达快速扩展模型的安全风险,并最终成为Anthropic的基础。


2019年,OpenAI宣布将从非营利组织重组为“有限盈利”组织,随后,微软投资了10亿美元,以继续开发向善的人工智能。AI institute 首席执行官奥伦·埃茨尼(Oren Etzioni)在谈到这一转变时说:


“[OpenAI] 最初是一个非营利组织,旨在使人工智能民主化。显然,当你获得[10亿美元]时,你必须产生回报。我认为他们的发展轨迹已经变得更加企业化。”


OpenAI的重组最终引发了关于组织方向的内部紧张局势,该组织的目标是“构建安全的通用人工智能并与世界分享其好处”。有报道称,“分裂是在2019年微软投资10亿美元后发生的,团队在公司发展方向上产生分歧。”特别是,对于OpenAI是否会垄断人工智能领域的“产业困扰”引发了OpenAI内部许多人的担忧,包括前政策总监Jack Clark和机械解释工程师Chris Olah。同样,这也为OpenAI在11月的动乱埋下了伏笔。


Anthropic 首席执行官达里奥·阿莫德 (Dario Amode) 将 Anthropic 最终从 OpenAI 离开并创立 Anthropic 的决定描述如下:


"在OpenAI内部有一群人,当我们创造GPT-2和GPT-3后,对两件事有非常强烈的信念。我认为比大多数人更加坚信这两点。一是认为这些模型中投入的计算资源越多,它们会变得越好,几乎没有尽头。我认为现在这个观点得到了更广泛的认可,但我们是最早的信仰者。第二点是认为需要除了仅仅扩大模型规模之外的东西,那就是对齐或安全性。仅仅通过增加计算资源并不能告诉模型它们的价值观。所以我们秉持着这个想法,成立了自己的公司。"

Dario Amodei的妹妹 Daniela Amodei 在加州大学圣克鲁兹分校获得了英语文学、政治和音乐的文学学士学位,并以最高荣誉毕业。


2010年,Daniela开始了她的职业生涯,先是在马里兰大学学园中心的国际发展项目工作,然后在Conservation Through Public Health担任研究员,接着在Matt Cartwright竞选国会工作,并在2013年为美国众议院工作。


随后她开始跳入企业界,她在2013年加入了Stripe,最初担任招聘人员,随后成为核心运营、用户政策和核保的风险经理。她的职业生涯得到了飞速发展,最终在Stripe担任风险项目经理。2018年她加入了OpenAI,先是担任工程经理和人力资源副总裁,随后成为安全和政策副总裁,负责监督技术安全和政策职能,并管理业务运营团队。


2020 年 12 月,Dario Amodei 离开 OpenAI开始创业,其他 14 名研究人员也离开OpenAI 加入 Anthropic,其中包括他的妹妹 Daniela Amodei。


值得一提的是,Daniela Amodei的丈夫Holden Karnofsky是Open Philanthropy的CEO,这是一个由科技亿万富翁支持的基金会。这家基金会致力于防止人工智能对人类造成灾难性风险,支持了包括乔治城大学安全与新兴技术中心、兰德公司等智库,11月投票罢免Sam Altman的 OpenAI 前董事海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)分别在这两家机构任职。


二、公司产品


1、基础模型研究(Foundational Model Research)


自成立以来,Anthropic 将其资源投入到“可操纵、可解释和稳健的大规模人工智能系统”,强调其与“乐于助人、诚实且无害”(helpful, honest, and harmless)的人类价值观相一致。


Anthropic 成立后不久,发布了一系列研究大规模生成模型的不可预测性的论文。2022年2月,它发表了一篇论文《大型生成模型中的可预测性和惊喜》(Predictability and Surprise in Large Generative Models),分析不可预测的损失。研究发现,尽管模型的准确性随着模型参数数量的增加而不断增加,但某些任务(例如三位数加法)的准确性在达到某些参数计数阈值时似乎会飙升。作者写道:“开发人员无法准确地告诉你,随着模型规模的扩大,将会出现哪些新行为。” “例如,当开发人员增加模型的大小时,完成特定任务的能力有时会突然出现。”


Source: Anthropic


这种不可预测性可能会导致意想不到的后果,文章指出,特别是如果仅仅为了经济利益或在缺乏政策干预的情况下使用。


2022年4月,Anthropic推出了一种使用偏好建模和来自人类反馈的强化学习(RLHF)方法来训练“有用且无害”(helpful and harmless)的人工智能助手的方法。模型与人工助手进行开放性对话,为每个输入提示生成多个响应。然后人类会选择他们认为最有帮助和/或无害的响应,随着时间的推移奖励模型。


Source: Anthropic


最终,这种对齐工作使得 RLHF 模型在零样本和少样本任务(即完全没有示例或先前示例有限的任务)中比普通语言模型可能更为强大。


此后,Anthropic 能够利用其发现将语言模型推向预期的结果,例如避免社会偏见、遵守道德原则和自我纠正。2023 年 8 月,Anthropic 发布了一篇题为“利用影响函数研究大型语言模型泛化”(Studying Large Language Model Generalization with Influence Functions)的论文,其中对训练数据对模型输出的影响进行了功能逆向工程。


2、宪法人工智能Constitutional AI


2022 年 12 月,Anthropic 发布了一种新颖的方法来训练有用且无害的人工智能助手。被标记为“宪法人工智能”(Constitutional AI)的过程涉及

(1)通过监督学习来训练模型,以遵守来自各种来源(包括联合国人权宣言)的某些道德原则,

(2)创建一个类似的偏好模型,

(3)使用偏好模型作为初始模型的判断器,通过强化学习逐步提高其输出。


Source: TechCrunch


首席执行官达里奥·阿莫迪 (Dario Amodei) 指出,这种宪法人工智能模型可以按照任何选定的原则进行训练,他说:


“我将撰写一份我们称之为宪法的文件。[...]我们首先告诉模型,将按照宪法行事。我们有一个模型按照宪法行事,然后另一个模型看宪法,看任务和回应。所以如果模型说,要保持政治中立,而模型回答说,我喜欢唐纳德·特朗普,那么第二个模型,也就是批评者,应该说,你表达了对一位政治候选人的偏好,你应该保持政治中立。[...]AI评估AI。AI取代了人类承包商过去的工作。如果运作良好,我们得到的结果将符合所有这些宪法原则。”


这个过程被称为“从AI反馈中进行强化学习”(RLAIF),实际上自动化了RLHF中人类的角色,使其成为可扩展的安全措施。同时,宪法人工智能增加了这些模型的透明度,因为这些人工智能系统的目标和目的变得更容易解读。


Source: Anthropic


Anthropic 对宪法人工智能的开发是一项充满希望的突破,使其商业产品(例如 Claude)能够遵循具体和透明的道德准则。正如公司所言:


“无论是有意还是无意,人工智能模型都会有价值系统。我们宪法人工智能的目标之一是使这些目标变得明确并且易于根据需要进行更改。”


3、Claude AI


Claude 于 2022 年 4 月推出,是 Anthropic 的旗舰人工智能助手。尽管 Claude 1 的 4.3 亿个参数数量少于 GPT-3 的 1750 亿个参数,但其 9K 个 token 的上下文窗口甚至比 GPT-4(8K 个 token,或大约 6K 个单词)还要多。Claude 的能力涵盖文本创建和摘要、搜索、编程等。在封闭 alpha 版本阶段,Claude 限制了对 Notion、Quora 和 DuckDuckGo 等主要合作伙伴的访问。


2023 年 3 月,Claude 在英国和美国向大众发布。Anthropic 指出,Claude的答案据称比其他聊天机器人更有帮助且无害,还具有解析 PDF 文档的能力。


2023年7月,Claude2 发布。该版本旨在提供更好的对话能力、更深入的上下文理解以及比其前身更好的道德行为。Claude 2 的参数数量比上一次迭代翻了一番,达到 8.6 亿个,而其上下文窗口显着增加到 100K 个标记(大约 75K 个单词),理论上限为 200K。


就在OpenAI宫斗的那一周,Claude 2.1发布,具有20万上下文窗口,API比GPT-4 Turbo便宜20%。根据初步测试,还没有迹象显示 Claude 2.1在质量方面足以超越GPT-4 Turbo,但其在安全性领域表现出了优势。


Source: Anthropic


4、Claude Instant


Claude Instant 于 2023 年 3 月发布,Anthropic 将其描述为“更轻、更便宜、更快的选择”。Claude Instant 最初发布时带有 9K token 的上下文窗口,与 Claude 的上下文窗口相同。


2023 年 8 月, Claude Instant 1.2 的 API发布。利用 Claude 2 的优势,其上下文窗口扩展到 100K 个token,足以在几秒钟内分析整个《了不起的盖茨比》。Claude Instant 1.2 还表现出了对各种科目的较高熟练程度,包括数学、编程和阅读等科目,并且出现幻觉和胡言乱语(hallucinations & jailbreaks)的风险较低。


Source: Anthropic


三、市场格局


1、公司客户


Anthropic 的 Claude 已用于各种不同的行业,包括:


  • 客户服务和销售:Claude 为客户服务请求提供快速、友好的建议,据说比其他选择更快。早期用户似乎选择Claude 是因为与其他选择相比,它的对话更自然。2023 年 8 月,韩国领先的电信运营商 SK Telecom 宣布与公司建立合作伙伴关系,在广泛的电信应用中使用 Claude,尤其是客户服务。


  • 法律:Claude 扩展的上下文窗口允许其读取和写入更长的文档,这可用于解析法律文档。Claude 在律师考试中取得了76.5%的成绩,也可以为律师提供支持。


  • 指导:Claude 可以作为用户的个人成长伴侣,提供有用的建议。


  • 搜索虽然 Claude 无法实时访问互联网,但其 API 可以集成到私人和公共知识库中。DuckDuckGo 是 Claude 的早期采用者,利用 Claude 在维基百科上的摘要功能开发了 DuckAssist,为用户查询提供即时答案。


  • 后台:Claude 还可以集成到各种办公工作流程中,例如从工作文档或电子邮件中提取信息。例如,Claude App for Slack 就是在 Slack 平台上构建的。经用户许可,它可以访问即时消息并可以作出响应。


作为一名通用人工智能助理,Claude 的服务并不局限于上述行业和用例。例如,Claude 凭借其独特的写作和总结特征,为 Notion AI 提供了支撑。Claude 还被用来支持代码完成和生成产品,典型客户包括 Sourcegraph。


业务合作伙伴和客户可以在各个领域使用Claude的服务,包括客户服务、法律、辅导、搜索、后台和销售。Claude 已被用于为人工智能产品提供支持,例如 Notion AI、Quora 的实验性聊天应用程序 Poe 和 DuckDuckGo 的人工智能搜索工具 DuckAssist 等。其他著名客户包括 Slack、Zoom 和 AssemblyAI。


Source: Anthropic


2023 年 7 月,Anthropic 声称正在为“数千”名客户和业务合作伙伴提供服务。截至 2023 年 8 月,Claude for Enterprises 仍处于封闭测试阶段,其聊天机器人面向公众,并对感兴趣的客户开放申请。


2、市场规模

生成式人工智能预计将对各个行业产生重大影响。据报道,2023 年 6 月,生成式 AI 能够将占员工时间 60%-70% 的活动自动化,预计到 2040 年,生产力每年将增长 0.1%-0.6%。2023 年 4 月的一份报告声称,近三分之二的职业可以通过人工智能实现部分自动化。


Source: Goldman Sachs


2022 年,生成式 AI 产品市场规模为 400 亿美元,预计到 2032 年将增长至 1.3 万亿美元。自 2022 年底发布 ChatGPT 以来,该行业飞速发展,2023 年上半年的私人融资与 2022 年全年相比增长了5倍。


Source: CBInsights


任务自动化是行业增长的强大推动力,其中客户运营、营销和销售、软件和研发占比达到 75%。麦肯锡估计,生成式人工智能每年有可能增加 4.4 万亿美元的价值。据估计,到 2045 年,一半的工作活动将实现自动化。


另一个快速增长的关键指标是商业 NLP 模型中的参数数量。Google 的 BERT-Large 是第一个 Transformer 模型,它用了 3.4 亿个参数。五年后,2023 年 3 月发布的 GPT-4 估计拥有近 18 亿个参数。


Source: Our World In Data


模型中使用的参数数量与其准确性密切相关。虽然大多数模型在分类、编辑、总结文本和图像方面表现出色,但它们成功执行任务的能力差异很大。正如首席执行官Daria Amodei所言:“它们在某些领域感觉像实习生,然后在某些领域表现出色,真的是天才。”


Source: The Next Platform


3、行业竞品



OpenAI (更多OpenAI:人工智能突破的前沿

成立于 2015 年,因开发生成式预训练 Transformer (GPT) 而闻名。自 2018 年发布首款模型以来,其产品 ChatGPT在推出两个月内就积累了超过 1 亿的月活跃用户。截至 2023 年 10 月,OpenAI 已筹集 113 亿美元资金,其中包括微软在 2023 年初投资的 100 亿美元。2023 年 8 月,OpenAI正与Thrive Capital商谈老股交易,后者将从OpenAI员工手中购买老股。该交易将使OpenAI的估值至少达到800亿美元。更多AI周报024


与 Anthropic 一样,OpenAI 为其基础模型提供 API,包括自然语言模型 GPT、图像生成器 DALL-E 以及语音转文本和翻译模型 Whisper。尽管其模型对每个token的平均收费较高,但 Claude 在即时完成、文本创建、代码生成和其他任务方面的能力往往不如 OpenAI 的 ChatGPT。尽管表现有所不同,Claude 仍被认为表现出更好的写作能力,特别是在创意写作方面。


Cohere

由前 Google Brain AI 研究员和 Transformer 模型的突破性论文作者之一 Aidan Gomez 创立,是一家领先的 NLP 模型提供商。它通过其 API 向其业务合作伙伴提供可用于摘要、文本生成和分类目的的内部大型语言模型。这些模型可用于简化内部流程,还提供定制和超本地化微调功能。


尽管其每个生成或解释的token的成本低于其他公司,但Cohere可能会对寻求定制建造的LLM的企业收取高昂的前期费用。与Anthropic和OpenAI一样,Cohere还提供了一个名为Coral的知识助手,以简化企业内部运营。与OpenAI和Anthropic相比,Cohere的使命似乎更注重LLM的可访问性,而不是其基础模型的强度。


2023 年 6 月,完成由Salesforce 和 Nvidia领投的 2.7 亿美元 C 轮融资,估值为 21 亿美元,更多AI周报005期。今年9月,Cohere 聘请JPM和高盛为其筹集可能超过30亿美元的估值轮次。更多AI周报017期


Hugging Face更多Hugging Face克莱姆·德朗格:开源AI的未来

“机器学习的 GitHub”,是人工智能领域的唯一开源平台。截至 2023 年 8 月,它拥有近 30 万个免费公开模型,涵盖 NLP、计算机视觉、图像生成和音频处理。该平台上的任何用户都可以发布和下载模型和数据集,其最流行的模型包括 Stable Diffusion、GPT-2、BERT 和 LLaMA 2。尽管大多数 Transformer 模型通常太大而无法在没有超级计算机的情况下进行训练,但用户可以轻松访问和部署此类模型。


Hugging Face 采用开源的商业模式,这意味着所有用户都可以访问其公共模型。付费用户可以获得额外的功能,例如模型托管、推理 API 集成、额外的安全性等等。相对于Anthropic,其核心产品更加以社区为中心。作为向公众传播大型基础模型的平台(尽管模型比 Anthropic 和 OpenAI 开发的模型等最先进模型落后 1-2 代),Hugging Face 代表了人工智能领域的重要参与者。


公司累计筹集了 3.952 亿美元,其中 2023 年 8 月的 2.35 亿美元 D 轮融资使该公司估值达到 45 亿美元,是 2023 年 5 月上一轮估值的两倍,也是公司ARR 的 100 倍以上。更多AI周报016期



Deepmind

2010年成立,2014年被谷歌收购。被称为谷歌DeepMind,后来在谷歌“加速人工智能进步”的努力中与谷歌大脑合并。DeepMind 的 Gemini 提供了与 GPT-4 类似的功能,是 Google DeepMind 研究工作的关键。作为谷歌的人工智能研究分支,DeepMind 由于开发了可扩展的大型语言模型,间接成为 Anthropic 的竞争对手,这些LLM很可能用于为谷歌的人工智能搜索和谷歌云 NLP 服务提供服务。


Meta

LLaMA 2 是 Meta 的大型语言模型,可用于研究和商业目的。2023 年 7 月,Meta 宣布将使 LLaMA 开源。“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建”,马克·扎克伯格表示。“它还提高了安全性,因为当软件开放时,更多的人可以仔细检查它以识别和修复潜在问题。”尽管与 GPT-4 和 Claude 2 相比更容易产生幻觉,但它是可用的最大的开源模型之一,因此很可能会被独立开发人员广泛使用。


Microsoft Azure

微软Azure的AI平台提供了数百种服务,其中包括工具和框架,供用户构建人工智能解决方案使用。尽管其主要服务涉及人工智能架构,而不是基础模型本身,但其平台上提供的产品包括GPT-4和LLaMA 2,可以用于从内部认知搜索到视频和图像分析等服务。与Claude不同,后者是低代码的,适用于各种规模的团队,而Azure主要面向能够在现有模型之上编码的开发人员和数据科学家。因此,微软Azure AI作为Anthropic的间接竞争对手,增加了基础人工智能模型的可访问性和可定制性。


四、商业模式


Anthropic 采用基于使用情况的定价模型向用户收费。Claude Instant 处理的每百万个token(大约 75 万个单词)的提示成本(prompts )为 1.63 美元,完成成本(completions)为 5.51 美元。对于 Claude 2,价格上涨至 11.02 美元/百万提示代币和 32.68 美元/百万完成代币。作为参考,OpenAI 对 GPT-4 的提示token收费为 60 美元/百万美元,完成token收费为 120 美元/百万美元。本周发布额Claude 2.1,具有20万上下文窗口,API比GPT-4 Turbo便宜20%。



截至 2023 年 11 月,只有部分业务合作伙伴可以访问 Claude。尽管它目前不为其客户提供特定于行业或公司的功能,但会针对某些重要客户(包括韩国主要移动运营商 SK Telecom)微调其模型。



五、重大进展


Anthropic 声称拥有“数千”名客户。其头部合作伙伴包括 Quora、Notion、Zoom、DuckDuckGo 和 SK Telecom。其服务范围从增强搜索到交互式消费者解决方案再到代码帮助。


2023 年 2 月,Anthropic 宣布谷歌为其“首选云提供商”,以扩展其云基础设施。此次合作之后,谷歌向 Anthropic 投资了 3 亿美元,获得其 10% 的股份。


2023 年 4 月,Anthropic 宣布与 Scale AI 建立合作伙伴关系,允许两家公司为其客户提供全栈生成式 AI 解决方案。Scale 的 AI 实验工具(例如模型验证、数据连接器和提示模板)使其客户能够充分利用 Claude 的功能。


2023 年 9 月,亚马逊宣布将向该公司投资 12 亿美元(最多 40 亿美元),使其能够使用亚马逊专有的 Trainium 和 Inferentia 芯片。亚马逊和 Anthropic 还于 2023 年 9 月宣布建立战略合作伙伴关系,使 AWS 成为主要云提供商。Anthropic 表达了对谷歌和亚马逊作为战略合作伙伴的持续兴趣。


此外,到 2023 年底,Anthropic 的收入预计将达到 2 亿美元。


六、公司估值


Anthropic 将自己定位为人工智能安全研究实验室。然而,为了进行这项研究,Amodei 兄弟姐妹计算出他们需要构建自己最先进的人工智能模型。为此,他们需要大量的计算能力,这反过来意味着他们需要大量的资金。这意味着他们需要作为一家企业来运营,向其他企业出售其人工智能模型的使用权并从投资者那里筹集资金,而不是作为非营利组织。


2023年5月之前,Anthropic 获得超过10亿的投资,投资方包括Emerging Risk、谷歌、 Spark Capital ,还有现已破产的 FTX 加密货币交易所。


2023 年 5 月,Anthropic 获得谷歌和 Spark Capital 再次领投的 4.5 亿美元 C 轮融资,估值达到 41 亿美元。


2023 年 8 月,SK Telecom 宣布与 Anthropic 合作后,又投资了 1 亿美元。更多AI周报015期


2023 年 9 月,亚马逊宣布计划向 Anthropic 投资最多 40 亿美元,并表示最初将投资约 13 亿美元购买少数股权,并就将投资总额增加至 40 亿美元的选择权以及对 Anthropic 的承诺进行了谈判。更AI周报021


2023年10月,Anthropic 从包括谷歌在内的投资者筹集 20 亿美元,估值为 200 至 300 亿美元。更多AI周报025


七、投资机会


1、实用主义


Claude 具有天生的安全竞争优势,使其成为最适合企业的产品。ChatGPT、Bard 和 Bing 这三个由老牌科技巨头支持的最大的公开聊天机器人之间,Claude 的道德关注使其最容易与企业价值观保持一致。2023 年 6 月的一项调查显示,目前只有 29% 的企业领导人对商业人工智能的道德抱有信心。Claude 将无害性降到最低、同时将有益性的能力进行了广泛开发,使其在商业任务自动化领域处于领先地位。


Claude 的上下文窗口也比 GPT-4 的上下文窗口大一个数量级。在 100K 个标记(大约 75K 个单词)下,它能够在 30 秒内找到整部《了不起的盖茨比》中单个被修改的句子。特别是,其极大的上下文窗口使其能够处理某些行业大型文档的要求。



Anthropic 还表示计划打造“Claude-Next”,这是一个比现有人工智能好 10 倍的“前沿模型”。该模型的开发在未来两年内需要高达 50 亿美元,被描述为“下一代人工智能自学算法”(next-gen algorithm for AI self-teaching),类似于人类水平的 AGI。如果 Anthropic 成为第一个实现这一目标的公司,很可能成为市场领头羊。


2、政策支持


2023 年 5 月,副总统卡玛拉·哈里斯 (Kamala Harris) 邀请达里奥·阿莫迪 (Dario Amodei) 以及谷歌、微软和 OpenAI 的首席执行官讨论防范人工智能潜在风险的保障措施。“必须减轻人工智能对个人、社会和国家安全造成的当前和潜在风险。这些包括对安全、安保、人权和公民权利、隐私、就业和民主价值观的风险”,白宫在一份新闻稿中指出。随后,美国通过国家电信和信息管理局(NTIA)公开呼吁安全可信的人工智能。


政府关于开发负责任的人工智能的许多建议与 Anthropic 的建议一致,强调了与竞争对手相比,它对安全的关注。政策制定方的支持最终有利于 Anthropic 开发更强大的基础模型。


八、主要风险


1、数据风险


2023 年 7 月,OpenAI 和 Meta 均被喜剧演员兼作家 Sarah Silverman 以及作家 Christopher Golden 和 Richard Kadrey 起诉,理由是未经许可使用受版权保护的材料作为训练数据。Anthropic 的研究目前仅涉及其基础模型的伦理性,这意味着公司的大模型也会和同行一样面临训练数据的困扰。



2、保密风险


尽管 Anthropic 专注于人工智能安全,但它也难以满足某些要求。2023 年 6 月的一份报告使用欧盟人工智能法案草案作为评估人工智能公司披露实践的标准,将 Claude排名倒数第二。值得注意的是,出于保护商业秘密的目的,Anthropic 尚未完全披露用于训练 Claude 的数据来源,并且对于用于评估其宪法人工智能危害性的提示也仍然含糊其辞。随着 Anthropic 继续开发基础模型,它必须在安全的人工智能披露实践与失去竞争优势的总体风险之间取得平衡。


Source: Stanford CRFM


九、总结


作为大模型的领先玩家之一,Anthropic 凭借其注重安全的替代方案 Claude,在与 ChatGPT 的竞争中取得了重大进展。自从与 OpenAI 分道扬镳以来,Anthropic 团队进行了大量研究,扩大了大型模型的规模和能力,并在人工智能系统的可解释性和方向方面取得了关键突破。


尽管如此,随着越来越多的资金投向AI研究组织,加速人工智能研究的发展,像 Anthropic 可能会遭受与2019年OpenAI一样的文化转变的所带来的困扰。



在读的您,如果对AI和科技感兴趣,欢迎联系凯瑞(pkcapital2023),与一群志同道合的小伙伴一起探讨。


更多阅读:


AI公司



+



OpenAI:人工智能突破的前沿OpenAI员工名册OpenAI董事会投资人 Sam Altman 科技狂人萨姆奥特曼的梦想世界马斯克、奥特曼和OpenAI秘史OpenAI营销团队从App Store到GPT Store

Scale AI:AI新基建

ZapierAI+自动化

Vannevar Labs: AI+国防 

Replit:AI+编程

DoNotPay:AI+法律         

Neuralink:让人类与AI融合永生

Hugging Face:开源AI的未来

Stability AI:为什么马斯克和贝佐斯会见他?

Midjourney:1年之内,0融资,11人团队,1亿美金收入


AI行业



+



AI写作工具AI编程工具AI客服工具AI法律工具AI视频工具AI搜索工具AI合成数据AI企业服务AI Agent代理AI个人助手AI生产力工具LLMOps市场地图AI创始人背景大揭秘全球高增长AI 50公司名单AI:即将到来的科技革2023年企业生成式人工智能现状报告AI 正推动云计算的下一波增长旧金山湾区成为Gen AI早期赢家,国内湾区会是谁?我们离实现通用人工智能(AGI)还有多远?


AI创投



+



今天,我们应该关注哪些人工智能初创公司?

一个大学生如何在6个月内,通过AI月入6万美元?

AI科学家最新发现:你的性格决定创业成败

从互联网到生成式AI狂潮,揭示了哪些不变的真理?

10张图告诉你,为什么Gen AI拯救了风投界?

全球顶尖VC,近半年来投了哪12家AI初创公司?

AI炒作巅峰,中美创投赛道有何异同?

如何评估AIGC初创公司的竞争优势?

知名海外投资人谈AI新趋势


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存