查看原文
其他

刚刚!OpenAI推出ChatGPT Plugins的解读

阿法兔 阿法兔研究笔记 2023-04-08

部分结论

*本文2300字左右

  • 各大平台仅存的优势就只剩下数据了
  • AI as a service会加速行业迭代
  • 平台App会继续裁员...
  • 其实OpenAI一开始就是冲着开发者去的...

现象


我们首先说一下事件,再讲一下笔者看到的其他背后的东西。


2023年(北京时间)3月24凌晨,OpenAI宣布,ChatGPT中初步实现对插件的支持。(Plugins are tools designed specifically for language models with safety as a core principle, and help ChatGPT access up-to-date information, run computations, or use third-party services.)
插件专门为大语言模型设计,以安全为核心原则,能够帮助ChatGPT访问最新的信息,运行计算,以及使用第三方服务。


也就是说,OpenAI插件会将ChatGPT直接连接到第三方应用程序。插件能够使ChatGPT参与开发者定义的API互动,增强ChatGPT的能力,使其能够执行各类广泛场景的任务。

什么是API?

API代表应用程序编程接口,它是一组用于构建和集成应用程序软件的定义和协议。你可以把API 理解为服务员,ta很会ta工作的那一套服务,有事儿说话就行,API也 属于前后端间的联通。举个例子,假如我们去一家饭馆,桌面上摆着一份菜单,而厨房能提供菜单上的菜式。那么,这里还缺少一个能和后厨联系的人,服务员就是去告诉后厨你选的菜,再将菜带回到你的桌子上。服务员带着你的request去告诉system,然后将response 带回给你。

这里再举个例子:airline system ,订机票,你将你的航程提交,会访问网站的database,来看你选择的日期,座位是否是可选。但如果你不是在他的网站上订机票,你是在一个汇总不同的航班信息的online travel service 上,那么这个service 调用了 前面airline system 的API 。

这个接口就像上面例子的服务员,带着你的要求去airline system 上 收集信息 ,然后带回到online travel service 上 。所以你就把它想象成你的服务员在前后端间交付数据,创建联系。

参考资料:

https://zhuanlan.zhihu.com/p/533996770

https://zhuanlan.zhihu.com/p/347125981

https://baijiahao.baidu.com/s?id=1711681533512807688&wfr=spider&for=pc


那么,通过新推出的插件(Plugins),ChatGPT执行哪些事情?

  • 检索实时信息:例如,实时体育比分、股票价格、最新新闻等。
  • 检索知识库信息:例如,公司文件、个人笔记等。
  • 协助用户进行预订航班、订购外卖等操作


目前,OpenAI的插件还处于alpha阶段,需要申请试用,接下来将与用户和开发者密切合作,对插件系统进行迭代,该系统会持续更新换代。之后会公开一个或多个API端点,并附上标准化要求和OpenAPI规范,这些会对插件功能进行定义。


通过这块,开发者可以对自己定义的API进行调用。


一个场景:我们把AI大模型看做智能的API调用者,首先给定API规范和关于何时使用API的自然语言描述,模型就会主动调用API来执行操作。

例如,如果用户问:"我应该在巴黎哪个继续预定住宿?模型就会选择调用酒店预订插件API,接收API响应,并结合API数据和自然语言能力,生成一个面向用户的答案。


随着时间的推移,预计系统将不断发展以适应更高级的应用场景。


注意:要建立一个插件,就需要了解端到端流程。


比如说创建一个清单文件,并将其托管在yourdomain.com/.known/ai-plugin.json


该文件包括关于插件的元数据(名称、标识等)

什么是元数据?
元数据白话解释就是,事物为了适配某种标准而必须具备的数据。比如说,地图类型、地图图例,图名、空间参照、地图内容说明、比例尺和精度、都是地图的元数据,即符合某标准的最小集的,静态的数据。

所需认证的细节(认证类型、OAuth URL等)
以及想公开的端点的OpenAPI规格。


该模型将有OpenAPI的描述字段,它可以用于为不同的字段提供自然语言描述、在未来,OpenAI希望建立一些功能来帮助用户发现有用的和流行的插件。


解读


2023年2月24日,笔者发过一篇文章ChatGPT爆火的下一步:API与平台战争
其中提到了几点预测:首先,对于OpenAI来说,所赚的钱绝大部分将来自开发者,而ChatGPT只是通往所有业务的入口,其次,在这场属于AI的热度进程中,API是最重要的要素之一。

也就是说,像我们2月讲的一样,ChatGPT与Bing的聊天机器人并不是这类产品的终极形态。

ChatGPT和Bing,其实属于一种应用层面的展示,主要是强调这种基于GPT模型,如果做成应用工具,到底能有多么先进。

而正是这种演示效应,和在公众、企业、科研机构中造成的影响,导致生成式AI领域的军备竞争帷幕,徐徐展开。

Octane AI的创始人Ben Parr认为:"对于OpenAI来说,所赚的钱绝大部分将来自开发者,而ChatGPT只是通往所有业务的入口。”

在人工智能聊天机器人进入公众视野之前,OpenAI早就为开发者群体准备好了API: 2023年1月,ChatGPT一跃爆红,而OpenAI负责人Greg Brockman就开始预告:ChatGPT的API马上就会推出。就在几乎同一时间,微软提供了基于Azure的OpenAI业务。
而其他大厂也没有停下脚步。谷歌是这样操作的:谷歌CEO Sundar Pichai推出Bard聊天机器人的当天,也承诺会在2023年3月之前,推出底层技术(类别的产品和支持),而就在本周,亚马逊宣布将与Hugging Face合作,通过AWS(亚马逊云科技)提供生成语言工具。

英伟达(NVIDIA )首席执行官黄仁勋,在2023年2月22日的电话会议上提出:"所有开发软件的工程师,都会逐渐觉醒,或者是被现实教育,这种教育指的是,大家会逐步将类似于ChatGPT这类工具整合到自己开发的应用程序中,或整合到其他服务中。 由于英伟达公司(NVIDIA)提供了技术和算力运行的芯片,因此它也从这个领域中受益,英伟达股票周四跳涨了14%。

寻找生成式AI的广泛而有用的应用,将会是一种挑战,但是,我们逐步会发现:很多早期应用会很突出,比如说:

客户服务部门可以使用能够对话式聊天机器人
游戏公司可以用它来建立智能角色,使NPC这种固定而古老的模式,成为历史。
而营销人可以试着使用生成式模型与客户建立更深的联系。

其他解读&推测


1.平台化的公司,未来的优势应该仅仅限于自己的数据本身了,数据直接通过AI触达,用户跳过了中间的这个工程架构的设计。

比如说,假如我们现在要模仿B站开发一个C站,传统上是需要先看一下B站的业务结结构是怎么样的,然后找架构师克隆一遍,该用开源代码就用开源代码,但是,随着ChatGPT Plugin的横空出世,这种形式可能将成为过去式,以后可能会变成一种叫平台业务租赁的这种方式,来直接把数据一步到位转化给用户。

2.Open AI作为行业的裁判员,直接开始下场参赛。既是选手,还是裁判。这一切发生得太快了。

如果你有其他解读,欢迎在后台交流。


参考资料

1.https://openai.com/blog/chatgpt-plugins

2.Alex Kantrowitz-Next Up For AI Chatbots: It’s All About The APIs-The magical demos displayed the capability. Now the platform wars begin-2023-02-24

3.https://zhuanlan.zhihu.com/p/533996770

4.https://zhuanlan.zhihu.com/p/347125981

5..https://baijiahao.baidu.com/s?id=1711681533512807688&wfr=spider&for=pc


【阅读更多】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存