查看原文
其他

GPT4与ChatGPT产品负责人谈OpenAI产品战略!复制iOS与AppStore的成功;2023年前达到人类劳动者水平!

有新 有新Newin 2023-10-09

《AI未来指北》栏目由腾讯新闻推出,邀约全球业内专家、创业者、投资人,探讨AI领域的技术发展、商业模式、应用场景、伦理及版权争议。



Redpoint的合伙人 Jacob Effron 近期邀请到了  OpenAI  产品与合作副总裁 Peter  Welinder,Peter 目前负责 OpenAI 的产品,包括 GPT-4、ChatGPT 和 CoPilot 等,另外还邀请了 Radical Ventures 的合伙人 Rob Toews 作为共同主持人。


在对谈中,Jacob、Peter 以及 Rob 除了讨论 AI 的价值所在,还包括在不同领域的应用以及对商业社会的影响,共同探讨 OpenAI 的战略以及达到通用人工智能 ( AGI )所需的时间。


这期内容为我们深入介绍了 OpenAI 的战略和 AI 领域的最新洞察、AI 的价值、开源模型的未来、超级智能以及 AI 的风险与挑战,无论是对 AI 技术感兴趣的从业者,还是对科技领域感兴趣的读者,都是一篇值得收藏 &阅读的对谈内容。

本期内容分为 12 个话题:


  1. 产品战略,复制 iOS 与 AppStore 的成功

  2. 产品优先级与插件生态,研究人员将工作交给用户

  3. 数年内 AI 有望成为真正的职场工具人

  4. 开源很好,但 Linux 从未在桌面系统领先

  5. OpenAI 制定开源与闭源模型的策略

  6. 目前模型最大的问题是如何解决幻觉

  7. Infra 中有哪些事情 OpenAI 不会做

  8. 超级智能超越人类,失业、偏见 or 伪造

  9. OpenAI 希望在 2030 年前使 AI 达到人类劳动水平

  10. 面对超级智能,催生安全与规范的投资需求

  11. OpenAI 内部会拿 ChatGPT 干什么?

  12. 新模型性能与开发者产品之间的小摩擦


enjoy~



产品战略 

复制 iOS 与 AppStore 的成功


Jacob Effron:

我是主持人 Jacob Ephron,今天我和来自 Radical Ventures 的嘉宾 Rob Toews 一起邀请了一位很棒的嘉宾, OpenAI 的产品和合作副总裁 Peter  Welinder ,Peter  负责 OpenAI 的产品,包括 GPT-4 、ChatGPT 和 CoPilot 等;我们进行了一次非常有趣的对话,讨论了 OpenAI 在代理人和开发工具方面的构建思路。


Peter  Welinder:

这是 OpenAI 做出的自上而下的决策,我们不会分散注意力去做其他的押注。


Jacob Effron:

我们讨论了Peter 对于 AGI 到来的看法。


Peter  Welinder:

现在的情况与 15~20 年前完全不同,到 2030 年末我们会有一种类似 API 的东西。


Jacob Effron:

我们还谈到了开源模型的未来以及它们何时足够好,一定要关注这个话题。Peter ,非常感谢你的参与。


Peter  Welinder:

非常感谢你的邀请。


Rob Toews:

我想从一个大问题开始,这是目前在创投领域中引起许多讨论的问题,即 AI 生态系统中价值最终会集中在哪里?


人们通常会按照模型层、基础设施层和应用层进行思考,想知道最有趣的机会在哪里?我很想知道你是如何看待这个问题的。显然, OpenAI 在构建世界领先模型方面处于行业最前沿,但 OpenAI 也使得各个行业和领域的终端用户应用成为可能。


此外,OpenAI 还有一个投资部门,正在投资许多应用层企业,我很想知道当你听到这个问题时,你是如何思考的?在AI世界中你们最终将集中在哪里?


Peter  Welinder:

这是一个很好的问题。我认为简单来说,价值最终会在许多领域集中。我认为大部分的价值将会在不同应用领域的应用层产生。实际上,这也是 OpenAI 的战略,我们的使命是构建、确保安全并让所有人受益,我认为其中一个核心是尽可能多地让开发者在这项技术上构建产品。


我们有意决定在模型基础设施层减少价值提取,保持低价格以促进更多开发。实际上,我们在过去几年中大幅降低了价格,一年前将价格降低了70%,然后发布了一个价格比原来 3.5模型便宜 10 倍的模型,而且速度更快;我们在研究和工程方面做了很多努力,以降低价格,因为这样可以扩大对这些模型的访问和适用范围。


同时,工具也是非常重要的。我们在这方面花费的时间较少,因为目前还没有发明出适合这项技术的合适工具,有些工具可能还处于早期阶段,我们没有幻想自己会创造出这些工具,我们更希望开发者生态系统能够找出最佳工具并进行构建。


当我们发布所有这些模型时,我们做出了很多努力,确保它们的安全和负责任的应用,但我们对于这些模型的应用范围并不事先知道,我们是在与社区一起摸索和发展的,这样做是更好的。


OpenAI 有大约有 400 名员工,而在这项技术上已经参与构建的人达到了数百万,他们是那些发现有趣的应用、构建有趣的工具的人;如果你有成千上万倍的增长,就会有更多的创新,所以我们真的希望能够实现这一点。


我认为最终大部分的价值会在应用层被捕获,那些能够构建出非常优秀应用的企业,拥有一些在任何业务中都存在的标准竞争模式,比如网络效应、品牌等等,这通常是你有机会进行许多增值的地方。


我认为在这方面也不会有太大的区别,它只是另一种技术,在很多原则上适用。比尔·盖茨的有一句名言,你有一个平台,平台上产生的价值远大于平台提供者捕获的价值,我认为我们的愿景是达到这一点,就是在这项技术上创造出巨大的价值。


Rob Toews:

非常有道理,我还有一个简短的补充问题,OpenAI 会构建更多自家的应用么?还是更多地停留在平台层面?


Peter  Welinder:

我们真的希望停留在更一般的平台层面上。当然,我们有 ChatGPT 这样一个更专注于消费者的产品,但即使是这个应用,它也是一个非常通用的应用,它主要用来回答更一般的问题,不是要成为世界上最好的 AI 教师、医生或律师之类的。


一些企业正在构建提升这些应用的产品,这不仅涉及到我们可以提供的模型的智能和推理部分,还包括与其他产品的集成,与专有内容的连接,以及与特定领域专家的专业知识进行训练等。


我们的目标是为企业提供一个平台,让他们构建这些体验,也许与 ChatGPT 相关,我们现在的一个方向是 ChatGPT 中的插件,通过它可以将 ChatGPT 与其他外部服务连接起来。


我认为这是一个我们将来更多发展的方向,我们真的希望成为一个平台层面,不仅在推理方面,还可以让企业能够与消费者联系起来。



产品优先级与插件生态

研究人员将工作交给用户


Jacob Effron:

你提到了 ChatGPT 的插件,目前 OpenAI 推出产品的速度太疯狂了,插件、网页浏览、移动设备,我想这只是 OpenAI 内部讨论的冰山一角,ChatGPT 这样的产品可以走很多不同的路线,你是如何确定建设的优先级的?你如何看待这个产品和你们建立的插件生态系统的发展?


Peter  Welinder:

对于建设优先级,我们确实有意识地选择了保持在更一般的平台层面上。当然,我们有ChatGPT 这个更专注于消费者的产品,但即使是这个应用,它也是一个非常通用的应用,主要用于回答更一般的问题。


我们的目标是为企业提供一个平台,让他们构建这些体验,对于插件生态系统的发展,我们认为我们的第一步是在 ChatGPT 中加入插件功能,允许用户将 ChatGPT 与其他外部服务连接起来,我们希望未来会朝着这个方向更进一步,希望 OpenAI 成为一个平台层面,提供原始推理,成为更多企业在产品与用户之间的纽带。


OpenAI 采取了一种与其他研究实验室不同的方法,我们对语言模型进行了重大的押注,以及它们的普适性。这是一个多层面的押注,确保 OpenAI 内部的大多数人专注于大型语言模型,大部分计算资源和 GPU 用于训练这些模型,这是 OpenAI 自上而下的决策,也是我们的押注,我们不会分散到太多在其他地方。


当然,也有一些其他的事情与之并行,它们在某个时候会与整体格局相联系,我们曾经有更多的押注,比如我们曾经有过机器人押注,我们曾经有过战胜 Dota 2 世界冠军的押注,这些都是为了推动技术方向的发展,让我们了解它们的可行性。


随着我们在某个方向上获得更多信心,我们将大部分精力投入其中,这种情况仍在持续发展,之所以能够快速推动许多事情,比如浏览、插件等,是因为在 OpenAI 语言模型的基础上构建的,而且它们非常灵活。


如果你有非常灵活的语言模型平台,那么所需要的只是真正聪明和有动力的人,非常幸运 OpenAI 拥有一批令人难以置信的研究人员、工程师和产品人员,他们可以产生这些奇思妙想,并能够将它们从研究阶段推进到产品阶段。


与其他更加研究导向的组织或拥有研究实验室的组织相比,一个很大的区别是,OpenAI 的研究人员更有动力将他们的工作交给用户并从中学习,这就是 OpenAI 能够看到许多这样的产品、功能,比如浏览器和插件等的原因。


这些都是通过研究人员在语言模型上构建的愿景,并将它们应用到产品中来实现;OpenAI 试图构建一个具有灵活性的产品,以便轻松部署插件,这是一种将我们在浏览、代码解释器和与外部 API 连接等方面所做的许多不同事物统一起来的方式,OpenAI 试图寻找这些共同模式,以便研究团队能够更快地将他们的工作推向用户。



数年内 AI 有望成为真正的职场工具人


Jacob Effron:

有一个有趣的领域,想听听你的看法,过去几个月里,自主代理变得非常流行,大型语言模型能力的重大飞跃,相信你们一直在思考这个问题,想知道你如何看待它有可能成为产品的一部分么?


Peter  Welinder:

在某种程度上,我们已经通过插件实现了这一点,它就像一个小型的代理,你给它一个任务,它会按照特定的顺序连接到一些 API,来执行某个任务。比如,如果你想在某个主题上创建一些食谱,然后将它们放在 Instagram 的购物清单上,可以使用我们的插件来完成这些事情。


这类过程相当简单,但如果你想做更复杂的任务,当模型对它应该做什么有一些不确定时,你只需与其进行交互,它就会展现出更像代理的行为,OpenAI的 API 方面非常棒,它使开发人员能够将其推进得更远、更快地进行探索,而我们无法做到这一点。


当我们看到 AutoGPT 和 Baby AGI 等项目,以及人们讨论如何运用它们,这让我们非常兴奋;对于插件来说,现在还处于早期阶段,这些功能还不完善,还存在一些问题,但可以看到它们的潜力,只需要更加稳定、更加智能一些。


在接下来的一两年里,OpenAI 将迎来下一代可能更加智能的模型。那时,很多这样的功能将开始发挥作用;OpenAI 真正需要优化的是认真思考,作为一家 AGI 企业,我们试图从更广阔的视角来看待我们所做的事情,比如当我们拥有 AGI 时,这个产品会是什么样子?


拥有一个AI,你可以像对待人类一样向它提出要求,它会去做事情,然后再回来向你汇报,就像你雇了一个新员工来编写 iOS 应用程序,给他们一些模糊的指导,他们会回来提问,然后去写代码,再然后他们给你展示一些东西,接着你再对 AI 提出反馈。


如果我们拥有 AGI ,那可能就是这几年内就会拥有的情景,我认为大家应该期望产品朝着这个方向发展。



开源有开源的好

想要领先就难了


Rob Toews:

我对代理的概念和发展感到兴奋,它似乎是通向更加普遍智能的自然步骤,你对开源 AI 和开源模型的看法是怎么样的?


过去几个月,Meta 发布 llama 和其衍生的所有模型后,这个领域的活动出现了大规模的爆发,想知道你如何看待开源模型在更广泛的 AI 和低模生态系统中的地位?至少目前来看, OpenAI 最先进的模型都是闭源的, OpenAI 的商业模型也是如此,基于这一点,很好奇你如何看待封闭与 OpenAI 生态系统的发展?


Peter  Welinder:

这是一个非常有趣的话题,也许我在这方面持有一个比较不太流行的观点,坦率地说,我认为有很多人越来越相信,开源模型在某个时候会与 OpenAI 和其他企业的模型不相上下,所以这可能是它的发展方向。


我认为从非常长远的角度来看,这是正确的,因为我们应该预期,就像我们的手机和设备上的计算能力一直在提升一样,虽然 OpenAI 有一些滞后,但还有其他一些因素,可能会加速这一过程,但我认为这需要较长的时间来实现。


但在短期内,我认为至少有一类模型,或者更准确地说,AI 系统的表现要比同类开源模型好得多,就像我们在许多其他领域中已经看到的,比如桌面 Linux 已经存在了 3 0年,但它从未真正赶上Mac OS X、Windows 等操作系统,因为从未有足够的投资来解决所有的细节问题,这个领域也将是类似的情况。


大量的资本和工程投入用于训练这些模型,以及运行它们的推理过程等方面,这些都是非常复杂的问题,在开源水平上很难复制这些工作,那些投资大量资源的企业不会希望开源。


从投资角度来看,这是没有意义的;从安全角度来看,这也是可疑的;我认为重要的是要确保这些模型能够被广泛使用,这也是我们在 OpenAI 关注的核心内容,但我不确定这是否会通过开源实现。


然而,这并不意味着我对开源不看好,我对开源发展非常兴奋,我认为这个领域充满了无限的活力,无论是在推动研究进步方面,还是在尝试新的方法、不同方式训练模型和应用模型方面。


在某些情况下,开源模型非常有用,比如嵌入式、检索和实体识别方面,小型模型在这方面非常有用,对于这些应用,采用开源模型更有意义,或者更准确地说,采用更小型的模型,比如在设备上或边缘计算中使用,我们可能需要采用更开源的方式。


我认为开源在这方面扮演了一定的角色,但对于那些真正希望拥有最好的、不需要担心模型可靠性的应用,最明智的选择很可能是选择一种更专有的模型,并且在可预见的将来,这些模型会变得更好。



OpenAI 制定开源与闭源模型的策略


Rob Toews:

最好的尖端封闭源模型与开源模型之间可能会存在持久的性能差距,这个边界是不断变化的,可能是那些专有的 AI 研究机构在推动这个边界。


Peter  Welinder:

实际上,对此我有一点补充。


我认为还有一个重要的问题,那就是对于某些任务,模型需要很聪明才够。如果只是做一些摘要,那么你可能不需要最聪明的模型,但我们经常看到这些开源模型的客户所面临的问题是 —— 产品往往朝着普遍性发展,然后希望模型在各种情况下都能够智能化,如果有一个非常专业的任务,可能有必要对模型进行特定的优化,但这意味着需要拥有一个非常狭窄的产品,如果试图稍微超出该领域,就会遇到问题。例如,对于客服机器人,如果你希望它能够处理所有的边缘情况,那么就需要最聪明的模型。


这里有一个问题,当你拥有一个更聪明的模型时,它就能够涵盖更多的用例,而我认为将来仍然会有应用程序,可能仅需要开源模型就足够了。


在这个问题上还存在着一些维度,这个问题与你需要多少普遍性来满足特定商业产品的需求有关;作为一个组织,OpenAI 在不断评估这个问题,我们需要将目光投向更广阔的领域,并且将继续看到更多应用,比如律师和医疗提供者等职业的协同工作。


随着时间的推移,这个领域可能会扩展到其他领域,比如 AI 科学家为新药物研发或解决气候变化等问题,这将带来全新的经济产出水平,我们相信随着时间的推移,价值会不断提升,并且我们的努力主要集中在这方面。


此外,还有一些辅助工作,例如较小型的模型在嵌入、检索和实体识别方面非常有用,这些模型可以是开源的,并且采用开源模型有一些优势;在某种程度上,这是因为在这些任务中,延迟等因素更加重要,拥有一个较小型的模型对于这些任务来说非常重要。


此外,确保拥有更多的控制权,重新计算嵌入可能是昂贵的,可以看到 OpenAI 正在这方面努力,我们已经在这方面有所作为。比如,我们关注于哪些模型可以实现更智能模型的使用,我们开源了whisper模型,因为它实际上允许人们对音频进行非常准确的转录。


现在,他们可以将其输入到大型语言模型中,构建更多以前无法实现的应用,因为语音识别方面的技术不够准确,我们希望能够尽可能广泛地推动这一领域的发展,但我们并不认为通过语音识别能够获得大量利润,而是希望实现更多的用例,这通常是我们在选择开源投资方向时的考量。



Infra 中有哪些事情 OpenAI 不会做


Jacob Effron:

我想到我们之前讨论的关于 OpenAI 构建的东西和不构建的东西,以及一些新兴的开发者工具的对话。显然,已经出现了许多开发者工具来解决这个问题,看到不同企业使用了一些巧妙的方式来解决这个问题,这是希望等待更大的生态系统来构建工具呢?还是说 OpenAI 自己最终会解决这些问题?你如何看待这个问题?


Peter  Welinder:

我认为这将取决于现有开发人员的意见,我们会询问他们遇到了哪些障碍?是什么阻止了他们的成功?我们应该做些什么来加快推进?这是一个方面。


然后,如果某些工具是我们的所有开发人员都需要的,我们可能会部分地构建一些工具,以便能够轻松启动并快速进行开发,但我认为我们还要考虑的另一个方面是,我们在哪些领域是真正世界领先的。


我认为 OpenAI 在训练这些模型、确保推理实现良好的效果方面投入了大量努力,这是 OpenAI 能够提供最大价值的地方,所以我们将始终将大部分精力放在这方面,这是 OpenAI 提供智能产品所需的基本要素,而工具则无关紧要,除非你具备了那些基础要素。



超级智能超越人类

失业、偏见 or 伪造


Rob Toews:

在过去几周和几个月中,围绕这个话题的讨论越来越多,显然 AI 是一项具有巨大潜力的技术,我们都深信它可以改善人类和文明的能力,但它也不是没有风险和缺点。

人们一直在思考 AI 的许多不足和担忧,从虚假信息和深度伪造到 AI 的偏见。显然失业是一个重要的问题,更大的问题是超级智能 AI 会不会对社会构成灾难性的风险?从你的角度来看,你认为哪一个风险或对 AI 的关注是最重要的?哪一个我们应该最认真地思考?


Peter  Welinder:

你列出的前几个风险,我认为这些都是可以克服的,其中一些与模型有关,但也与信息传播渠道有关,比如虚假信息等,当你大规模传播时,这些问题就会变得突出,所以你需要通过一些现有的平台来实施,无论是社交媒体还是电子邮件等,目前已经有很多基础设施来防止这些问题。


关于偏见问题,我们的看法是模型中不可能没有偏见,OpenAI 想做的是为大家提供工具,作为产品开发者,你可以教导模型拥有你想要的偏见,当然在某种程度上受到一些限制,但我们希望这些限制非常宽松,模型不应该有特定的政治取向,应该由用户来选择他们希望模型展现的行为方式,我认为我们没有足够重视的风险可能是关于超级智能的风险。


我们现在正朝着超级智能的方向发展,但我认为下一步将是超级智能,这些模型将变得非常聪明,超过人类的智能,我们不知道具体的时间表,但这是一件大事。


关于如何确保这一结果是良好的研究非常有限,在 OpenAI 有团队在做这方面的研究,但大学等地方并没有成立超级智能安全部门,这可能对人类来说具有灾难性的影响,因此我认为从技术层面上我们如何确保这些模型与人类的目标一致以及我们能够控制它们是非常重要的。


此外,还需要考虑到其他方面,如监管,以确保各国政府了解我们何时接近超级智能,哪些企业在进行这方面的研究,以及他们使用多少计算资源来训练这些超越超级智能的模型。


目前,我们在 OpenAI 经常讨论这个问题,但人们并没有非常认真地对待超级智能,我认为在未来的十年内,超级智能将成为一个非常严肃的话题,越早进行更加深入的讨论就越好。



OpenAI 计划在 2030 年前

使 AI 达到人类劳动水平


Rob Toews:

这是一个很有意思的话题,首先我知道你不知道,也没有人知道,但每个人都喜欢一个好的预测,所以我很好奇,你觉得达到超级智能的年份大概率是哪一年?我知道这只是猜测,也知道你不确定,但我很好奇你会怎么说。


Peter  Welinder:

OpenAI 对于 AGI 有一个定义,即能够以人类水平执行经济上有价值的工作的自主系统,我认为在2030年之前,OpenAI 有机会实现这一目标,确切的概率肯定存在一些未知的因素,可能会阻止我们实现这一目标,世界上可能会发生一些外部事件,比如 GPU 供应短缺等,可能会阻止我们的进展。


但目前情况似乎正在以一种几乎自动的方式发展,在这个领域,创新如此之多,让人感觉我们真的在一条轨迹上前进。我要说的是这只是推测,我不知道确切的答案,但是感觉有些事情与以前不同。


我在这个领域已经有 15 年了,这和 15 年前的情况完全不同,15 年前我根本不知道如何实现这个目标,现在感觉就像是正在发生的事情,而且我不是唯一一个这样说的人,私下里我与许多比我更久经领域的人交流时,他们也会说同样的事情,与 15~20 年前相比,情况有很大不同,这让我觉得也许在 2030 年末,我们会有类似 AGI 的东西出现。


关于超级智能,它非常有趣,如何定义超级智能,是能够以远远超过人类思维速度的方式运行它吗?


在不同的维度上,你可以考虑超级智能,可以进行更多的实验等等,其中一些方面可能是会实现的,也有一些问题可能会阻止我们达到这个目标,比如即使我们实现了 AGI ,但运行成本过高,需要等待另外 5~10 年才能经济上实际运行,这是一个可能的结果,但我认为在2023 年左右,我们可能真正开始看到超级智能的早期迹象,这只是我的推测,也许 10 年后我需要收回这个说法。


Rob Toews::

是的,你说得对。当今这个领域的发展速度是不可思议的。我们根本无法跟上。令人兴奋的同时也令人不知所措。


对于这个话题,我还有一个问题。最近,Jeff Hinton公开表示担心超强AI可能带来的潜在灭顶之灾,这引起了很多关注。正如你所提到的,其他人也表达了类似的担忧,包括Yoshua Bengio等。


关于 AGI 和超级智能的不可预测性,你对人类的持续生存处于风险之中的极端不利情况有多担心?如果你认为这是可信的风险,作为这个领域的领导者,你认为 OpenAI 应该或正在扮演怎样的角色?


Peter  Welinder:

我认为我可能更加乐观,我认为我们作为人类能够共同解决这个问题,因为有一点类似于我们没有爆发核战争,因为我们有一定程度的自我保护,我认为在接近 AGI 和超级智能的过程中,我们将会更加小心谨慎;实际上,我认为我们需要建立正确的组织流程和思考框架来处理这个问题。


这是 OpenAI 过去几年来的战略,我们认为从风险较低的阶段开始释放这些模型非常重要;我们从这些模型中学到了一些潜在风险,比如信息不准确和偏见等问题。


我们需要解决这些问题,因为如果我们无法解决这些问题,我就不太有信心我们能够在达到超级智能时知道该怎么做;这不仅涉及技术方法,还涉及如何建立正确的组织结构来做出关于何时将产品投入市场以及如何确保安全性等决策,这些都不是一旦你训练好了模型就可以解决的问题。


我们在发布 GPT-4 模型之前就将其推迟了将近半年的时间,只是因为我们希望对这个新模型的潜在风险有更清晰的认识;这就是我们的方法,我们逐渐地去解决这些问题。如果我们觉得事情变得不太安全,我们会推迟发布。


我们希望通过我们的行动来树立榜样,这样也会对其他人产生一定的约束力。总而言之,我认为这个技术有很大的积极作用;让我们也谈谈它的好处。如果我们真的能够实现超级智能,它能够解决我们今天面临的所有问题,比如气候变化、癌症以及随年龄增长而出现的问题,为每个人提供更丰富和更高水平的生活。这是这项技术的优势。因此,我们需要谨慎地推进,同时确保安全。



面对超级智能

催生安全与规范的投资需求


Jacob Effron:

在 OpenAI ,你们正在做很多关于这个问题的工作,但是你提到大学中缺乏超级智能安全部门,没有人在思考这个问题,我想知道,假设你在大学里领导一个有很大预算的超级智能安全部门,你会关注什么?


Peter  Welinder:

这是一个很好的问题。我认为有几个不同的领域可以关注。


首先,我们可以在理解这些模型中发生的事情方面做很多工作,它们仍然相当黑盒子,所以解释性是一个重要的方面,像 Chris Ola 这样的人已经在这方面做了可靠的工作,还有其他一些人,他们深入研究为什么深度神经网络中的某些激活会发生?


你可以利用这些来理解模型中发生的事情,我认为这是一个领域,我们可以做很多事情,也是一个我们可以更快进展的领域;经科学、计算神经科学等领域一直在研究这个问题,但是如果你在这些模型上进行研究,进展会更快;事实上,我们正在与希望在我们的模型上进行这方面研究的研究人员合作。


还有其他方面,比如如何定义对齐?如何设定目标?如何设定界限?对规范进行更深入的研究也是一个非常重要的领域;我认为迄今为止在这方面的投资还不够,人们经常听到非常模糊的关于对齐的陈述,我们需要对此进行更准确的描述,这可能需要技术人员与社会科学、哲学等领域的人员进行合作,从而更加准确地描述问题。


还有技术方面的方法,包括使用增强学习中的奖励函数来训练模型,一个模型监督另一个模型的行动并报告该模型的行为等,有很多不同的方法,我并不自称是在这些方面的投资专家,也不知道最终哪些方法会胜出,但是我知道这些都是我们正在投资的领域,也是其他人正在投资的领域。作为一个社会,我们应该投入更多的资源,让更多更聪明的人被激励来思考这些问题并寻找解决方案。



OpenAI 内部会拿 ChatGPT 干什么?


Jacob Effron:

你是 ChatGPT 的产品负责人,我觉得人们使用它的方式非常惊人,我感觉我妈妈都在用,每个人都以自己的方式使用它,对吧?我非常好奇的是,你们在 OpenAI 内部是如何使用它的?


Peter  Welinder:

我认为它非常适用于广泛的用例。我们在用户中也看到了这一点,用户使用它不仅仅是为了一个用例,通常在他们的工作流程中有十几个甚至更多的地方都会用到 ChatGPT ,无论是回答问题、总结信息,还是在写作方面提供帮助等等。


在内部,我们确实看到了很多人会拿它写代码,他们会使用 ChatGPT 来调试问题,粘贴堆栈跟踪信息等等,我个人在写作方面也经常使用它,不仅仅是为了克服写作障碍,还可以改善我的写作,比如我会让 ChatGPT 提供一些建议,问它我该如何优化一篇文章;或者我会说我不知道如何写这封电子邮件,但大致上我想传达的意思是这样的,让 ChatGPT 帮我写一份初稿,这些都是以前我可能会卡住的地方,现在我可以直接问模型,我很喜欢这一点。



新模型性能与

开发者产品之间的小摩擦


Rob Toews:

我还有一个大问题,有没有一个关于 AI 和其未来的观点,什么是你相信并且觉得非常重要的,而大多数人对此持不同意见?


Peter  Welinder:

我仍然认为我们现在应该更多地考虑超级智能的影响,老实说我不认为这是一个被广泛接受的观点,认为我们正在朝着这个方向发展,人们现在才意识到这些模型能够做很多人类能做的事情,但它们还没有完全达到那个程度。


大家都觉得,好吧,我们能做所有这些事情,但可能无法做到x、y、z等等,但每当我们说某些事情模型可能做不到时,很快模型就能做到了,所以我觉得我们需要更加认真地对待超级智能。毫无疑问,现在还没到每个人都意识到所有人都应该快速采取行动,以及人们对时间表持有不同的看法,我认为我们应该在一个更短的时间内行动,并为此制定一个计划。


Jacob Effron:

我的意思是,现在看来,整个生态系统中似乎都是 OpenAI 的世界,显然,你们处于一切事物的前沿,每个月都会发布一些新产品,让所有人都为之疯狂,不难想象 OpenAI 会继续引领这个领域并确定事物发展方向的路径;如果我们从现在往后 5 年看, OpenAI 没有处于这个令人难以置信的领导地位,最有可能的原因是什么?


Peter  Welinder:

我最担心的是,我们的主要关注点之一是让这些模型变得更好,这是我们的很多工作的重点,不仅是在能力方面,也包括在安全方面。


我总是担心与开发者之间存在一种紧张关系,因为他们开发了一些非常好的东西,然后我们发布了一个模型,替代了他们正在构建的一些东西。这其实不是我们故意要做的,但是模型在某种程度上普遍变得更好了,这一点总是让我担心,我希望能够真正与我们的开发者一起努力,为他们创造一个伟大的体验,这一点最近几个月一直在我脑海中,因为我们看到了巨大的增长,但这也意味着我们现在能够关注的开发者越来越少。


我记得当我们发布 API 的第一个版本时,我们会直接以名字的形式与我们的客户沟通,通过各种渠道与他们合作,现在我们有数百万的客户,想要如何为他们提供一个良好的客户体验?我认为这对于让人们愿意接受和在未来几年中构建这个平台来说非常重要,所以如果 OpenAI 没有这样做,那就有可能冒着整个使命的风险,对此我会非常担心。


Jacob Effron:

这次对话非常有趣,我感觉我们可以继续与你交谈几个小时,但那样可能会加快通往超级智能的时间表。最后,我将把发言权留给你,可以分享你想推广或向听众指出的任何东西,或者是关于我们对话的任何后续,


Peter  Welinder:

有一件事我想说的是,我想大家可能并不知道,虽然我们在 ChatGPT 方面付出了很多努力,但我们也在我们的博客上花费了相当多的精力,我们试图真正揭示我们正在构建的技术以及我们的思考方式。对于想要了解更多的人,真的非常鼓励大家去查看我们的博客,并在那里讨论这些问题,我们谈论 OpenAI 是如何思考这些问题,当我们接近超级智能时会如何思考安全性,以及我们如何思考这些模型是如何工作的?这些技术的基础是什么?这个博客是一个很好的地方,我们试图使这些博文对更广泛的技术受众来说更易理解,所以非常鼓励大家去看一下。


Reference:

https://www.youtube.com/watch?v=Zc7Jl-5fMME


----- End -----


线上黑客松直播来喽!快到碗里来👻真格基金x亚马逊xLinkloud今天9:00~13:00大家赶紧下方扫码报名👇













您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存