查看原文
其他

ChatGPT 和 GPT-4 带给世界的改变

为开发者服务的 21CTO 2023-06-18

导读:关于chatgpt正在改变的行业。

微软与人工智能聊天工具ChatGPT的开发商OpenAI的合作,已经在科技界掀起了一股追逐人工智能的热潮。

向通用场景进军

目前微软的一个研究团队正在进一步推进人工智能技术,试图让ChatGPT突破计算机限制来控制机器人,让它们在现实世界中自由发挥。

“我们研究的目的是看看 ChatGPT 是否可以超越生成文本来推理现实世界的条件,以帮助机器人完成任务,”微软研发员工如此说。

微软研究人员设想了这样一个未来:普通人可以向内置于家庭机器人中的数字家庭助理发出诸如“请给我做一顿热午餐”之类的命令,然后就可以看着机器人从头到尾完成任务。


微软研发人员详细介绍了如何使用某些线索让 ChatGPT 控制小型无人机。通过将命令写入 ChatGPT 聊天对话框,研究人员能够训练无人机找到“健康型饮料”、“带糖和红色标志的东西”(在本例中为一罐可乐)和房间的一侧,无人机自拍等。

ChatGPT 非常适合执行这些命令,原因与 OpenAI 技术让一些软件工程师对未来感到紧张的原因相同:可以将自然语言快速翻译成代码的 AI 聊天机器人。


虽然微软研究人员承认他们的工作“只代表了一小部分可能性”,但他们警告说,在没有“仔细分析”的情况下,不应部署这样的 ChatGPT 应用程序。

OpenAI 在去年 11 月底向公众发布 ChatGPT,结果火爆全网,也引起了业界的强烈关注。专家预计许多行业,包括写作、教育和软件工程,都会被这项技术颠覆。

ChatGPT,“假冒”的科学家

ChatGPT 已经进入科学领域。 


周四, Kareem Carr 发布了一篇论文的截图,ChatGPT 是该论文的合著者。


为什么不把ChatGPT 是一种工具呢?人们已经开始将 ChatGPT 视为真正的、有良好资质的科学合作者。


Gary Marcus 在 Substack 的帖子中强烈呼吁人们:“科学家们,请不要让你们的聊天机器人成长为合著者”。


更令人担忧的是那些没有披露人工智能使用情况的案例。科学家们发现他们无法可靠地识别其论文摘要是不是 ChatGPT 编写——它写的有用的废话甚至愚弄了领域里的专家。


牛津大学“研究技术和监管”的桑德拉·瓦赫特 (Sandra Wachter) 在一篇关于自然的文章中与霍莉·埃尔斯 (Holly Else) 交流时说道 :

“我们现在处于专家无法确定什么是真的或什么是假的情况,我们迫切需要的中间人来指导解决复杂的话题。”


ChatGPT 对教育的挑战


ChatGPT 已在全球各地的一部分教育机构被禁止(知名如纽约公立学校、 澳大利亚大学和香港中文大学等)。


NYT 的 Kevin Roose 却认为 ,“ChatGPT作为教育工具的潜力大于其风险。” 数学家陶哲轩也同意此说法:“从长远来看,与之抗争似乎是徒劳的;也许我们作为讲师需要做的是转向“开放书籍,开放人工智能”的考试模式。”


Hugging Face 的首席伦理学家Giada Pistilli解释了学校在 ChatGPT 方面面临的挑战:

“不幸的是,教育系统似乎是被迫适应这些新技术。


作为一种反应,我认为这是可以理解的,因为在预测、减轻或制定替代解决方案以及可能产生的问题等并没有做太多工作。颠覆性技术需要教育好用户,它们不能不受控制就简单地扔给人们。”

最后一句话完美地抓住了问题出现的地方,还有潜在的解决方案。

我们必须付出额外的努力来教育用户这项技术是如何工作的,还有什么是可能的,而不是他们做的。

以下是加泰罗尼亚采取的方法:

“教育部门不可能‘在整个系统和所有人’中禁用ChatGPT,因为这将是一种无效的措施。” 根据该部的消息,最好让这些中心进行人工智能使用方面的教育,“这可以提供很多知识和优势。”


学生的好朋友:错误数据库


Gary Marcus 和 Ernest Davis 建立了一个“错误跟踪器”来捕获和分类像 ChatGPT 这样的语言模型所造成的错误库。


该数据库是公开的,任何人都可以参与。这是一个很好的资源,可以用来严格研究这些模型如何行为不端以及人们如何避免误用。


OpenAI 意识到了这一点,并希望与错误和虚假信息作斗争:“为虚假信息活动预测语言模型的潜在滥用以及如何降低风险。”


GPT-4 信息和错误信息


Sam Altman在与 TechCrunch 编辑Connie Loizos 的谈话中暗示 GPT-4 的发布会延迟 。Altman 说:“总的来说,我们发布技术的速度比人们希望的要慢得多。我们将在上面坐更长的时间……”:

(奥特曼还说有一个视频模型正在制作中)

关于 GPT-4 的错误信息


社交媒体上到处都有“GPT-4 = 100T”的说法。如果你还没有看到它,它看起来像这样:

或者像这个:

所有这些都是同一事情的略微不同版本:吸引注意力的吸引人的可视化图表,以及与 GPT-4/GPT-3 比较的强大关联(使用 GPT-3 作为 ChatGPT 的代理)。

机器人律师与首先


DoNotPay 的首席执行官 Joshua Browder 在 1 月 9 日发布了以下文章:

原译是:DoNotPay 将向美国最高法院即将审理的案件支付 100 万美元,让其佩戴 AirPods 并让我们的机器人律师通过准确重复其陈述的内容来为案件辩护。

这一大胆的声明引起了 很多争论 ,Twitter 现在用指向最高法院违禁物品页面的链接来标记这条推文。

即使他们最终由于法律原因不能这样做,也值得从道德和社会的角度考虑这个问题。如果人工智能系统犯了严重的错误会怎样?无法找到律师的人能否真正从这项技术的成熟版本中受益?

然而,针对稳定扩散的诉讼已经开始。Matthew Butterick 于 1 月 13 日发表了这篇文章:

“我们代表三位优秀的艺术家原告——Sarah Andersen  Kelly 、  McKernan 和Karla Ortiz——对 Stability AI、 DeviantArt 和Midjourney 提起集体诉讼, 指控它们使用 Stable Diffusion ,这是一种 21 世纪的拼贴工具,重新混合了数百万艺术家的受版权保护的作品,这些艺术家的作品被用作训练数据。”

一部分艺术家已经开始了向人工智能 “斗争”的第一步,以缓解生成式人工智能的训练和使用:“AI 需要对每个人都要公平和合乎道德。”

但是,它深入研究了稳定扩散的技术细节,但未能正确解释某些部分。这是否是有意为那些不知道——也没有时间学习——这项技术如何工作的人弥合技术差距的一种手段。

CNET 发布 AI 生成的文章

几周前,CNET未来主义报道了这一点:

“ CNET是一家广受欢迎的科技新闻媒体,它一直在悄悄地利用“自动化技术”——人工智能的一种委婉说法——来推出新一波的金融类文章。”

最早发现这一点的盖尔·布雷顿 (Gael Breton) 在周五撰写了一篇更深入的分析文章。他解释说,谷歌似乎并没有阻碍这些帖子的流量。“AI内容现在可以过审了吗?” 他问。

CNET 决定在文章中应用 AI 是一个很好的先例。而现在有多少人在不公开的情况下使用 AI 来发布内容?如果这种做法奏效,人们可能会失业。 它可能已经发生了:

我完全同意圣地亚哥的这条推文:

用于图像生成的 RLHF


如果通过人类反馈的强化学习适用于语言模型,为什么不适用于文本到图像?这就是 PickaPic 正在努力实现的目标。


以下是使用pickapic 生成的艺术图像。

该演示目前用于研究目的,是对 Stable Diffusion 或 DALL-E 的有益补充。

“让 Siri/Alexa 性能提升 10 倍”的秘诀


以下是有人发出,混合不同的生成 AI 模型以创建更好的方法:

ChatGPT还在影响着与颠覆着各个领域,绝对不只这些。限于篇幅,今天就先介绍这里,欢迎您补充留言。

作者:场长

参考:

https://albertoromgar.medium.com/chatgpt-gpt-4-and-more-generative-ai-news-17e0b114a96c


相关阅读:

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存