最新!OpenAI掌门人自曝GPU短缺,未来GPT-4会更快、更便宜

news/2024/11/23 9:46:53/

e78c7c7761cd8654c966764c62fef41a.gif

作者 | 金鹿     

本文经授权转自公众号腾讯科技(ID:qqtech),如需转载,请联系对方:

机器学习和人工智能初创公司Humanloop首席执行官拉扎·哈比比(Raza Habib),5月29日邀请OpenAI首席执行官萨姆·奥特曼(Sam Altman)以及其他20多位开发者,共同探讨了人工智能的未来。奥特曼非常坦率地分享了OpenAI未来两年的产品路线图,还谈到OpenAI的使命以及人工智能的社会影响等问题。

b60802796d5500909952ea08bb7849bc.jpeg

图源:Sam Altman个人博客

以下为访谈要点:

f6bbc00817627f701b17ec53eea3936a.png

OpenAI严重受制于GPU短缺

在整个讨论中出现的一个共同主题是,目前OpenAI的GPU供应非常有限,这导致他们推迟了许多短期计划。客户最大的抱怨是API的可靠性和速度。奥特曼承认存在这种担忧,并解释说大部分问题是因GPU短缺所致。

长度为32k的上下文功能还不能推广给更多的人。OpenAI还没有克服相关技术挑战,所以虽然看起来他们很快(今年)就会有100k到1M令牌的上下文窗口,但更大的窗口都需要在研究上取得突破。

微调API目前也受到GPU可用性的限制。它们还没有使用Adapters或LoRa等高效的调优方法,因此调优的运行和管理需要大量的计算。将来会有更好的微调支持。他们甚至可以托管一个社区贡献模型的市场。

专用容量供应受GPU可用性的限制。OpenAI也提供专用容量,为客户提供该模型的私人副本。但要使用这项服务,客户必须愿意支付相当于10万美元的费用。

037c8c4c0acdf3850dbb6e44e56ea105.png

OpenAI的近期路线图

奥特曼分享了他所看到的OpenAI API临时近期路线图。

2023年:

更便宜、更快的GPT-4:这是OpenAI的首要任务。总的来说,OpenAI的目标是尽可能地降低“智能成本”,因此他们将努力随着时间的推移继续降低API的成本。

更长的上下文窗口:在不久的将来,上下文窗口可能高达100万令牌。

微调API:微调API将扩展到最新的模型上,但其确切形式将由开发者真正想要的元素来决定。

支持会话状态的API:当你今天调用聊天API时,你必须反复地传递相同的会话历史,并反复支付同样的令牌。将来,会有一个版本的API可以记住会话历史记录。

2024年:

多模态:这在GPT-4发布时进行了演示,但在更多GPU上线之前不能扩展到所有人。

0a40394b1dbb05c67f0b93f245df2aa6.png

插件“没有PMF”,可能不会很快出现在API中

许多开发人员都对通过API访问ChatGPT插件感兴趣,但奥特曼说他认为这些插件不会很快发布。除了浏览,插件的使用表明他们还没有PMF。奥特曼表示,很多人认为他们希望自己的应用被集成到ChatGPT中,但实际上,他们真正想要的是将ChatGPT引入自己的应用中。

0a37bf78118ddef57fba7b36955bda48.png

OpenAI将避免与他们的客户竞争,除了ChatGPT

许多开发者表示,他们对使用OpenAI API构建产品感到紧张,因为OpenAI最终可能会发布与他们竞争的产品。对此,奥特曼表示,OpenAI不会发布更多ChatGPT之外的产品。他说,许多伟大的平台公司都有自己的杀手级应用,ChatGPT将允许他们通过成为自家产品的客户来改进API。ChatGPT的愿景是成为一个超级智能的工作助手,但还有很多其他的GPT用例是OpenAI无法触及的。

8d883bd2d190f508a813120c839565cb.png

监管是必要的,但开源同样重要

虽然奥特曼呼吁对未来的模型进行监管,但他并不认为现有的模型是危险的,认为监管或禁止它们将是一个大错误。奥特曼强调了开源的重要性,并表示OpenAI正在考虑开源GPT-3。他们还没有开源的部分原因在于,他怀疑有多少个人和公司有能力托管大语言模型。

24856ad8a55cbec35fe1cf442cc17b66.png

缩放定律仍然成立

最近许多文章都声称“巨型人工智能模型的时代已经结束”,但奥特曼表示,这并没有准确地表达他的意思。

OpenAI的内部数据表明,模型性能的缩放定律仍然成立,扩大模型将继续可以帮助提升性能。但这种扩展速度无法维持下去,因为OpenAI在短短几年内就把模型放大了数百万倍,这样做是不可持续的。不过,这并非意味着OpenAI将停止扩大模型,只是意味着它们的规模可能每年只会增加一倍或三倍,而不是以指数级速度增长。

缩放定律继续发挥作用的事实对通用人工智能(AGI)开发的时间线具有重要意义。缩放假设是指,我们可能已经具备了构建AGI所需的大部分要素,剩下的大部分工作将是采用现有方法,并将其扩展到更大的模型和更大的数据集上。如果缩放时代已经结束,那么我们应该期待AGI离我们更遥远。但事实上,缩放定律继续成立的事实强烈地暗示了时间线正变得更短。

2a243d6a5ab1f8dd6f6f891b1bc9e208.gif


http://www.ppmy.cn/news/455565.html

相关文章

面向异构众核超级计算机的大规模稀疏计算性能优化研究

点击上方蓝字关注我们 面向异构众核超级计算机的大规模稀疏计算性能优化研究 胡正丁, 薛巍 清华大学计算机科学与技术系,北京 100084 论文引用格式: 胡正丁, 薛巍.面向异构众核超级计算机的大规模稀疏计算性能优化研究[J].大数据, 2020, 6(4):40-55. HE …

再谈异构计算CPU+GPU(APU)

再谈异构计算CPUGPU 异构计算的英文名称是Heterogeneous computing,主要是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。常见的计算单元类别包括CPU、GPU等协处理器、DSP、ASIC、FPGA等。我们常说的并行计算正是异构计算中的重要组成部分异构计算近…

异构计算 CPU、GPU、DSP、ASIC、FPGA

异构计算主要是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。异构计算已经无处不在,从超算系统到桌面到云到终端,都包含不同类型指令集和体系架构的计算单元,下面先从几个系统了解下异构计算超算系统。 天河-2:…

异构计算 — 异构芯片融合趋势

目录 文章目录 目录计算架构的演进方向第一阶段,串行计算第二阶段,同构并行计算第三阶段,异构并行计算未来,将走向第四阶段,超异构并行阶段NVIDIA 的异构芯片融合GPU + DPUCPU + GPUCPU + GPU + DPUIntel 的融合架构芯片CPU + GPUAMD 的融合架构芯片CPU + GPU计算架构的演…

异构计算 — Overview

目录 文章目录 目录异构计算异构计算体系结构第一阶段,串行计算第二阶段,同构并行计算第三阶段,异构并行计算CPU+GPUCPU+FPGASoC下一个阶段,融合异构计算异构计算的编程框架异构计算体在 AI 场景中的应用异构计算 异构计算是指使用不同类型指令集和体系架构的处理器芯片(…

异构计算综述

异构计算(Heterogeneous computing) 异构计算(Heterogeneous computing)技术从80年代中期产生,由于它能经济有效地获取高性能计算能力、可扩展性好、计算资源利用率高、发展潜力巨大,目前已成为并行/分布计…

CPU+GPU异构计算完全解析

原文链接:http://bj.beareyes.com.cn//2/lib/201106/20/20110620416_1.htm 工欲善其事,必先利其器。有一个好的计算工具是必须的! 并行计算:让处理的速度变得更快 相对于串行计算,并行计算可以划分成时间并行和空间并…

【高性能计算】英特尔oneAPI—英特尔异构统一编程接口初识及其深度学习应用

英特尔oneAPI-英特尔异构统一编程与接口初识及其深度学习应用 1 高性能计算的今天 高性能计算(High performance computing,HPC) 通常使用不同的设备、处理器进行计算。HPC的市场增长逾加迅速,在云计算、大数据、AI等领域大放异彩。如今,全球…