黄仁勋:英伟达AI芯片性能增速远超摩尔定律

在拉斯维加斯举行的国际消费电子展(CES)上,英伟达CEO黄仁勋发表了一场面向万人的主题演讲,并在随后的采访中向TechCrunch透露,其公司AI芯片的性能提升速度已经远超数十年来推动计算机技术进步的“摩尔定律”设定的标准。

摩尔定律由英特尔联合创始人戈登·摩尔于1965年提出,预测计算机芯片上的晶体管数量将大约每年翻一番,从而使芯片性能也大致翻一番。这一预测在随后的几十年里基本实现,推动了计算机性能的快速提升和成本的急剧下降。然而,近年来,摩尔定律的发展速度有所放缓。

黄仁勋在接受采访时表示:“我们的系统进步速度远超摩尔定律。”他进一步指出,英伟达最新的数据中心超级芯片在运行AI推理工作负载方面的速度比上一代产品快30多倍。这款名为GB200 NVL72的芯片,在性能上比英伟达之前最畅销的H100芯片提升了30到40倍。

黄仁勋强调,英伟达之所以能够实现如此快速的发展,是因为公司能够在整个技术栈中进行创新,包括架构、芯片、系统、库和算法。他指出:“如果这样做,我们就能比摩尔定律更快地发展。”

这一大胆言论正值许多人质疑AI发展是否停滞之时。然而,黄仁勋驳斥了这一观点,并指出当前AI领域存在三大扩展定律:预训练(pre-training)、后训练(post-training)和推理时计算(test-time compute)。预训练阶段,AI模型从海量数据中学习模式;后训练阶段,通过人类反馈等方法微调模型;推理时计算则让模型在回答每个问题后有更多时间“思考”。

黄仁勋认为,随着计算能力的提升,AI推理成本将逐步降低,类似于摩尔定律推动计算成本下降的历史进程。他指出,英伟达最新的AI芯片性能比10年前的产品提升了1000倍,这是一个远超摩尔定律设定标准的速度,而且这种快速发展的势头还看不到停止的迹象。

16184680747.png

英伟达的AI芯片在业界有着广泛的应用。包括谷歌、OpenAI和Anthropic在内的领先AI实验室都在使用英伟达的AI芯片来训练和运行其AI模型。这些芯片的进步可能会转化为AI模型能力的进一步提升。

然而,随着科技公司对AI推理的关注增加,一些人开始质疑英伟达昂贵的芯片是否还能保持领先地位。目前,使用测试时计算的AI模型运行成本高昂。例如,OpenAI使用其o3模型在一项通用智能测试中达到人类水平的分数,但每项任务花费近20美元,而ChatGPT Plus的订阅费用为每月20美元。

黄仁勋表示,英伟达正在致力于降低AI推理模型的成本。他指出,GB200 NVL72芯片的性能飞跃意味着像OpenAI的o3这样在推理阶段使用大量计算的AI推理模型,其成本将随着时间的推移而降低。他预计,这种降价趋势将随着AI推理模型的发展而继续下去。

总的来说,黄仁勋在CES上的发言不仅展示了英伟达在AI芯片领域的领先地位,还向业界传递了一个明确的信息:英伟达正在以远超摩尔定律的速度推动AI技术的发展。这一消息无疑将激发业界对AI未来的更多期待和信心。

标签:
版权声明: 部分文章信息来源于网络以及网友投稿.本网站只负责对文章进行整理、排版、编辑.是出于传递更多信息之目的.并不意味着赞同其观点或证实其内容
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。

网址:https://pdf.jiepei.com/article/595.html

评论

登录后参与讨论

目前还没有评论,等你发挥~