欢迎来到进口食品商务网!

英伟达CEO黄仁勋宣布新AI芯片:“我们需要更大的gpu”

2024-04-18 12:12 来源:本站编辑

  • Nvidia on Mo今天宣布了新一代人工智能芯片和运行人工智能模型的软件。
  • 新的人工智能图形处理器被命名为Blackwell,预计将于今年晚些时候上市。
  • 该公告发布之际,各公司和软件制造商仍在争相获得当前一代h100和类似芯片。

在本文中

  • 改良式戏剧活动
在密苏里州 Nday宣布推出新一代人工智能芯片和运行人工智能模型的软件。这一消息是在英伟达的开发者大会上宣布的 该芯片制造商正寻求巩固其作为人工智能公司首选供应商的地位。

自2022年底OpenAI的ChatGPT开启人工智能热潮以来,英伟达的股价上涨了5倍,总销售额增长了两倍多。英伟达的高端服务器gpu对于训练和部署大型人工智能模型至关重要。微软和textarea等公司已经花费了数十亿美元购买这些芯片。

新一代人工智能图形处理器被命名为Blackwell。第一款Blackwell芯片名为GB200,将于今年晚些时候上市。英伟达正在用更强大的芯片来吸引客户,以刺激新订单。例如,公司和软件制造商仍在争相获得当前一代的“霍珀”h100和类似的芯片。

英伟达首席执行官黄仁勋周一在公司于加州举行的开发者大会上表示:“Hopper很棒,但我们需要更大的gpu。”

在周一的延长交易中,英伟达股价下跌超过1%。

该公司还推出了一款名为NIM的创收软件,它将使人工智能的部署变得更加容易,这让客户有了另一个理由坚持使用英伟达的芯片,而不是越来越多的竞争对手。

英伟达高管表示,该公司正在从唯利是图的芯片供应商转变为像微软(Microsoft)或苹果(Apple)那样的平台提供商,其他公司可以在平台上开发软件。

“Blackwell不是一个芯片,它是一个平台的名字,”Huang说。

英伟达企业副总裁Manuvir Das在接受采访时表示:“可销售的商业产品是GPU,而软件则是为了帮助人们以不同的方式使用GPU。”“当然,我们仍然这样做。但真正改变的是,我们现在真的有了商业软件业务。”

达斯说,英伟达的新软件将使在任何英伟达的gpu上运行程序变得更容易,即使是那些可能更适合部署但不适合构建人工智能的旧gpu。

Das说:“如果你是开发者,你有一个有趣的模型,你希望人们采用,如果你把它放在NIM中,我们会确保它在我们所有的gpu上都能运行,这样你就能接触到很多人。”

这是霍珀的继任者布莱克威尔

英伟达每两年更新一次GPU架构,实现性能的大幅提升。过去一年发布的许多人工智能模型都是在该公司2022年宣布的H100等芯片所使用的Hopper架构上进行训练的。

英伟达表示,基于blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级,人工智能性能为每秒20千万亿次,而H100为每秒4千万亿次。英伟达表示,额外的处理能力将使人工智能公司能够训练更大、更复杂的模型。

该芯片包括英伟达所谓的“变压器引擎”,专门用于运行基于变压器的人工智能,这是ChatGPT的核心技术之一。

Blackwell GPU很大,将两个单独制造的芯片集成到一个由台积电制造的芯片中。它还将作为一个名为GB200 NVmeta 2的完整服务器提供,该服务器结合了72个Blackwell gpu和其他Nvidia用于训练人工智能模型的部件。

亚马逊、谷歌、微软和甲骨文将通过云服务出售GB200的访问权限。GB200对两个B200 Blackwell gpu和一个基于arm的Grace CPU。英伟达表示,亚马逊网络服务(Amazon Web Services)将构建一个包含2万个GB200芯片的服务器集群。

英伟达表示,该系统可以部署一个27万亿参数的模型。这比最大的模型要大得多,比如GPT-4,据报道它有1.7万亿个参数。许多人工智能研究人员认为,拥有更多参数和数据的更大模型可以释放出新的能力。

英伟达没有透露新的GB200或使用它的系统的成本。据分析师估计,英伟达基于hopper的H100芯片每块成本在2.5万至4万美元之间,而整个系统的成本高达20万美元。

Nvidia推理微服务

英伟达还宣布,它将在其英伟达企业软件订阅中添加一款名为NIM的新产品,NIM代表英伟达推理微服务。

NIM可以更容易地使用旧的英伟达gpu进行推理,或者运行人工智能软件的过程,并允许公司继续使用他们已经拥有的数亿个英伟达gpu。与新人工智能模型的初始训练相比,推理需要更少的计算能力。NIM允许那些想要运行自己的人工智能模型的公司,而不是从OpenAI等公司购买人工智能结果的服务。

该公司的策略是让购买英伟达服务器的客户注册英伟达企业版,每个GPU每年的许可费为4500美元。

英伟达将与微软或hug Face等人工智能公司合作,确保它们的人工智能模型能够在所有兼容的英伟达芯片上运行。然后,使用NIM,开发人员可以在他们自己的服务器或基于云的Nvidia服务器上有效地运行模型,而无需冗长的配置过程。

“在我调用OpenAI的代码中,我将替换一行代码,将其指向我从英伟达获得的NIM,”Das说。

英伟达表示,该软件还将帮助人工智能在配备gpu的笔记本电脑上运行,而不是在云服务器上运行。

中国进口商网声明:未经许可,不得转载。