广告

维持ChatGPT运行将需要超过3万块Nvidia显卡

2023-03-02 16:35:56 综合报道 阅读:
据TrendForce的最新预测,人工智能(AI)将成为Nvidia的最大收入来源之一。该研究公司估计,OpenAI的ChatGPT最终将需要超过3万块Nvidia显卡的算力以维持运行。

据TrendForce的最新预测,人工智能(AI)将成为Nvidia的最大收入来源之一。该研究公司估计,OpenAI的ChatGPT最终将需要超过3万块Nvidia显卡的算力以维持运行。7yZednc

值得一提的是,ChatGPT不会触及最好的游戏显卡,而是利用Nvidia的计算加速器,如A100等。7yZednc

使用A100(安培)加速器作为参考,TrendForce测算出ChatGPT需要大约2万个单元来处理训练数据。然而,随着OpenAI继续在商业上部署ChatGPT和该公司的生成性预训练转化器(GPT)模型,这一数字将大幅增加,可能会超过3万个单元。A100的价格在10,000到15,000美元之间,取决于配置和外形尺寸。7yZednc

因此,至少,Nvidia的收入将达到3亿美元。这个数字可能略低,因为Nvidia可能会根据所需卡的数量给OpenAI一个折扣。7yZednc

Nvidia还将A100作为DGX A100系统的一部分出售,该系统有八个加速器,售价高达199,000美元。7yZednc

鉴于OpenAI的运营规模,该公司可能会单独购买A100,并将其堆叠成集群。另一方面,DGX A100对那些想涉足人工智能的小型企业来说是一个有吸引力的选择。7yZednc

虽然A100在人工智能方面非常出色,但Nvidia已经开始出货H100(Hopper),这是A100的直接替代品。从纸面上看,H100的性能比其前辈高三倍。7yZednc

此外,根据Nvidia的说法,H100的扩展性甚至比A100更好,在人工智能训练中提供高达9倍的吞吐量。不过,H100的价格明显更高,因为列表显示,Hopper加速器的价格超过32,000美元。7yZednc

Nvidia的最新收益报告显示,该公司的数据中心业务,包括AI加速器,与去年相比提高了11%,在本季度收获了超过36亿美元的销售额。7yZednc

微软正在将ChatGPT整合到Bing和Edge中,当微软、谷歌等大公司集体涌入人工智能战场时,这些数字可能很快就会暴涨。7yZednc

考虑到用户群的规模(基本上每个人都在运行Windows),微软可能不得不在未来几个月和几年内花费数十亿美元来扩大规模。7yZednc

责编:Demi
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了