0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

巨头豪购35万块NVIDIA最强GPU H100

硬件世界 来源:硬件世界 2024-01-29 09:58 次阅读

NVIDIA AI GPU无疑是当下的硬通货,从科技巨头到小型企业都在抢。

Meta(Facebook) CEO扎克伯格近日就透露,为了训练下一代大语言模型Llama 3,Meta正在建造庞大的计算平台,包括将在今年底前购买多达35万块NVIDIA H100 GPU。

届时,再加上其他GPU,Meta拥有的总算力将相当于几乎60万块H100!

根据市调机构Omdia的数据,Meta 2023年买了多达15万块NVIDIA GPU,能与之媲美的只有微软,而亚马逊、甲骨文、谷歌、腾讯等都只拿到了5万块左右。

SemiAccurate的首席分析师Dylan Patel指出,2024年第一季度,H100、H200、GH100、GH200、H20等基于最新Hopper架构的GPU出货量有望达到77.3万块,第二季度增至81.1万块。

而在2023年第二季度,Hopper家族GPU只出货了大约30万块。

另外值得一提的是,Meta也在购买AMD最新的Instinct MI300系列GPU,但具体数量不详。

微软也是AMD Instinct的大客户。

据海关总署公布的最新数据,2023年全年中国集成电路进口数量为4795.6亿颗,同比减少10.8%,金额为24590.7亿元人民币,同比减少了10.6%。

不过,进口金额如果以美元计,将是3490亿美元,与2022年相比大跌15.4%。

此外,2023年中国进口的二极管和类似半导体组件(普通商品芯片的代表)的数量也大幅下降了23.8%至4529.6亿颗,进口金额同比下滑23.8%至1658.1亿元人民币。

虽然由于全球经济疲软,2023年全球芯片市场也出现了11%的同比下滑至5330 亿美元,但中国的芯片进口额(以美元计)下滑幅度更大。

至于原因也不难猜测,全球经济恢复缓慢、中国通货紧缩、中美贸易战、厂商供应链转移和分散、美国对中国半导体全面封锁……

c577cd06-b6e8-11ee-8b88-92fbcf53809c.png





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 半导体
    +关注

    关注

    334

    文章

    27161

    浏览量

    217621
  • NVIDIA
    +关注

    关注

    14

    文章

    4967

    浏览量

    102901
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4717

    浏览量

    128813

原文标题:巨头豪购35万块NVIDIA最强GPU H100:还在买AMD

文章出处:【微信号:hdworld16,微信公众号:硬件世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Supermicro推出直接液冷优化的NVIDIA Blackwell解决方案

    机架中的NVIDIA HGX B200 8-GPU系统数量,与Supermicro目前领先业界的搭载NVIDIA HGX H100H200
    发表于 11-25 10:39 293次阅读
    Supermicro推出直接液冷优化的<b class='flag-5'>NVIDIA</b> Blackwell解决方案

    英伟达H100芯片市场降温

    高达300元以上。然而,如今的市场情况却发生了显著变化,搭载H100的8卡整机价格已经降至230元至240元之间,且价格波动频繁,“一周一个价”。
    的头像 发表于 10-28 15:42 450次阅读

    马斯克自曝训练Grok 3用了10万块NVIDIA H100

    在科技界的前沿阵地上,埃隆·马斯克再次以其前瞻性的视野和大胆的尝试引领着新的风潮。近日,马斯克在社交媒体X上的一则回应,不经意间透露了其即将推出的AI聊天机器人Grok 3背后的惊人秘密——这款被马斯克誉为“非常特别”的AI产品,竟然是通过10万块英伟达H100芯片的训练
    的头像 发表于 07-03 14:16 477次阅读

    英伟达去年数据中心GPU出货量占比约98%

    半导体分析公司TechInsights的最新报告揭示了英伟达在数据中心GPU领域的惊人增长。据悉,在2023年,英伟达在数据中心GPU的出货量上实现了爆炸式增长,总计出货量高达376万块,与2022年的264
    的头像 发表于 06-12 16:06 476次阅读

    首批1024H100 GPU,正崴集团将建中国台湾最大AI计算中心

    中国台湾当地正崴集团5月27日宣布,将与日本公司Ubitus共同打造人工智能(AI)计算中心,其中第一期将导入128个机柜,共计1024张英伟达H100旗舰计算卡,旨在构建台湾最大的AI计算中心。
    的头像 发表于 05-29 10:05 1068次阅读

    德克萨斯大学将创建一个学术界最强大的生成性人工智能研究中心

    近日,美国德克萨斯大学宣称他们将创建一个学术界最强大的生成性人工智能(AI)研究中心,该中心将配备600个Nvidia H100 GPU用于AI模型的训练,该计算机集群被命名为Vist
    的头像 发表于 05-28 09:06 718次阅读

    英伟达GB200芯片售价7美元,服务器单价或达30

    汇丰银行分析师预测,英伟达“入门级”B100 GPU的平均销售价将在3至3.5美元之间,与H100的价格相当。功能更为强大的GB200(
    的头像 发表于 05-15 14:31 1846次阅读

    特斯拉和xAI筹集H100芯片,以推动L5级自动驾驶和“终极真相人工”的实现 

    近期,X平台用户“威廉希尔官方网站 兄弟”报导称,Meta已成为全球最具实力的H100 GPU持有者,总计为35万块,但马斯克对此却并不认同(特斯拉与xAI的持有量均为1
    的头像 发表于 04-09 11:02 541次阅读

    英伟达H200和H100的比较

    英伟达H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 4463次阅读

    H100 GPU供应改善,AI市场需求依旧强劲

    值得注意的是,H100 GPU的供求关系已经缓解,且维护成本高起,部分客户正在置换这类硬件以转向云服务,这种转变在过去的市场紧缩中很少见到。同时,市场上虽然有其他选择如AMD的MI300 GPU,性能稳定且价格低廉。
    的头像 发表于 02-29 16:10 678次阅读

    扎克伯格的Meta斥资数十亿美元购买35万块Nvidia H100 GPU

    首席执行官马克扎克伯格表示,Meta总共将拥有相当于600,000个NvidiaH100GPU的计算能力,以帮助其开发下一代人工智能产品。JAEALOT2024年1月22日马克·扎克伯格计划购买35
    的头像 发表于 01-26 08:26 736次阅读
    扎克伯格的Meta斥资数十亿美元购买<b class='flag-5'>35</b><b class='flag-5'>万块</b><b class='flag-5'>Nvidia</b> <b class='flag-5'>H100</b> <b class='flag-5'>GPU</b>

    Meta计划至2024年末购买35H100加速卡

    扎克伯格并未披露BIN为应对日益增加的人工智能需求添购的具体数量。市场研究机构雷蒙德詹姆斯的分析师根据推测,每颗H100系列芯片单价可能在2.5至3美金之间,若按照最低标准计算,购置成本将超过10亿美金。
    的头像 发表于 01-19 10:25 735次阅读

    2024年,GPU能降价吗?

    首当其冲的就是A100GPU。OpenAI使用的是3,617台HGXA100服务器,包含近3万块英伟达GPU。国内云计算相关专家认为,做好AI大模型的算力最低门槛是1
    的头像 发表于 01-03 15:57 826次阅读
    2024年,<b class='flag-5'>GPU</b>能降价吗?

    NVIDIA GPU因出口管制措施推迟发布

    据之前所披露的详细数据,英伟达HGX H20虽属与H100H200同系列,共享英伟达Hopper架构,但拥有高达96GB的HBM3显存及4.0TB/s的显存带宽,计效包括FP8达到296TFLOPS和FP16高达148TFLO
    的头像 发表于 01-03 09:25 716次阅读
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b>因出口管制措施推迟发布

    AI计算需求激增,英伟达H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟达在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,
    的头像 发表于 12-28 09:29 2321次阅读