3月27日,NVIDIA发布声明,H200已经投入市场供应。
同一天,NVIDIA发布了H200的性能评估报告,表明在与美国Meta公司的大型语言模型——LLM“Llama 2”的对比中,H200使AI导出答案的处理速度最高提升了45%。
此外,NVIDIA在3月18日的开发者大会上宣布将在年内推出性能优于H200的新一代AI半导体“B200”以及搭配B200和CPU的新品,其计算能力预计将是现有的约30倍。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
NVIDIA
+关注
关注
14文章
4981浏览量
102997 -
AI
+关注
关注
87文章
30763浏览量
268906 -
语言模型
+关注
关注
0文章
521浏览量
10268
发布评论请先 登录
相关推荐
英伟达H200芯片将大规模交付
英伟达AI GPU市场迎来新动态,其H200型号上游芯片端已于第二季度下旬正式进入量产阶段,预示着该产品将在第三季度后迎来大量交付。然而,英伟
进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片
2024年3月19日,[英伟达]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级芯片GB
发表于 05-13 17:16
英伟达H200性能怎么样
英伟达H200性能卓越,集成了高性能CPU和GPU,通过高速NVLink连接,消除了传统计算瓶颈。其配备了高达141GB的HBM3e高带宽内
评论