0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

超级芯片GH200发布,AI算力是H100的两倍

智能计算芯世界 来源:智能计算芯世界 2023-08-10 09:16 次阅读

英伟达在计算机图形学顶会 SIGGRAPH 2023 上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台,并推出了 OVX 服务器、AI Workbench 等一系列重磅更新。

五年前,也是在 SIGGRAPH 大会的演讲中,英伟达宣布将 AI 和实时光线追踪引入 GPU ,可以说,当时的这个决定重塑了计算图形学。

「我们意识到光栅化已经达到了极限,」黄仁勋表示:「这要求我们重塑硬件、软件和算法。在我们用 AI 重塑 CG 的同时,也在为 AI 重塑 GPU。」

预言应验了:几年来,计算系统变得越来越强大,例如 NVIDIA HGX H100,它利用 8 个 GPU 和总共 1 万亿个晶体管,与基于 CPU 的系统相比,提供了显著的加速。

「这就是世界数据中心迅速转向加速计算的原因,」在今年的 SIGGRAPH 大会,黄仁勋重申:「The more you buy, the more you save.」

如今,训练越来越大的生成式 AI 模型所需的计算未必由具有一定 GPU 能力的传统数据中心来完成,而是要依靠像 H100 这样从一开始就为大规模运算而设计的系统。可以说,AI 的发展在某种程度上只受限于这些计算资源的可用性。

但黄仁勋断言,这仅仅是个开始。新模型不仅需要训练时的计算能力,还需要实现由数百万甚至数十亿用户实时运行的计算能力。

「未来,LLM 将出现在几乎所有事物的前端:人类就是新的编程语言。从视觉效果到快速数字化的制造市场、工厂设计和重工业,一切都将采用自然语言界面。」黄仁勋表示。

在这场一个多小时的演讲中,黄仁勋带来了一系列新发布,全部面向「生成式 AI」。

更强的 GH200 Grace Hopper 超级芯片平台

英伟达的 Grace Hopper 超级芯片 NVIDIA GH200 结合了 72 核 Grace CPU 和 Hopper GPU,并已在 5 月全面投入生产。

现在,黄任勋又宣布 Grace Hopper 超级芯片将配备 HBM3e 高带宽内存(HBM3e 比当前的 HBM3 快 50%),下一代 GH200 Grace Hopper 平台将大幅提升生成式 AI 的计算速度。

全新的 GH200 内存容量将增加至原有的 3.5 倍,带宽增加至 3 倍,包含一台具有 144 个 Arm Neoverse 核心、282GB HBM3e 内存的服务器,提供 8 petaflops 的 AI 算力。

为了提升大模型的实际应用效率,生成式 AI 模型的工作负载通常涵盖大型语言模型、推荐系统和向量数据库。GH200 平台旨在全面处理这些工作负载,并提供多种配置。

英伟达表示,这款名为 GH200 的超级芯片将于 2024 年第二季度投产。

Nvidia AI Workbench,模型即服务

此外,为了加快全球企业定制化采用生成式 AI,老黄宣布英伟达即将推出 Nvidia AI Workbench。

尽管很多预训练模型都是开源的,但使其定制化服务自身业务仍然具有挑战性。AI Workbench 减轻了企业 AI 项目入门的复杂程度,将所有必要的企业级模型、框架、软件开发套件和库整合到统一的 workspace 之中。

只需要在本地系统上运行的简化界面进行点击,AI Workbench 就能让开发者使用自定义数据微调 Hugging Face、GitHub 和 NGC 等流行存储库中的模型,然后将其扩展到数据中心、公有云或 Nvidia DGX 云。

黄仁勋还宣布英伟达将与 Hugging Face 合作,开发人员将能够访问 Hugging Face 平台中的 NVIDIA DGX Cloud AI 超级计算来训练和调整 AI 模型。这将使数百万构建大型语言模型和其他高级 AI 应用程序的开发人员能够轻松实现生成式 AI 超级计算。

「这将是一项全新的服务,将世界上最大的人工智能社区与世界上最好的训练和基础设施连接起来,」黄仁勋表示。

全新的 RTX 工作站和 Omniverse

老黄还宣布,英伟达与 BOXX、戴尔科技、惠普和联想等工作站制造商合作,打造了一系列全新的高性能 RTX 工作站。

最新发布的 RTX 工作站提供多达四个英伟达 RTX 6000 Ada GPU,每个 GPU 配备 48GB 内存。单个桌面工作站可提供高达 5828 TFLOPS 的性能和 192GB 的 GPU 内存。

根据用户需求,这些系统可配置 Nvidia AI Enterprise 或 Omniverse Enterprise 软件,为各种要求苛刻的生成式 AI 和图形密集型工作负载提供必要的动力。这些新发布预计将于秋季推出。

新发布的 Nvidia AI Enterprise 4.0 引入了 Nvidia NeMo,这是一个用于构建和定制生成式 AI 基础模型的端到端框架。它还包括用于数据科学的 Nvidia Rapids 库,并为常见企业 AI 用例(例如推荐器、虚拟助理和网络安全解决方案)提供框架、预训练模型和工具。

工业数字化平台 Omniverse Enterprise 是 Nvidia 生态系统的另一个组成部分,让团队能够开发可互操作的 3D 工作流程和 OpenUSD 应用程序。Omniverse 利用其 OpenUSD 原生平台,使全球分布的团队能够协作处理来自数百个 3D 应用程序的完整设计保真度数据集。

此次英伟达主要升级了 Omniverse Kit(用于开发原生 OpenUSD 应用和扩展程序的引擎),以及 NVIDIA Omniverse Audio2Face 基础应用和空间计算功能。开发者可以轻松地利用英伟达提供的 600 多个核心 Omniverse 扩展程序来构建自定义应用。

作为发布的一部分,英伟达还推出了三款全新的桌面工作站 Ada Generation GPU:Nvidia RTX 5000、RTX 4500 和 RTX 4000。

全新 NVIDIA RTX 5000、RTX 4500 和 RTX 4000 桌面 GPU 采用最新的 NVIDIA Ada Lovelace 架构威廉希尔官方网站 。其中包括增强的 NVIDIA CUDA 核心(用于增强单精度浮点吞吐量)、第三代 RT 核心(用于改进光线追踪功能)以及第四代 Tensor 核心(用于更快的 AI 训练性能)。

Nvidia RTX 5000 Ada 一代 GPU。

这几款 GPU 还支持 DLSS 3,为实时图形提供更高水平的真实感和交互性,以及更大的 GPU 内存选项,用于大型 3D 模型、渲染图像、interwetten与威廉的赔率体系 和 AI 数据集的无差错计算。此外,它们还提供扩展现实功能,以满足创建高性能 AR、VR 和混合现实内容的需求。

因为配备了第三代 RT Core,这几款 GPU 的吞吐量高达上一代的 2 倍,使用户能够实时处理更大、保真度更高的图像,将应用于艺术创作和设计生产。

RTX 5000 GPU 已经上市,并由 HP 和分销合作伙伴发货,而 RTX 4500 和 RTX 4000 GPU 将于秋季从 BOXX、Dell Technologies、HP、Lenovo 及其各自的分销合作伙伴上市。

Nvidia OVX 服务器

英伟达还推出了配备 Nvidia L40S GPU 的 Nvidia OVX 服务器,用于生成式 AI 和数字化时代的开发和内容创作。

每台 Nvidia OVX 服务器将支持多达 8 个 Nvidia L40S GPU,每个 GPU 配备 48GB 内存。L40S GPU 由 Nvidia Ada Lovelace GPU 架构提供支持,拥有第四代张量核心和 FP8 Transformer 引擎,可实现超过 1.45 petaflops 的张量处理能力。

Nvidia L40S GPU。

在具有数十亿参数和多种数据模式的生成式 AI 工作负载领域,与 Nvidia A100 Tensor Core GPU 相比,L40S GPU 的生成式 AI 推理性能提高了 1.2 倍,训练性能提高了 1.7 倍。这将更好地满足 AI 训练和推理、3D 设计和可视化、视频处理和工业数字化等计算密集型应用的需求,加速多个行业的工作流程和服务。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA威廉希尔官方网站

    关注

    0

    文章

    17

    浏览量

    6267
  • 晶体管
    +关注

    关注

    77

    文章

    9684

    浏览量

    138110
  • 英伟达
    +关注

    关注

    22

    文章

    3772

    浏览量

    91004
  • GPU芯片
    +关注

    关注

    1

    文章

    303

    浏览量

    5806
  • NGC
    NGC
    +关注

    关注

    0

    文章

    8

    浏览量

    3837

原文标题:超级芯片GH200发布,AI算力是H100两倍

文章出处:【微信号:AI_Architect,微信公众号:智能计算芯世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟达H100芯片市场降温

    随着英伟达新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载
    的头像 发表于 10-28 15:42 525次阅读

    名单公布!【书籍评测活动NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架构分析

    和像素统一的G80到现在重金难求的H100;AMD的Zen系列CPU和RDNA系列GPU线作战;中国的高性能计算芯片逐步获得更多TOP500排名;华为Ascend 910 NPU芯片
    发表于 09-02 10:09

    只能跑Transformer的AI芯片,却号称全球最快?

    跑transformer架构的模型。 Sohu,比H100快上20 之所以打算Sohu这一自研ASIC AI芯片,是因为Etched认为GPU在性能升级上的速度太慢了。如果以
    的头像 发表于 07-01 09:03 1374次阅读

    英伟达巨资预订HBM3E,力拼上半年市场

    在全球AI芯片领域的激烈竞争中,英伟达以其卓越的威廉希尔官方网站 实力和市场影响,始终保持着领先地位。最近,这家AI芯片大厂再次展现出了其独特的战略眼光
    的头像 发表于 06-22 16:46 971次阅读

    NVIDIA AI Enterprise荣获金奖

    NVIDIA AI Enterprise、GH200 Grace Hopper 超级芯片和 Spectrum-X 在 COMPUTEX 2024 获得认可。
    的头像 发表于 05-29 09:27 446次阅读
    NVIDIA <b class='flag-5'>AI</b> Enterprise荣获金奖

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    H100 Tensor Core GPU 快 6 。 采用液体冷却的 GB200 计算托盘可实现高能效和高计算精密度 NVIDIA GB200 Grace Blackwell
    发表于 05-13 17:16

    英伟达H200怎么样

    英伟达H200非常强大。作为新一代AI芯片H200在性能上有了显著的提升,能够处理复杂的
    的头像 发表于 03-07 16:15 2107次阅读

    英伟达H200显卡价格

    英伟达H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新芯片通常定价较高,因此可以推断
    的头像 发表于 03-07 16:09 4849次阅读

    英伟达H200H100的比较

    英伟达H200H100款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这
    的头像 发表于 03-07 15:53 4612次阅读

    解读六大科技巨头自研AI芯片进展,谁将领跑未来?

    在当前的AI发展浪潮中,NVIDIA无疑是AI的领跑者。其A100/H100系列
    发表于 02-22 10:35 492次阅读
    解读六大科技巨头自研<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>进展,谁将领跑未来?

    国产服务器主阵地有哪些?

    AI 、低功耗等对服务器芯片提出新的要求,英伟达 G
    的头像 发表于 01-29 11:29 1252次阅读
    国产服务器主阵地有哪些?

    中国芯片企业芯片完全解析

    AI 、低功耗等对服务器芯片提出新的要求,英伟达 G
    的头像 发表于 01-22 15:07 2073次阅读
    中国<b class='flag-5'>芯片</b>企业<b class='flag-5'>芯片</b>完全解析

    英伟达、AMD AI芯片今年将生产150万颗,先进封装设备商受惠

    据早前报道,NVIDIA的高端AI芯片H200GH200以外,明年还将推出B100和GB200
    的头像 发表于 01-08 14:11 623次阅读

    英伟达斥资预购HBM3内存,为H200超级芯片储备产能

    据最新传闻,英伟达正在筹划发布款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级
    的头像 发表于 01-02 09:27 770次阅读

    AI计算需求激增,英伟达H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟达在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,将有350万块
    的头像 发表于 12-28 09:29 2416次阅读