0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达Blackwell可支持10万亿参数模型AI训练,实时大语言模型推理

Carol Li 来源:电子发烧友 作者:李弯弯 2024-09-04 09:10 次阅读

电子发烧友网报道(文/李弯弯)在近日的Hot Chips 2024大会上,英伟达公布了下一代GPU架构Blackwell的更多细节信息,以及未来的产品路线图。

英伟达Blackwell是通用计算全栈矩阵的终极解决方案,由多个英伟达芯片组成,包括Blackwell GPU、Grace CPU、BlueField数据处理单元、ConnectX网络接口卡、NVLink交换机、Spectrum以太网交换机和Quantum InfiniBand交换机。

英伟达称,Blackwell拥有6项革命性威廉希尔官方网站 ,可支持多达10万亿参数的模型进行AI训练和实时大语言模型(LLM)推理。

NVIDIA Blackwell 的威廉希尔官方网站 特点

NVIDIA Blackwell 架构是NVIDIA于2024年3月在NVIDIA GTC大会上发布的全新架构,是NVIDIA继Hopper架构之后推出的全新架构,旨在推动生成式AI和加速计算领域的发展。Blackwell架构拥有六项革命性威廉希尔官方网站 ,这些威廉希尔官方网站 共同构成了其强大的计算能力和高效性。

一、它是全球最强大的芯片,拥有2080亿个晶体管,这确保了芯片具有极高的计算能力和复杂性。它采用台积电4纳米工艺制造,提高了芯片的集成度,降低了功耗和发热量。配备192GB的HBM3E显存,极大提升了芯片的数据处理能力和效率。

第二代Transformer引擎,结合Blackwell Tensor Core威廉希尔官方网站 和TensorRT-LLM及NeMo Megatron框架中的英伟达先进动态范围管理算法,Blackwell通过新的4位浮点AI支持双倍的计算和模型大小推理能力。

第五代NVLink,为每个GPU提供了突破性的1.8TB/s双向吞吐量,确保最复杂LLM之间多达576个GPU之间的无缝高速通信

四、RAS引擎,Blackwell支持的GPU包含一个专用引擎,实现可靠性、可用性和服务性。此外,Blackwell架构还增加了芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题,从而延长系统正常运行时间并提高大规模部署AI的弹性。

五、安全人工智能,先进的机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,进一步增强了芯片的安全性。

六、解压缩引擎,专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。

生态系统方面,Blackwell不仅是系统的核心芯片,更是一个全新的平台。它涵盖了从CPU和GPU计算到用于互连的不同类型的网络,是通用计算全栈矩阵的终极解决方案。

Blackwell架构将助推数据处理、工程interwetten与威廉的赔率体系 、电子设计自动化、计算机辅助药物设计、量子计算和生成式AI等领域实现突破。

NVIDIA已经展示了基于Blackwell架构的GPU GB200 NVL72等产品,该产品专为万亿参数AI而设计,对大语言模型(LLM)推理性能提升高达30倍。随着AI模型尺寸的增加,在多个GPU上拆分工作负载势在必行。而Blackwell足够强大,可以在一个GPU中处理专家模型。

相比Hopper架构的优势

NVIDIA Blackwell架构相比其上一个NVIDIA Hopper架构具有多方面的优势。NVIDIA Hopper架构是NVIDIA在2022年推出的GPU架构,该架构旨在取代之前的NVIDIA Ampere架构,并为新一代工作负载提供强大的加速计算平台。

Hopper架构采用了先进的台积电4N工艺制造,集成了超过800亿个晶体管,这为高性能计算提供了坚实的基础。

Hopper架构通过Transformer引擎推进了Tensor Core威廉希尔官方网站 的发展,旨在加速AI模型训练。Transformer引擎能够应用混合的FP8和FP16精度,以大幅加速Transformer模型的AI计算。

与上一代相比,Hopper架构在TF32、FP64、FP16和INT8精度的每秒浮点运算(FLOPS)上提高了3倍。这种性能提升使得Hopper在处理大规模AI模型时更加高效。

Hopper架构引入了第四代NVLink威廉希尔官方网站 ,可通过NVIDIA DGX和HGX服务器扩展多GPU输入和输出(IO),每个GPU的双向传输速率可达900GB/s,比PCIe 5.0的带宽高7倍。

第三代NVIDIA NVSwitch支持SHARP网络计算威廉希尔官方网站 ,打破了该威廉希尔官方网站 只能通过InfiniBand提供的传统限制。这使得Hopper架构在处理大规模HPC和AI工作负载时能够实现更高的互连效率和通信带宽。

相比较而言,晶体管数量与计算能力方面,Blackwell架构GPU拥有2080亿个晶体管,比Hopper架构的GPU多出显著数量,这直接提升了其计算能力。

Blackwell架构的单个芯片计算能力达到了20 petaFLOPS,这使其在处理大规模AI模型时具有更高的实时性能和效率。

内存与带宽方面,Blackwell架构配备了更大的HBM3e内存(如192GB)和更高的显存带宽(如8TB/s),相比Hopper架构,这进一步增强了数据处理和传输的速度。

写在最后

NVIDIA Blackwell架构相比其上一个架构在性能、计算能力、威廉希尔官方网站 创新、特性增强以及生态系统与应用拓展等方面均具有显著优势。应用方面,Blackwell架构将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式AI等领域实现突破。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4729

    浏览量

    128892
  • AI
    AI
    +关注

    关注

    87

    文章

    30728

    浏览量

    268892
  • 英伟达
    +关注

    关注

    22

    文章

    3770

    浏览量

    90990
收藏 人收藏

    评论

    相关推荐

    AI模型不再依赖英伟GPU?苹果揭秘自研大模型

    ,获得足够的算力构建自己的计算中心,用于训练不同应用的AI模型AI领域众星捧月也造就了英伟
    的头像 发表于 08-05 06:07 3977次阅读
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>不再依赖<b class='flag-5'>英伟</b><b class='flag-5'>达</b>GPU?苹果揭秘自研大<b class='flag-5'>模型</b>

    语言模型开发框架是什么

    语言模型开发框架是指用于训练推理和部署大型语言模型的软件工具和库。下面,
    的头像 发表于 12-06 10:28 115次阅读

    英伟发布AI模型 Llama-3.1-Nemotron-51B AI模型

    英伟公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,这个AI模型是源
    的头像 发表于 09-26 17:30 605次阅读

    英伟震撼发布:全新AI模型参数规模跃升至80亿量级

    8月23日,英伟宣布,其全新AI模型面世,该模型参数规模高达80亿,具有精度高、计算效益大等优
    的头像 发表于 08-23 16:08 729次阅读

    苹果AI模型训练新动向:携手谷歌,未选英伟

    近日,苹果公司发布的最新研究报告揭示了其在人工智能领域的又一重要战略选择——采用谷歌设计的芯片来训练AI模型,而非行业巨头英伟的产品。这
    的头像 发表于 08-01 18:11 918次阅读

    英伟开源Nemotron-4 340B系列模型,助力大型语言模型训练

    近日,英伟宣布开源了一款名为Nemotron-4 340B的大型模型,这一壮举为开发者们打开了通往高性能大型语言模型(LLM)
    的头像 发表于 06-17 14:53 561次阅读

    英伟推出AI模型推理服务NVIDIA NIM

    英伟近日宣布推出一项革命性的AI模型推理服务——NVIDIA NIM。这项服务将极大地简化AI
    的头像 发表于 06-04 09:15 674次阅读

    摩尔线程和滴普科技完成大模型训练推理适配

    近日,摩尔线程与滴普科技宣布了一项重要合作成果。摩尔线程的夸娥(KUAE)千卡智算集群与滴普科技的企业大模型Deepexi已完成训练推理适配,共同实现了700亿参数LLaMA2大
    的头像 发表于 05-30 10:14 542次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    计算工作负载、释放百亿亿次计算能力和万亿参数人工智能模型的全部潜力提供关键基础。 NVLink释放数万亿参数
    发表于 05-13 17:16

    【大语言模型:原理与工程实践】大语言模型的应用

    。 关于大语言模型是否具备与人类“系统2”相似的能力,存在广泛的争议。然而,随着模型参数量的增加和大规模预训练的实施,大
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的评测

    是否与事实或逻辑相符;以及推理过程的完整性,即模型在解题过程中是否提供了完整的推理链或证据支持。 摘要生成类评测任务:考察大语言
    发表于 05-07 17:12

    【大语言模型:原理与工程实践】大语言模型的预训练

    语言模型的核心特点在于其庞大的参数量,这赋予了模型强大的学习容量,使其无需依赖微调即可适应各种下游任务,而更倾向于培养通用的处理能力。然而,随着学习容量的增加,对预
    发表于 05-07 17:10

    【大语言模型:原理与工程实践】大语言模型的基础威廉希尔官方网站

    特定任务对模型进行微调。这种方法的成功不仅是自然语言处理发展的一个转折点,还为许多现实世界的应用场带来了前所未有的性能提升。从广为人知的GPT到BERT,预训练模型
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    丰富的常识知识,能够基于常识进行推理,填补信息空白,并作出合理推断。随着训练规模和参数量的增加,大语言模型
    发表于 05-04 23:55

    英伟Blackwell平台网络配置分析

    采用 DGX GB200 系统的 NVIDIA DGX SuperPOD 专为训练推理万亿参数生成式AI
    的头像 发表于 04-17 11:01 1407次阅读