0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看威廉希尔官方网站 视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU之间是怎么通信互联的呢?

SDNLAB 来源:了不起的云计算 2023-11-10 16:49 次阅读

今天想跟大家一起学习下GPU之间是怎么通信互联的

自从GPU出现后,计算机爱好者和发烧友们就一直寻找新的方法来进一步提高系统GPU性能。

在单个GPU性能有限的情况下,将两个或多个GPU连接起来这种在当时看起来非常荒谬的想法竟然渐渐成为提升系统GPU性能的主流方法。

特别是随着游戏、图形应用的发展,以及AI、HPC等新兴应用的助推,多个GPU之间的互联威廉希尔官方网站 得到了快速迭代和发展,如今的GPU互联已经成为系统内非常常见的一种威廉希尔官方网站 。今天我们就来聊聊这些GPU互联的那些威廉希尔官方网站 。

第一个连接多个GPU解决方案:SLI

SLI,全称为 " 可扩展的链接接口 "( Scalable Link Interface),最早是由 3DFx Interactive 开发。

然而,3DFx Interactive这家公司在2000年破产,NVIDIA公司收购了这家公司并获得了多GPU威廉希尔官方网站 的权利。

于是,在2004年,NVIDIA首次推出了SLI威廉希尔官方网站 版本,同时发布了GeForce 6800 Ultra GPU。该威廉希尔官方网站 允许两个GeForce 6800 Ultra GPU一起工作,以增强游戏时的图形性能**。**因此,SLI威廉希尔官方网站 迅速在游戏玩家和爱好者中流行起来。

SLI采用主从配置方式在系统中实现使用多个GPU,这种配置的重点是使用一个GPU作为主车,其他GPU作为从卡,SLI能够同时连接4个GPU。

**SLI是第一个连接多个GPU的解决方案。**但是与所有威廉希尔官方网站 一样,SLI也有各种优点和局限性。SLI配置必须选择相同型号的兼容GPU。同时还需要分配一个单独的PSU来满足多个GPU的协调要求,导致GPU之间的通信延迟较高,且GPU之间的数据共享缺乏灵活性。

另外,NVIDIA大约在两年前停止了对该威廉希尔官方网站 的支持,为开发NVLink等新威廉希尔官方网站 让路。

SLI与CrossFire:多GPU解决方案之争

虽然NVIDIA的SLI走在了多GPU互联的前面,但也并非没有竞争。

作为NVIDIA GPU市场上多年的老对手,AMD也推出了CrossFire这个威廉希尔官方网站 来参与竞争。

与SLI威廉希尔官方网站 类似,使用CrossFire威廉希尔官方网站 时,用户可选择使用两个或更多显卡进行渲染,从而增加帧数和提高游戏运行效率。

CrossFire威廉希尔官方网站 的一大优点是用户可以使用不同型号的AMD显卡,从而节省成本。

然而,CrossFire也有其自身的优势和挑战,CrossFire经常因其软件堆栈而受到批评,一些用户发现该软件堆栈不如NVIDIA SLI可靠且配置更复杂。

尽管存在这些差异,但这两种威廉希尔官方网站 都致力于实现相同的目标:增强游戏和消费者图形体验。它们在处理更高级、数据密集型任务方面的局限性最终将为 NVLink等下一代解决方案铺平道路。

随着2010年代的到来,计算领域开始发生巨大变化。人工智能 (AI)、高性能计算(HPC)和大数据分析的兴起需要更强大的多GPU解决方案。很明显,最初设计时考虑到游戏和消费者工作负载的SLI不足以满足这些计算密集型任务。NVIDIA需要一个新的GPU互联威廉希尔官方网站 。

双GPU卡:多GPU计算的独特存在

虽然SLI和CrossFire等威廉希尔官方网站 专注于连接多个独立GPU,但还有另一种不太常见或者可以说是奇葩的多 GPU配置方法:双GPU卡。

这些专用显卡在单个PCB(印刷电路板)上安装了两个GPU核心,有效地充当单张卡上的SLI或CrossFire 设置。NVIDIA GeForce GTX 690和AMD Radeon HD 6990等卡是这种方法的流行示例。

双GPU卡具有多种优势, 他们通过将两个GPU压缩到一个卡槽中来节省空间,这使得它们对小型PC很有吸引力。同时他们还无需将单独的卡与外部连接器连接起来,从而简化了设置。

然而,这些双GPU卡散热是一个重大问题,可以说每一个卡都是一个**"小火炉"****。**通常这种配置方式需要先进的冷却解决方案。同时功耗也很高,需要强大的电源来提供稳定的电流

双GPU卡的方式看起来是一种"两全其美"的解决方案,将多GPU设置的原始功能与单卡的简单性结合在一起。然而,由于其高成本和相关的威廉希尔官方网站 挑战,双GPU卡经常被视为鸡肋产品

随着NVLink等多GPU威廉希尔官方网站 不断发展以提供更高的带宽和更低的延迟,对双 GPU卡的需求已经减少。尽管如此,它仍然是GPU发展史上一个独特的存在。

****** NVLink 的诞生******

NVLink是2017年随NVIDIA Volta架构推出的威廉希尔官方网站 。这项威廉希尔官方网站 不仅仅是SLI威廉希尔官方网站 的升级,而且是对GPU如何互连的根本性重新思考

NVLink提供了更高的带宽(最新版本高达900 GB/s)、更低的延迟以及允许GPU之间更复杂和大量互连的网状拓扑。此外,NVLink引入了统一内存的概念,支持连接的 GPU 之间的内存池,这对于需要大型数据集的任务来说是一个至关重要的功能。

SLI与NVLink有何区别?

乍一看,人们可能会认为NVLink是SLI的简单升级,但这过于武断了。虽然这两种威廉希尔官方网站 都旨在连接多个GPU,但NVLink的设计考虑了不同的受众。它专为科学研究、数据分析,尤其是人工智能和机器学习应用而设计。更高的带宽、更低的延迟和统一的内存使NVLink成为应对当今计算挑战的更加灵活和强大的解决方案。

虽然NVLink和SLI两者均由Nvidia开发,但存在一些差异。S****LI按照主从关系原理运行,而NVLink通过网状网络运行。结果,SLI中形成了NVLink中不存在的数据瓶颈。

采用网状网络开发的并行连接可增强GPU的性能。因此,多个GPU作为一个单元,有助于提供增强的处理能力。连接的GPU拥有自己的内存,从而增加了系统的总可用内存。NVLink桥还支持20至30 GB/s 的带宽,为4个GPU 的设置提供超过100GB/s 的速度。

网状网络消除 GPU之间的层级关系。计算数据因此连接到每个GPU的节点,从而提高了整体渲染速度。因此,150至200GB/s的带宽也可以实现。与SLI 相比,NVLink的延迟非常低。

****** NVLink的威廉希尔官方网站 原理******

NVLink代表了多GPU互联威廉希尔官方网站 的逻辑演变,不仅在速度方面,而且在架构设计方面。NVLink的结构由可以双向传输数据的高速数据通道组成。与传统的基于总线的系统不同,NVLink采用点对点连接,有效减少瓶颈并提高数据吞吐量。最新的迭代提供高达900GB/s的带宽,比SLI的功能有了显著增强。

NVLink与众不同的关键功能之一是它支持网状拓扑的能力。与旧威廉希尔官方网站 的菊花链或中心辐射型拓扑相比,网格设置允许GPU之间实现更通用且数量更多的连接。这在数据中心和高性能计算应用程序中特别有用,在这些应用程序中,复杂的数据路由是常态。

统一内存是NVLink的另一个特点。这允许GPU共享公共内存池,从而实现更高效的数据共享并减少在GPU之间复制数据的需要。这对于机器学习和大数据分析等应用程序来说是一个巨大的推动,在这些应用程序中,大型数据集通常超过单个GPU的内存容量。

NVLink还改善了延迟,这是任何高性能计算设置中的一个关键因素。较低的延迟可确保GPU之间更快的数据传输和同步,从而实现更高效的并行计算。这是通过NVLink的直接内存访问 (DMA) 功能实现的,允许GPU直接读写彼此的内存,而不需要CPU的参与。

NVlink的影响

鉴于人工智能在现代计算中的重要性日益增加,NVLink的优势不仅是渐进式的,而且是变革性的。在AI模型训练和数据创建中,NVLink可实现GPU之间更快的数据传输,从而实现更高效的并行处理。这在处理大型训练数据集时尤其有用,这是一个与人工智能模型训练数据创建的新兴领域密切相关的主题。

随着量子interwetten与威廉的赔率体系 、实时分析和下一代人工智能算法等先进计算的需求不断增长,我们可以期待NVLink的功能进一步增强。无论是带宽的增加还是促进GPU之间更好合作的新功能,NVLink或其后继者无疑仍将是满足未来计算需求的核心。

从SLI到NVLink的过渡是多GPU威廉希尔官方网站 的一个重要里程碑,它反映了NVIDIA 对创新的承诺以及对不断变化的计算环境的敏锐理解。从游戏到人工智能,从消费应用程序到数据中心,NVLink和SLI的发展历程说明了需求对孕育创新、推动威廉希尔官方网站 发展的重要价值。







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4986

    浏览量

    103061
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4740

    浏览量

    128950
  • HPC
    HPC
    +关注

    关注

    0

    文章

    316

    浏览量

    23772
  • PSU
    PSU
    +关注

    关注

    0

    文章

    42

    浏览量

    11885

原文标题:一文读懂:多卡GPU是如何互联通信的?

文章出处:【微信号:SDNLAB,微信公众号:SDNLAB】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    GPU加速云服务器怎么用的

    GPU加速云服务器是将GPU硬件与云计算服务相结合,通过云服务提供商的平台,用户可以根据需求灵活租用带有GPU资源的虚拟机实例。那么,GPU加速云服务器怎么用的
    的头像 发表于 12-26 11:58 47次阅读

    常见GPU问题及解决方法

    各种问题。以下是一些常见的GPU问题及其解决方法: GPU驱动程序过时或不兼容 问题描述:GPU驱动程序是GPU与操作系统之间的桥梁,负责将
    的头像 发表于 10-27 14:12 1364次阅读

    GPU算力租用平台是什么

    GPU算力租用平台是一种基于云计算的服务模式,它允许用户通过互联网按需租用高性能GPU资源,而无需自行购买、部署和维护这些硬件。
    的头像 发表于 10-16 10:15 231次阅读

    数字信号处理与通信原理之间的关系

    数字信号处理(Digital Signal Processing,简称DSP)和通信原理是信息科学领域中两个密切相关的领域。它们在理论和应用层面都有很多相互联系和相互依赖的地方。 在现代通信系统中
    的头像 发表于 08-09 09:35 865次阅读

    为什么GPU对AI如此重要?

    GPU在人工智能中相当于稀土金属,甚至黄金,它们在当今生成式人工智能时代中的作用不可或缺。那么,为什么GPU在人工智能发展中如此重要?什么是GPU图形处理器(
    的头像 发表于 05-17 08:27 694次阅读
    为什么<b class='flag-5'>GPU</b>对AI如此重要?

    常见的PLC通信指令有哪些

    PLC的通信指令用于实现PLC与其他设备或系统之间的数据交换。
    的头像 发表于 05-10 11:01 2654次阅读

    NVLink的演进:从内部互联到超级网络

    NVLink是NVIDIA开发的一种高速、低延迟的互联威廉希尔官方网站 ,旨在连接多个GPU以实现高性能并行计算。与传统的PCIe总线相比,NVLink提供了更高的带宽和更低的延迟,使得GPU之间
    的头像 发表于 04-13 11:22 1138次阅读
    NVLink的演进:从内部<b class='flag-5'>互联</b>到超级网络

    深入探讨常见的GPU系统架构

    同一主机内GPU之间通信:通过NVLink威廉希尔官方网站 ,双向带宽达到600GB/s,单向带宽达到300GB/s。
    发表于 04-07 11:35 2044次阅读
    深入探讨常见的<b class='flag-5'>GPU</b>系统架构

    IPv6是互联网通信的未来

    在当今数字化时代,互联网已成为我们日常生活中不可或缺的一部分,随着智能设备的兴起,需要更多的IP地址。目前用于互联网通信的协议是IPv4,但IPv4的可用地址已经耗尽,这就是为什么新的协议IPv6被
    的头像 发表于 03-29 14:17 460次阅读
    IPv6是<b class='flag-5'>互联网通信</b>的未来

    NVLink威廉希尔官方网站 之GPUGPU通信

    在多 GPU 系统内部,GPU通信的带宽通常在数百GB/s以上,PCIe总线的数据传输速率容易成为瓶颈,且PCIe链路接口的串并转换会产生较大延时,影响GPU并行计算的效率和性能。
    发表于 03-27 09:40 3943次阅读
    NVLink威廉希尔官方网站
之<b class='flag-5'>GPU</b>与<b class='flag-5'>GPU</b>的<b class='flag-5'>通信</b>

    如何排查FPGA与USB之间的芯片通信问题?

    ”,而在SBBulkSourceSink固件中没有显示这个错误,可不可以证明我的FPGA和USB之间通信成功?另外,我该如何排查FPGA与USB之间的芯片通信问题?
    发表于 02-27 06:46

    详解GPU硬件架构及运行机制

    为什么我们总说GPU比CPU要强大,既然GPU强大,为什么不能取代CPU
    的头像 发表于 01-26 09:23 2354次阅读
    详解<b class='flag-5'>GPU</b>硬件架构及运行机制

    为什么GPU比CPU更快?

    大规模数据集时比CPU更快的根本原因。内存带宽:GPU的内存带宽比CPU高得多。内存带宽是指数据在内存之间传输的速度。GPU可以更快地将数据从内存传输到核心,并更快地
    的头像 发表于 01-26 08:30 2414次阅读
    为什么<b class='flag-5'>GPU</b>比CPU更快?

    Matter 1.0、Matter 1.1和Matter 1.2之间有何区别

    一个构建新标准的工作团队,旨在实现智能家居设备、移动应用程序和云服务之间基于IP的通信,最终实现智能家居各种生态系统的统一。
    的头像 发表于 01-18 17:11 1150次阅读

    单模蓝牙模块和双模蓝牙模块指的是什么意思?它们之间有什么区别

    单模蓝牙模块和双模蓝牙模块指的是什么意思?它们之间有什么区别  单模蓝牙模块和双模蓝牙模块是指用于无线通信的蓝牙模块的两种不同类型。它们之间的主要区别在于其支持的蓝牙威廉希尔官方网站 版本和
    的头像 发表于 01-15 14:59 5157次阅读