PCI Express (PCIe) 规范在 3.0 代保持了近七年(从 2010 年到 2017 年),通道以每秒 8 千兆传输 (GT/s) 的速度运行。
在此期间,计算和网络带宽需求继续快速增长。在这个时间跨度即将结束时,PCIe 越来越成为更高系统性能的瓶颈。
随着数据处理需求和带宽需求的持续加速,业界采取了更加积极的方法来提升 PCIe 的性能,以确保其与其他威廉希尔官方网站 保持同步。PCI-SIG 承诺以两年的时间来升级标准。2017 年推出的 PCIe 4.0 于 2019 年底随着 AMD EPYCTM 7002(罗马)处理器的推出而在主流服务器中首次亮相。PCIe 4.0 将通道速度提高一倍,达到 16 GT/s。
然而,由 AI/ML、高性能计算 (HPC) 和其他数据中心工作负载驱动的对更大带宽的需求是无法满足的。云中的网络正在从 100 Gb 以太网 (GbE) 迁移到 400 GbE。因此,虽然 PCIe 4.0 只是最近才上市,但它已经不足以支持这些更快的网络速度。因此,在 2022 年初,我们将看到新服务器架构向下一代 PCIe 标准的过渡。
进入 PCIe 5.0。PCIe 5.0 标准进一步提高了性能,以增加带宽并最大限度地减少数据中心和边缘的通信延迟。它将数据速率扩展至高达 32 GT/s,车道速度比上一代产品翻了一番。这使得具有高性能工作负载的应用程序得到进一步发展,例如基因组学、AI/ML 训练、视频转码和流媒体游戏,所有这些都越来越复杂,并且需要越来越多的并行处理。
由于所需的高带宽,企业和云数据中心有望成为 PCIe 5.0 的早期采用者。然而,鉴于越来越多的低延迟和时间敏感型应用程序,PCIe 5.0 在边缘的采用将很快跟进。典型的超大规模数据中心可以帮助说明接口的部署位置。
超大规模数据中心包含三个主要元素:网络、计算和存储。这是一种非常典型的云架构,也称为数据中心的叶脊架构。该架构的基础节点是服务器机架,这些机架组合成集群。基本计算和处理基本上发生在这些服务器中。随着工作负载变得越来越复杂,并行性增加,从而推动了东/西流量(数据中心内流量)的增加。
此外,应用程序现在跨越一个机架或多个机架内的多个服务器。架顶式 (ToR) 交换机负责机架内服务器之间的数据流量交换。连接这些的是叶交换机,可在集群内的机架之间实现数据流量。
上一层,有一个主干交换机,使流量能够在数据中心内的集群之间流动。ToR 交换机的前面板上是以太网 QSFP 节点,将其连接到机架内的服务器。服务器在 ToR 交换机的以太网连接的另一端有一个网络接口卡 (NIC)。
400 GbE 是双向链路,可在两个方向上提供每秒 400 千兆位 (Gb/s) 的带宽。这意味着 800 Gb/s 或 100 GB/秒 (GB/s) 的总带宽。PCIe 5.0 也是双向的,通常实例化为 x16 接口。这意味着 32 GT/s,双工乘以 2,通道乘以 16,除以每字节 8 位,(32 x 2 x 16)/8 或 124 GB/s。这是足够的带宽来支持全速运行的 400 GbE NIC,而 PCIe 4.0 实施的 16 GT/s 数据速率则不能。
PCIe 5.0 也在推动对 CPU 和 SSD 控制器之间的 NVMe 驱动器的快速视频存储访问所需的性能。从存储的角度来看,视频的分辨率越来越高,这意味着控制器和 CPU 之间的接口必须越来越快,而 U.2 外形需要 x4 接口。以 PCIe 5.0 的速度运行,这相当于 32 GB/s 的总带宽。
这种对带宽的贪婪需求永无止境。更多的带宽可以促进工作负载的进步,使新的应用程序成为可能,而这些应用程序在永无止境的良性循环中再次需要更多的带宽。PCIe 5.0 代表了系统接口标准的最新一代,它在连接计算设备内部的芯片方面变得无处不在,就像以太网用于设备之间的连接一样。随着 PCI Express 标准的升级周期为两年,PCIe 5.0 将成为迈向更高水平计算性能之旅的重要组成部分。
审核编辑:郭婷
-
驱动器
+关注
关注
52文章
8237浏览量
146371 -
控制器
+关注
关注
112文章
16365浏览量
178083 -
PCIe
+关注
关注
15文章
1239浏览量
82662
发布评论请先 登录
相关推荐
评论