多块gpu卡 能跑快一点吗,多卡互联需要什么显卡

#gpu#datacenter#NVIDIA#阅读本文

今天我想和大家一起学习GPU之间是怎么通信互联的

自从GPU 出现以来,计算机爱好者和业余爱好者一直在寻找新的方法来进一步提高系统的GPU 性能。

将两个或多个GPU连接起来这个当时荒唐可笑的想法,慢慢成为主流,成为单GPU性能有限时提升系统GPU性能的主流方式。

特别是在随着游戏、图形应用的发展,以及AI、HPC等新兴应用的助推时期,多个GPU之间的互连技术快速迭代,GPU互连现在已经成为系统中非常常见的技术。今天我们就来聊聊这些GPU互联的那些技术。第一个连接多个GPU解决方案:SLISLI,代表“可扩展链接接口”,最初由3DFx Interactive 开发。

然而,一家名为3DFx Interactive 的公司在2000 年破产,NVIDIA 收购了该公司,并获得了多GPU 技术的权利。

因此,NVIDIA在2004年首次发布了SLI技术版本,同时还发布了GeForce 6800 Ultra GPU。该技术允许两个GeForce 6800 Ultra GPU一起工作,以增强游戏时的图形性能因此,SLI技术迅速受到游戏玩家和爱好者的欢迎。

SLI 在系统中使用具有多个GPU 的主/从配置,这种配置的重点是使用一个GPU作为主车,其他GPU作为从卡允许您同时连接四个GPU。

SLI是第一个连接多个GPU的解决方案。然而,与任何技术一样,SLI 也有各种优点和局限性。对于SLI 配置,您必须选择相同型号的兼容GPU。同时,需要分配不同的PSU来满足多个GPU的协调要求,增加了GPU之间的通信延迟,缺乏GPU之间数据共享的灵活性。

此外,NVIDIA 大约在两年前终止了对该技术的支持,为NVLink 等新技术的开发让路。

SLI与CrossFire:多GPU解决方案之争NVIDIA的SLI处于多GPU互连的最前沿,但也并非没有争议。

作为NVIDIA GPU市场的长期竞争对手,AMD也推出了CrossFire这个技术来参与竞争。与SLI技术类似,并且在使用CrossFire技术时,用户可以选择使用两个或更多显卡进行渲染,从而提高帧数。游戏会运行得更好。效率。

CrossFire技术的一大好处是它允许用户使用不同型号的AMD显卡,从而节省金钱。

然而,CrossFire 有其自身的优势和挑战,CrossFire 经常因其软件堆栈而受到批评。处理更高级的数据密集型任务的局限性最终将为NVLink 等下一代解决方案铺平道路。

2010 年代伊始,计算世界开始发生巨大变化。人工智能(AI)、高性能计算(HPC) 和大数据分析的兴起需要更强大的多GPU 解决方案。 SLI 最初设计时考虑了游戏和消费者工作负载,显然不适合这些计算密集型任务。 NVIDIA 需要新的GPU 互连技术。

虽然一些用户发现该软件堆栈不如NVIDIA SLI可靠且配置更复杂。SLI 和CrossFire 等技术专注于连接多个独立GPU,但也有一些不太常见甚至可能奇怪的多GPU 配置方法。双GPU卡:多GPU计算的独特存在双GPU卡。可有效地用作单卡SLI 或CrossFire 配置。之上。 NVIDIA GeForce GTX 690 和AMD Radeon HD 6990 等卡是这种方法的常见示例。

双GPU 卡具有多项优势,对小型PC 具有吸引力,因为它们通过将两个GPU 安装到一个卡插槽中来节省空间。它还无需将单独的卡连接到外部连接器,从而简化了设置。

然而,这些专用显卡在单个PCB(印刷电路板)上安装了两个GPU核心这些双GPU卡散热是一个重大问题,可以说每一个卡都是一个\\”小火炉\\”这种配置通常需要先进的冷却解决方案。同时,功耗也很高,需要强大的电源来提供稳定的电流。

双GPU 卡方法看起来像是“两全其美”的解决方案,将多GPU 设置的原始功能与单卡的简单性结合在一起。然而,由于涉及更高的成本和技术挑战,双GPU卡通常被认为是。随着NVLink 等多GPU 技术的不断发展,提供更高的带宽和更低的延迟,对双GPU 卡的需求正在减少。尽管如此,它在GPU发展史上仍然是独一无二的。

鸡肋产品。NVLink 是2017 年在NVIDIA Volta 架构上推出的一项技术。NVLink 的诞生

NVLink 提供更高的带宽(最新版本高达900 GB/s)、更低的延迟以及可实现GPU 之间更复杂和大规模互连的网状拓扑。此外,NVLink 引入了统一内存的概念,并支持连接的GPU 之间的内存池。对于需要大量数据集的任务来说,这是一个重要的功能。

这项技术不仅仅是SLI技术的升级,而且是对GPU如何互连的根本性重新思考乍一看,您可能会认为NVLink 是对SLI 的简单升级,但这太武断了。这两种技术都旨在连接多个GPU,但NVLink 的设计考虑了不同的用户。SLI与NVLink有何区别?。更高的带宽、更低的延迟和集成内存使NVLink 成为应对当今计算挑战的更灵活、更强大的解决方案。

NVLink和SLI都是Nvidia开发的,但也有一些区别。它专为科学研究、数据分析,尤其是人工智能和机器学习应用而设计S使用网状网络开发的并行连接可提高GPU 性能。因此,多个GPU 作为一个单元工作,有助于提高处理能力。连接的GPU 有自己的内存,增加了系统可用的总内存。 NVLink 桥还支持20-30 GB/s 的带宽,在4-GPU 设置中可提供超过100 GB/s 的带宽。

网状网络消除了GPU 之间的层级关系。因此,计算数据连接到每个GPU 的节点,从而提高整体渲染速度。因此,150-200GB/s的带宽也是可能的。与SLI 相比,NVLink 的延迟非常低。

LI按照主从关系原理运行,而NVLink通过网状网络运行。结果,SLI中形成了NVLink中不存在的数据瓶颈。NVLink代表了多GPU互连技术的逻辑演变,不仅在速度方面,而且在架构设计方面。 NVLink 的架构由可以双向传输数据的高速数据通道组成。与传统的基于总线的系统不同,NVLink 使用点对点连接来有效缓解瓶颈并提高数据吞吐量。最新版本提供高达900 GB/s 的带宽,这比SLI 有了显着改进。

与旧技术的菊花链或中心辐射型拓扑相比,NVLink的技术原理网格设置允许GPU 之间进行更通用且数量更多的连接。这在数据中心和高性能计算应用程序中特别有用,在这些应用程序中,复杂的数据路由是常态。

NVLink与众不同的关键功能之一是它支持网状拓扑的能力。。这允许GPU 共享公共内存池,从而实现更高效的数据共享并减少在GPU 之间复制数据的需要。这对于机器学习和大数据分析等应用来说是一个重大优势,因为这些应用中的大数据集通常会超过单个GPU 的内存容量。

统一内存是NVLink的另一个特点是高性能计算设置中的重要元素。低延迟可实现GPU 之间更快的数据传输和同步,从而实现更高效的并行计算。这是通过NVLink 的直接内存访问(DMA) 功能实现的,该功能允许GPU 直接读写彼此的内存,而不需要CPU 参与。

NVLink还改善了延迟考虑到人工智能在现代计算中日益重要,NVlink的影响NVLink 能够在GPU 之间实现更快的数据传输,以进行AI 模型训练和数据创建,实现更高效的并行处理。这在处理大型训练数据集时特别有用,这是一个与为人工智能模型创建训练数据的新兴领域密切相关的主题。

随着对量子模拟、实时分析和下一代人工智能算法等高级计算的需求增加,我们预计NVLink 的功能将进一步增强。无论是增加带宽还是促进GPU 之间协作的新功能,NVLink 或其继任者无疑仍然是满足未来计算需求的核心。

NVLink的优势不仅是渐进式的,而且是变革性的。从游戏到人工智能,从消费应用到数据中心,NVLink和SLI的发展历史证明了需求对于促进创新和加速技术发展的重要价值。

从SLI到NVLink的过渡是多GPU技术的一个重要里程碑,它反映了NVIDIA 对创新的承诺以及对不断变化的计算环境的敏锐理解。

原创文章,作者:了不起的云计算,如若转载,请注明出处:https://www.sudun.com/ask/32364.html

Like (0)
了不起的云计算的头像了不起的云计算
Previous 2024年4月2日
Next 2024年4月2日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注