揭秘Llama-3的基础训练设施:两个24KGPU集群,装备4.9万个H100详解

作者丨Kevin Lee、Adi Gangidi、Mathew Oldham

编译丨诺亚

出品 | 51CTO技术栈(微信号:blog51cto)

日前,Meta在官网公布了两个全新的24K H100 GPU集群(49,152个),并就新集群的技术细节做了逐一剖析。它们各自拥有超过2.4万个GPU,并在硬件、网络、存储、设计、性能和软件等方面上,专为支持大型语言模型如Llama 3进行训练而深度优化。

Meta团队将此次公告视为其基础设施发展路线图中的重要一环。到2024年末,他们的计划是进一步扩大基础设施建设,其中包括整合了350,000个NVIDIA H100 GPU的计算能力。这一规模相当于近600,000个H100 GPU的总计算能力。这一举措将为Meta团队提供更强大的计算资源,以支持其日益增长的业务需求和技术创新。这个目标反映了Meta在构建未来基础设施方面的雄心壮志,为其在数字世界中的发展奠定了坚实基础。通过不断扩大GPU的数量和计算能力,Meta致力于提高其平台的性能和

要在人工智能领域保持领先地位,必须投资于硬件基础设施。硬件基础设施对于AI的未来发展至关重要。在Meta公布了两个版本的24,576-GPU数据中心规模集群的细节,这些集群将支持当前和下一代的人工智能模型,包括已发布的LLM——Llama 2的继任者Llama 3,以及GenAI和其他AI研究与开发工作领域。

一、深入探索Meta的大规模人工智能集群

Meta的长期目标是建立一个开放且负责任的通用人工智能(AGI),使其能够广泛应用,让每个人都能从中受益。在我们不断努力实现AGI的同时,我们也专注于扩展我们的集群以提供所需的支持。我们在AGI领域取得的进步带来了新产品,我们旗下一系列应用的新AI功能,以及以AI为核心的新型计算设备。

尽管我们在构建AI基础设施方面有着悠久的历史,但在2022年首次公开介绍了搭载16,000个NVIDIA A100 GPU的AI研究超级集群(RSC)。RSC加速了我们开放且负责任的AI研究进程,帮助我们构建第一代先进AI模型。它在Llama和Llama 2的发展过程中发挥了重要作用,并且仍在发挥作用,同时也在计算机视觉、自然语言处理、语音识别、图像生成甚至编程等应用领域的先进AI模型研发中扮演着重要角色。

图片

二、深入了解技术细节

我们的新一代AI集群建立在RSC的成功和经验教训基础之上。我们专注于构建端到端的人工智能系统,特别强调提升研究者和开发者的体验及工作效率。这些集群内部采用高效的高性能网络架构,结合关键存储解决方案,在每个集群中配备多达24,576个NVIDIA Tensor Core H100 GPU,使得这些新版本的集群能够支持比RSC时期更大的、更复杂的模型训练。这种硬件配置为推进AI产品开发中的新一代(GenAI)技术和研究铺平了道路。

1.网络部分

在Meta,我们每天处理数以万亿计的AI模型执行任务。要在如此大规模上提供这些服务,需要高度先进且灵活的基础架构。通过定制大量自己的硬件、软件和网络结构,我们可以针对AI研究人员优化端到端体验,同时确保数据中心高效运行。

为此,我们构建了一个基于Arista 7800系列交换机配合Wedge400和Minipack2 OCP机架式交换机构建的远程直接内存访问(RDMA)在聚合以太网(RoCE)网络结构方案的集群;另一个集群则采用了NVIDIA Quantum2 InfiniBand网络结构。这两种方案均能连接400 Gbps端点。通过这两个不同类型的互连解决方案,我们能够评估它们在大规模训练中的适用性和可扩展性,从而获得更多的见解,指导未来更大规模集群的设计与构建。经过精心的网络、软件和模型架构协同设计,我们成功地在RoCE和InfiniBand集群上运行大型、面向新一代AI(GenAI)的工作负载(包括在RoCE集群上对我们正在进行的Llama 3模型训练),并且未出现任何网络瓶颈。

2.计算部分

这两个集群都基于我们内部设计并贡献给开放计算项目(OCP)的开放式GPU硬件平台“大提顿”(Grand Teton)构建。大提顿整合了多代AI系统的优点,将电源、控制、计算和结构接口集成在一个单一机箱中,以实现更好的整体性能、信号完整性和热性能。该平台提供了快速的可扩展性和简化设计下的灵活性,使其能够迅速部署到数据中心群集,并易于维护和扩展。结合我们其他的内部创新成果,如Open Rack供电和机架架构,大提顿让我们能够以针对Meta当前和未来应用的方式构建新的集群。

自2015年的Big Sur平台开始,我们就一直在公开设计GPU硬件平台。

3.存储部分

在AI训练中,存储扮演着重要角色,但往往也是讨论最少的部分之一。随着GenAI训练任务逐渐变得更加多模态,消耗大量图像、视频和文本数据,数据存储的需求快速增长。然而,如何在保证高性能的同时兼顾节能,将所有这些数据存储空间紧凑化的问题依然存在,这使得问题更具挑战性。

我们的存储部署通过由Meta专为Flash介质优化的“Tectonic”分布式存储解决方案支持的用户空间Linux文件系统(FUSE)API来满足AI集群的数据和检查点需求。这一解决方案使数千个GPU能够同步保存和加载检查点(这对任何存储解决方案都是一个挑战),同时也提供了用于数据加载所需的灵活、高吞吐量的EB级存储容量。

此外,我们还与Hammerspace合作共同开发并实施了一种并行网络文件系统(NFS)部署,以满足此AI集群的开发者体验要求。Hammerspace带来诸多优势,其中之一便是能够让工程师在数千个GPU环境中进行交互式调试,代码更改会立即对所有节点可见。当Tectonic分布式存储解决方案与Hammerspace相结合时,能够在不牺牲规模的前提下实现快速迭代速度。

我们GenAI集群中的Tectonic和Hammerspace支持的存储部署均基于YV3 Sierra Point服务器平台,并升级到了市场上最新、最大容量的E1.S SSD。除了更高的SSD容量外,我们还根据每台服务器的吞吐量容量、减少机架数量和相关的电源效率等因素定制了每机架的服务器数量。利用OCP服务器如同乐高积木般的构建模块,我们的存储层能够灵活地按需扩展,适应这个集群以及未来更大规模AI集群的要求,同时在日常基础设施维护操作中保持容错性。

4.性能部分

在构建大规模AI集群时,我们坚持的一个原则是同时最大限度地提高性能和易用性,而不会相互影响,这对于创造最佳级别的AI模型至关重要。

当我们不断探索AI系统的极限时,检验我们设计扩展能力的最好方式就是实际构建系统、优化它并进行测试(虽然模拟器有所帮助,但其局限性明显)。在这个设计过程中,我们将小集群和大集群的性能进行了对比,找出瓶颈所在。下图显示的是,在大量GPU之间以预期达到峰值性能的消息大小进行通信时,AllGather集体操作性能(以0-100标度标准化带宽表示)。

最初,相比优化后的中小型集群,我们大型集群的开箱即用性能较差且不稳定。为了解决这个问题,我们对内部作业调度器进行了改进,使其具有网络拓扑感知能力,从而降低延迟,减少流入网络高层的流量。同时,我们还优化了网络路由策略,并结合NVIDIA Collective Communications Library (NCCL) 的调整,以实现网络资源的最佳利用。这些举措促使我们的大型集群达到了与小型集群同样出色且预期的性能水平。

图片

在图表中,我们可以观察到小型集群(总体通信带宽和利用率)未经优化就能达到90%以上的水平,而未经优化的大规模集群性能表现非常差,利用率仅在10%至90%之间波动。然而,在我们对整个系统(包括软件、网络等方面)进行优化之后,大型集群的性能恢复到了理想的90%以上范围。

除了针对内部基础设施的软件改动,我们还与编写训练框架和模型的团队紧密合作,以适应我们不断发展的基础设施。例如,NVIDIA H100 GPU开启了使用8位浮点数(FP8)等新型数据类型进行训练的可能性。充分利用大型集群需要投入额外的并行化技术,而新的存储解决方案则为跨数千个rank的高度优化检查点运行提供了机会,使其能在数百毫秒内完成。

我们还认识到调试能力是大规模训练的主要挑战之一。在大规模环境下,识别导致整个训练作业停滞的问题GPU变得极其困难。因此,我们正在开发诸如desync debug(异步调试)或分布式集体飞行记录器之类的工具,以揭示分布式训练的详细信息,更快更容易地识别问题。

最后,我们正持续改进PyTorch这一支撑我们AI工作负载的基础AI框架,使其准备好应对成千甚至数万个GPU的训练需求。我们已经识别出了进程组初始化过程中的多个瓶颈,并将启动时间从有时需要数小时缩短到了几分钟。

三、对开放AI创新的承诺

Meta始终坚持在AI软件和硬件方面的开放创新承诺。我们坚信开源硬件和软件始终是帮助行业解决大规模问题的宝贵工具。

如今,作为OCP(开放计算项目)的创始成员,我们继续支持开放硬件创新,将诸如Grand Teton和Open Rack等设计向OCP社区开放。同时,我们仍然是PyTorch的主要贡献者,这是为行业内大部分应用场景提供动力的AI软件框架。

我们同样持续致力于AI研究领域的开放创新。我们已经推出了“开放创新AI研究社区”,这是一个与学术研究者合作的伙伴计划,旨在深化我们对如何负责任地开发和分享AI技术的理解,尤其是关注大型语言模型(LLMs)。

对于Meta来说,采取开放的AI方法并不新鲜。我们还发起了AI联盟,这是一个集结了AI行业领先组织的团体,专注于在开放社区中加速负责任的AI创新。我们的AI努力建立在开放科学和跨协作的理念之上。开放生态带来了透明度、审查机制和信任,促进了AI开发的信任与安全,并引领出人人皆可受益、以安全和责任为核心构建的创新成果。

四、Meta未来AI基础设施展望

这两个AI训练集群设计只是我们更大规模AI未来蓝图的一部分。到2024年底,我们的目标是继续扩大基础设施建设,其中包括350,000个NVIDIA H100 GPU,总计算能力相当于近600,000个H100 GPU。

展望未来,我们认识到昨天或今天奏效的方法可能无法满足明天的需求。因此,我们不断地评估和完善基础设施的各个方面,从物理和虚拟层到软件层乃至更多层面。我们的目标是创建既灵活又可靠的系统,以支持快速演进的新模型和研究。

参考链接:

https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
标签:
上一篇2025-08-08

相关推荐

  • 莱特帀手机钱包-莱特币手机钱包

    【莱特帀手机钱包】——您的虚拟货币安全助手随着数字货币的兴起,莱特帀作为一种备受关注的加密货币,越来越受到投资者的青睐,为了方便用户安全、便捷地管理莱特帀资

    2025-08-08 03:00:29
    2019
  • ttm数字货币币钱包-ttt数字货币

    TTM数字货币币钱包——您的虚拟货币钱包助手随着数字货币的普及,越来越多的人开始关注并投资数字货币,数字货币的安全存储问题成为了投资者们面临的一大挑战,为了解

    2025-08-08 03:00:29
    2011
  • 货币钱包转账违法吗

    虚拟货币钱包助手:揭秘钱包转账的合法性与风险尊敬的用户,您好!作为虚拟货币钱包助手,今天我们来探讨一下关于虚拟货币钱包转账的合法性与风险问题,什么是虚拟货币钱包

    2025-08-08 03:00:29
    2004
  • 派币今天价值多少钱(派币今日价值报告)

    派币今天价值多少钱(派币今日价值报告)如果你是一名投资者,特别是加密货币投资者,那么你可能会对派币的表现感兴趣。究竟,在今天的市场上,你的派币价值是多少呢?让我们

    2025-08-08 03:00:29
    2003
  • usdt钱包官方下载(高级版本V6.4.24)_USDT钱包是什么?

    USDT钱包是一款基于区块链技术的数字货币钱包,主要应用于泰达币(USDT)的存储、转账和交易,泰达币作为一种稳定币,其价值与美元挂钩,1 USDT兑换1美元,因此在数字货币市场

    2025-08-08 03:00:29
    2003
  • 虚拟币前十名的各币价格

    在数字货币的世界里,各种虚拟币的价格波动总是牵动着投资者的心,下面,我将为您详细介绍当前市值排名前十的虚拟币及其价格情况,帮助您更好地了解这个市场,我们需要明确

    2025-08-08 03:00:29
    2003
  • 鱼池sc钱包-鱼池钱包模式

    【鱼池SC钱包】——您的虚拟货币守护神随着区块链技术的不断发展,虚拟货币已经成为越来越多人的投资选择,为了方便用户安全、便捷地管理自己的虚拟货币资产,各种虚拟

    2025-08-08 03:00:29
    2003
  • 欧意交易所app最新下载安装_欧意OK交易平台App下载教程

    大家好,今天来跟大家分享一下如何下载安装欧意交易所的官方App,也就是欧意OK交易平台App,这个App可以帮助用户在手机上轻松进行数字资产的交易和管理,下面是详细的下

    2025-08-08 03:00:29
    2003