Solutions & Technologies
AI 数据中心网络
简单、无缝的运营商体验可节省时间和资金
生成式人工智能 (AI) 领域的最新进展激发了全球数亿人的无限想象,也让 AI 和机器学习 (ML) 成为企业竞相追逐的焦点。数据中心是 AI 背后的引擎,而数据中心网络在互连以及最大限度利用成本高昂的 GPU 服务器方面发挥着至关重要的作用。
以工作完成时间 (JCT) 来衡量的人工智能训练是一个庞大的并行处理问题。需要有一个快速可靠的网络交换矩阵来充分利用您昂贵的 GPU。正确的网络是优化 ROI 的关键所在。方法很简单,只需设计正确的网络,即可在人工智能应用方面实现大幅节省。
瞻博网络可以助您一臂之力
瞻博网络的 AI 数据中心解决方案是一种可快速部署高性能 AI 训练和推理网络的方法。这样的网络设计灵活,便于在 IT 资源有限的情况下进行管理。我们集成了业界领先的 AIOps 和世界一流的网络技术,可帮助客户轻松构建易于运维的大容量网络交换矩阵。这样的交换矩阵可最大限度地缩短 JCT,提高 GPU 利用率,并充分利用有限的 IT 资源。
简化的运维可以使与网络相关的运维支出削减达 90%
我们运维优先的方法可节省时间和资金,避免了供应商锁定。Juniper Apstra 独特的基于意图的自动化可以保护运营商免受网络复杂性的影响,还可以加快部署速度。数据中心虚拟网络助手 Marvis 在数据中心提供了新的 AIOps 功能,可进一步提升运营商和最终用户的体验,使客户能够主动发现并快速解决问题。当使用瞻博网络进行 AI 数据中心联网时,部署速度可以加快高达 85%。
Forrester 对 Juniper Apstra 进行了总体经济影响研究,发现一家典型组织实现了高达 320% 的投资回报率,投资回收期不到 6 个月。
与所有领先的 GPU、交换矩阵和交换机实现 100% 的可互操作
具有强企业针对性的专有解决方案可能会阻碍 AI 创新。瞻博网络的解决方案能够确保最快的创新速度,尽可能提高设计灵活性,并避免后端、前端和存储人工智能网络的供应商锁定。我们的开放式 AI 优化以太网解决方案可确保功能速度和成本节省,而 Apstra 则是跨多供应商网络进行数据中心运维和保证的唯一解决方案。有了瞻博网络,您可以自由选择任何 GPU、交换矩阵和交换机,以最大限度地满足单个数据中心的网络需求。
想要了解 IDC 关于“AI 无处不在”的转变如何影响数据中心基础架构以及大型企业如何托管其 AI 应用的最新研究?
全包式解决方案的可靠性提升高达 10 倍
瞻博网络的全包式解决方案,帮助您从交换和路由到运维和安全性,灵活轻松地全面部署高性能 AI 数据中心。瞻博网络验证设计 (JVD) 可简化部署和故障排除流程,让您可以自信而快速地构建下一个功能强大的人工智能模型。我们产品中的芯片多样性可推动规模、性能和客户灵活性,而集成的安全性解决方案又可以保护人工智能工作负载和基础架构免受网络攻击。
想深入了解瞻博网络 AI 数据中心解决方案如何帮助您提高效率、降低 OpEx,并缩短 JCT?下载我们的《AI 数据中心联网》白皮书。
亲自了解我们的解决方案
确保我们的解决方案能够帮助您加快实现价值。符合条件的客户和合作伙伴可以参观访问我们位于加利福尼亚州森尼维耳市 (Sunnyvale, CA) 的 Ops4AI 实验室,使用基于以太网的网络交换矩阵实现的先进 GPU 计算、存储技术和自动化运维,测试 AI 工作负载。在瞻博网络、Broadcom、英特尔、英伟达、WEKA 等公司的硬件上试运行尖端 AI 模型。
探索 AI 网络
了解以太网解决方案如何灵活轻松地克服 AI 数据中心网络的常见障碍。观看视频,了解瞻博网络的开放式 AI 优化以太网解决方案如何在避免产生专利技术费用和造成任何不便的前提下,确保实现与 InfiniBand 相媲美的功能速度。
相关解决方案
融合式光学路由架构 (CORA)
CORA 是一种可扩展、可持续的 IP 光学融合自动化解决方案。它提供了运营商部署 IP-over-DWDM 转型战略所需的基本构建块,适用于城域、边缘和核心网络中的 400G 及以上的网络。
IP 存储网络
使用全 IP 存储网络,简化数据存储,提高数据中心性能。利用最新技术,例如带 100G/400G 交换的 NVMe/RoCEv2 或 NVMe/TCP,构建高性能存储,或者将您的存储和数据融合到单一网络中。
客户成功案例
SambaNova 让高性能和受计算限制的机器学习变得简单且可扩展
人工智能有望转变医疗保健、金融服务、制造、零售和其他行业,但很多致力于提高人类工作速度和效率的组织尚未充分发挥人工智能的潜力。
为克服受计算限制的机器学习 (ML) 的复杂性,SambaNova 设计出了 DataScale。DataScale 采用 SambaNova Systems 的 Reconfigurable Dataflow Architecture (RDA) 设计,并且使用开放标准和用户界面构建而成,是一款从算法到芯片都得到优化的集成式软硬件系统平台。瞻博网络交换解决方案为 SambaNova 的 DataScale 系统和服务迁移了大量数据。
资源中心
白皮书
视频
博客
信息图表
AI 数据中心网络常见问题解答
如今,哪些类型的企业优先考虑在其数据中心内部署 AI/ML 解决方案?
AI 需求正在推动超大规模企业、云提供商、企业、政府和教育机构将 AI 纳入其业务系统中,实现自动运维、生成内容和通信,并改善客户服务水平。
AI 训练和推理阶段之间有何区别?
AI 模型是使用训练期间精心编制的数据集构建的。训练在群集中的多个 GPU 上进行。这些 GPU 可以有数十个、数百个,甚至多达数千个,均通过网络连接,并不断相互交换数据。此训练阶段结束后,模型基本构建完成。在推理阶段,用户与模型进行交互,模型可以识别图像或生成图片和文本,回答用户的问题。训练通常以离线方式进行,而推理通常以在线方式进行。
人工智能数据中心网络基础架构解决方案包含哪些组件?瞻博网络又是如何利用这些组件的?
海量 AI 数据集需要更强大的计算能力、更快速的存储以及大容量、低延迟的网络。瞻博网络通过以下方式满足这些要求:
- 计算:AI/ML 计算群集对节点间网络提出了苛刻的要求。缩短工作完成时间 (JCT) 至关重要,网络在群集的高效运维中发挥着关键作用。瞻博网络提供大量高性能、无阻塞交换机,具备深度缓冲功能和拥塞管理功能,只要进行妥善架构,可消除任何网络瓶颈。
- 存储:在 AI/ML 群集和高性能计算中,很少数据集或模型能够被完整存储在计算节点上,因此需要用到高性能存储网络。瞻博网络 QFX 系列交换机可用于 IP 存储连接;此系列交换机对远程直接内存访问 (RDMA) 网络提供全面支持,包括非易失性存储器/聚合以太网 RDMA (NVMe/RoCE) 和网络文件系统 (NFS)/RDMA。
- 网络:AI 训练模型涉及分布在数百个或数千个 CPU、GPU 和 TPU 处理器上的大量密集计算。这些计算需要可横向扩展且无差错的大容量网络。瞻博网络 QFX 交换机和 PTX 系列路由器利用行业领先的交换和路由吞吐量以及数据中心互连 (DCI)功能,为数据中心内和数据中心之间的大量计算提供支持。
瞻博网络人工智能数据中心如何简化数据中心的运维?
Apstra 是瞻博网络领先的数据中心自动化和保证平台。 它通过持续验证、强大的分析和根本原因识别,在多供应商数据中心中自动执行从设计到日常运维的整个网络生命周期,从而保证可靠性。 有了面向数据中心的 Marvis VNA,这些信息就能从 Apstra 传输到瞻博网络 Mist 云中,并显示在一个通用的 VNA 仪表板中,以提供端到端的洞察力。 面向数据中心的 Marvis VNA 还提供了一个强大的对话界面(使用 GenAI),可显著简化知识库查询。
瞻博网络 AI 数据中心网络解决方案如何满足拥塞管理、负载平衡和延迟要求,从而最大限度提高 AI 性能?
瞻博网络的高性能、无阻塞数据中心交换机提供深度缓冲和拥塞管理,可消除网络瓶颈。为了平衡流量负载,我们支持动态负载平衡和自适应路由。对于拥塞管理,瞻博网络为数据中心量化拥塞通知 (DCQCN)、优先流控制 (PFC) 和显式拥塞通知 (ECN) 提供全面支持。最后,为减少延迟,瞻博网络在我们的主干架构中采用了一流的商用芯片和自定义 ASIC 架构,可在必要时最大限度利用缓冲区、虚拟输出队列 (VOQ) 以及基于单元的交换矩阵。
瞻博网络提供哪些 IP 存储功能?
我们的产品组合包括基于标准的开放式交换机,可使用 NVMe/RoCE 或 NFS/RDMA 提供基于 IP 的存储连接(见之前的常见问题解答)。我们的 IP 存储网络解决方案设计可从小型四节点配置扩展到数百个或数千个存储节点。