手机的vpn共享给电脑连接不上去
C114讯 9月29日消息(刘定洲)2023年以来,AI大模型横空出世并快速迭代,展现出变革经济社会的巨大潜能,新兴AI应用不断涌现。AI时代到来,对算力尤其是智能算力需求极速增长,数据显示,当前算力需求每隔两个月就要翻倍,到2030年智能算力相比2020年将增长500倍。
可以看到,9月举办的PT展上,算力相关技术已成信息通信产业链展出的重要主题。9月27日开幕的2024中国算力大会,更是吸引了业内人士的密切关注,探讨如何把握高速发展中的算力产业机遇。
在2024中国算力大会期间,中兴通讯云及智算产品总经理余方宏接受C114采访时表示,AI大模型参数量爆炸性增长,从千亿到万亿,乃至将要达到十万亿参数量。“如何提升智算中心的带宽,实现高效算力互联已成业界面临的新难题。”
余方宏谈到,参数量的快速扩展,不仅带来了模型复杂度的提升,也推动了从传统的3D并行训练向更先进的多维度并行训练转型,包括专家并行(EP)、张量并行(TP)、流水线并行(PP)和数据并行(DP)等方式。这些并行训练方法对计算资源和通信带宽的需求急剧增长,特别是在专家并行中,All-to-All通信对带宽提出了极高要求。
为实现高效算力互联,底层GPU供应商英伟达,以及大模型厂商、互联网云公司均采取了各自策略。如何提升带宽,通信厂商的技术能力十分关键。据介绍,中兴通讯已经提出了“以网强算”的核心主张,以先进的网络技术,打造从芯间、卡间、机间和DC间的至强连接,提升算力基础设施整体能力。
其中的核心,是中兴通讯自主研发的OLink技术。余方宏提到,封闭的GPU互联私有总线协议一直是行业面临的重大挑战,限制了硬件系统的扩展能力,也增加了技术升级和维护的复杂性。传统的Full Mesh互联架构,虽然能提供高带宽和低延迟的通信,但其扩展能力有限,一般最多只能支持单机8张GPU卡。
而OLink采用开放的总线协议,兼容RDMA标准,能够提供高达800GB/s的带宽。此外,OLink还支持在网计算,显著降低通信时延,提升集群的整体性能和扩展性,从而打造更大规模的高带宽域(HBD),大幅提升集群算力。
OLink总线技术基于成熟的以太网架构,利用其稳定的组网和运维优势,实现了机内和机架间的高速互联。这种解耦设计使得大规模网络互联与端侧设备更加灵活,允许不同厂商的算力设备直接接入OLink网络。在国内算力来源复杂、甚至影响到算力供给的客观情况下,OLink可有效打通算力高速互联的堵点,具有重要应用价值手机的vpn共享给电脑连接不上去。
中兴通讯已将OLink技术应用到算力核心设备——AI服务器中。作为国内主流服务器提供商,中兴通讯基于OLink技术推出了超节点方案,突破传统单机8卡的限制,实现节点内GPU规模的扩展。
据C114了解,模型在不同GPU和服务器间进行数据传输时,GPU因等待无法充分利用,导致计算过程中出现‘空泡’,从而影响模型训练的整体效率。余方宏指出,采用超节点方案,不仅能有效减少流水线并行带来的资源“空泡”,还能降低MoE架构下大量All-to-All通信导致的GPU闲置问题,从而实现性能的飞跃。
更进一步,中兴通讯从公司战略层面正在从连接向“连接+算力”拓展,推出了全栈智算解决方案,涵盖了从云端到边缘再到端侧的全链条应用,灵活适配不同的业务场景和算力需求。
目前来看,AI大模型仍在快速迭代中,各类AI技术层出不穷,将催生全新的产业机遇,为经济社会数智化转型不断赋能。中兴通讯持续投资AI技术研发,将推动行业变革,携手生态伙伴共同打造更强大、更高效的智能计算平台,拥抱AI算力新时代。