Focus    前瞻洞察
前瞻洞察
算力狂飙时代:新华三如何掀起底座革命?
文 | 新华三集团高级副总裁、技术委员会副主席 刘新民

当“杰文斯悖论”穿越工业革命,投射至当代AI算力领域时,效率提升与需求扩张的共生效应再一次得以印证。随着DeepSeek等模型通过创新优化降低单个模型训练的算力需求,让更多企业和从业者有机会去尝试、去探索,引发了一场广泛而深刻的行业变革,进而推动算力需求的跃迁式上升,这无疑给算力基础设施带来了巨大的挑战。

新华三集团高级副总裁、技术委员会副主席 刘新民

算力结构正在向“集中式训练+边缘推理”的架构进化

生成式AI的爆发,尤其是DeepSeek的横空出世,正在重塑算力版图。

DeepSeek类模型的训练成本下降虽带来个体效率提升,却引发更复杂的系统性挑战。数据显示,全球智能算力需求以78%的复合年增长率狂飙,其中超三分之一的增量直接源于DeepSeek类模型的场景渗透。DeepSeek的混合专家模型(MoE)将单次推理计算量压至传统模型的20%,但开源生态的爆发——日均50亿次调用——让总算力消耗翻了3倍。

算力结构正在向“集中式训练+边缘推理”的架构进化。训练侧因低资源需求放缓,智算中心从“堆算力”转向“挤效率”;推理侧需求却因门槛降低而井喷,用户并发调用激增带来海量参数处理需求。云计算厂商正在从集中式训练转向分布式推理,数据中心开始向边缘延伸。

我们看到算力供给的场景定制化趋势愈发明显,例如智能驾驶和机器人需要低时延、高并发的专用推理服务器,金融风控和医疗影像等需要快速接入推理能力的场景则倾向绿色高效的一体机。同时,海量数据吞吐对高性能存储和AI网络提出更高要求。优化互联架构、提升存储性能、创新网络协议,已成为提升智算中心能效的几大关键举措。

可以预见的是,未来算力中心发展将呈现“大小兼顾”的格局。大型算力中心仍是AI训练的脊梁,头部智算中心凭借高功率机柜和液冷技术屹立不倒。而推理需求的爆发,则催生小型算力中心的崛起,尤其在边缘计算和本地部署场景中,中小企业借此搭上AI快车。

放大到国家层面,近年加速布局建设全国一体化算力网络国家枢纽节点,强调区域平衡与“东数西算”并重,东部集群强化热数据处理,西部则借绿电优势承接冷数据和训练任务,将形成一幅“东训西存”的互补图景。

算力底座的四个关键技术发展方向

面对AI掀起的算力狂潮,企业需要怎样的底座?新华三认为这四个层面的技术创新将决定未来算力基础设施的核心承载能力:Scale-up、Scale-out、高性能存储和广域数据传输。

AI大模型动辄千亿参数,单张GPU早已不堪重负。Scale-up网络纵向扩展GPU互联,支持几十到数百GPU互联,从而加速AI任务完成。而Scale-out网络则通过横向扩展支持万卡甚至十万卡互联,确保集群高可用。

由于训练数据的读取带宽对于不同数据要求不同,因此整个训练过程需要高性能的存储和网络配合。为满足AI存储大带宽、高吞吐、低延迟的要求,可通过冷热数据分离提升读取效率,使用高速存储协议(NVMe-oF)和全闪阵列等方面进行优化。

随着智算业务需求量的不断发展,海量样本入算、存算分离拉远训练、跨数据中心协同训练和业务推理等海量数据跨广域流动的场景逐渐增多。在广域网络中,跨域的物理时延较大,数据传输的可靠性也面临挑战,丢包处理和拥塞控制尤为重要。

面向算力需求的发展,新华三提出“算力x联接”理念,力求通过多元化算力和标准化联接的协同,提供更高效的智算解决方案。

在Scale-up层面,新华三G7系列模块化服务器以丰富的软硬件生态兼容性,已完成和超过10余家芯片厂商的联合设计,适用于集群训练、训推一体、边缘推理等场景。在面向万亿模型的超节点集群方面,H3C UniPoD超节点支持单机柜、多机柜等多种形态,Scale-up互联规模提升300%,大幅提升通信效率和模型算力利用率,为万亿参数模型训练提供强大支持。

在Scale-out层面,新华三推出全球首款单芯片51.2T 800G“LPO+液冷”交换机,满足智算网络的高吞吐、低时延、绿色节能需求。创新研发的端网融合Scale-out整体解决方案,在UEC技术基础之上,配合网络控制器的全局能力,自研高效拥塞控制算法,大幅提升集群网络有效吞吐率。

在高性能存储方面,新华三全面重构存储软件栈,打造单节点80GB/s带宽、200万IOPS的下一代AI数据存储平台H3C UniStor Polaris X20000系列,实现性能优化、协议融合和架构进化。

在广域数据传输方面,新华三的确定性网络和数据快递技术方案,通过软硬件协议栈重构,在5000km距离下实现90%以上带宽利用率,数据传输效率较传统协议提升5倍,打造“数据高铁”。

能效方面,所谓“人工智能的尽头是能源。新华三通过AI运维与算力平台调度,识别低利用率服务器的任务进行集中和关停,在不牺牲性能的前提下,实现算力利用率和能效显著提升。

新华三的开放创新:技术纵深+生态广度

下一代算力和网络会与当前完全不同。面对算力基础设施的指数级复杂度增长,新华三不仅在产品矩阵布局上,构建了从硬件基础设施到行业解决方案的完整链条,更通过“技术纵深+生态广度”双螺旋驱动的开放创新,定义AI新纪元的演进法则。

未来,大模型的训练将在芯片内、芯片间、设备间、数据中心内、城市内以及相距上千公里的城市间都会有互联互通的需求,联接标准的打通将是迈向算力时代的重要一步。

在互联标准层面,积极参与和跟进UEC(超以太联盟)、UALink(加速卡超级互联联盟)等国际组织的标准建设工作,携手产业伙伴共同探索和推动联接标准化,进一步提升算力密度,推动产业智能化进程。我们希望通过推动开放、标准的联接,实现生态兼容的同时保留差异化特色,最终形成即插即用的通用解决方案。

在AI基础设施领域,新华三积极实践“AI in ALL”技术战略,发挥“算力×联接”的倍增效应,以“技术融合、标准共建、场景赋能”为支点,携手广泛的产业伙伴,服务百行百业。

迈向AI新纪元,新华三不仅是算力基础设施的提供者,更是产业跃迁的筑梦者。作为技术领导者,我们始终坚信:未来的“联接”,不只是算力的互联,而是万物的互联。真正的创新不在于追赶技术浪潮,而在于定义下一个技术纪元的演进法则。新华三正加速以技术创新之力,引领AI时代的算力革命。

本文整理自至顶科技媒体访谈实录

关闭