
在华为全联接大会2025期间,华为宣布昇腾将分层解耦、全面开源开放,支持Triton、PyTorch、vLLM、verl等主流社区,并成立CANN(Compute Architecture for Neural Networks,由华为推出的神经网络异构计算架构)技术指导委员会,推动生态走向社区化治理。
打破封闭的藩篱
读懂昇腾的开放策略,首先要理解何为CANN。
CANN的全称是“神经网络异构计算架构”(Compute Architecture for Neural Networks)。通俗地说,它是把上层AI训练框架(如PyTorch、TensorFlow、MindSpore等)和底层昇腾芯片连接起来的桥梁,作用在于最大化地释放GPU的潜力。
当前,业内最知名的异构计算架构莫过于英伟达的CUDA。作为英伟达的核心技术平台,CUDA不仅推动了 GPU 从图形处理单元向通用计算平台的转变,还构建了一个庞大且高质量的开发者生态系统。如今整个AI开发生态大多构建在 CUDA 的基础之上,这也使得英伟达在AI大潮中占据了不可替代的位置。
在相当长的一段时间里,CUDA都难寻对手,原因正是这个强大的软硬件协同生态系统,开发者可以借此在GPU上实现高效的并行计算。但这个系统存在一个短板:封闭。
挑战封闭的最佳手段,就是开放。
早在2018年,华为就提出了「全栈全场景AI解决方案」,旨在形成从芯片(昇腾)、芯片使能(CANN)到AI框架(MindSpore)及应用的一套完整AI基础设施。其中,CANN是昇腾AI计算产业的核心基础软件,也是其挑战行业垄断的战略支点。
一个重要的里程碑是,2025年8月,华为轮值董事长徐直军宣布CANN全面开源开放。这是华为向外界释放的一个重要信号——华为决心打破AI算力领域的封闭格局,将底层技术的选择权交还给开发者,也为世界提供CUDA之外的新选择。
软件开源,硬件开放
传统AI开发中,硬件底层往往是一个「黑盒」,就像是驾驶一辆引擎盖被焊死的汽车,能踩油门、转方向盘,但对引擎内部一无所知。这就是开发者面对传统AI硬件的桎梏:当训练模型速度不理想时,很难判断问题出在哪里,只能求助硬件厂商,也失去了主动权和效率。
CANN的解决方案是,通过架构升级实现分层解耦,支持开发者从模型、算子、内核以及底层资源按需调用,还专门构建了完备的编程体系,例如Ascend C编程语言和CATLASS模板库就能支持开发者自定义,同时还支持Triton、TileLang、FlagTree等Python前端的开源编程框架,让开发者在性能与效率之间实现自由平衡。
除了软件开源之外,硬件开放同样重要。
本届全联接大会上,华为发布了Atlas 950和Atlas 960的两款超节点产品,其中Atlas 960支持15488张昇腾卡,FP8算力高达30EFLOPS,互联带宽达34PB/s,较传统架构性能提升超17倍,向全球顶尖算力看齐。张迪煊表示,昇腾要在硬件环节彻底打破壁垒,把模组、标卡、互联协议交到伙伴手中,让更多厂商能够在此基础上打造差异化产品。
其中一项重要的内容是灵衢协议。灵衢是华为自主研发的、面向超节点的互联协议,能够以系统级优势弥补算力上的单点差距。与英伟达NVLink相比,灵衢的最大区别就在于开放。此次大会上,华为宣布开放互联协议灵衢2.0技术规范,这也将吸引产业链共同研发配套硬件,构建自主互联生态。
华为架「桥」
华为这一系列开源措施的终极目标,并不是与特定厂商竞争,而是为产业构建一座开放的「桥」。
华为构建的这座桥,首要作用就是把这些碎片连接起来。一方面,通过超节点技术打造顶尖性能;另一方面,坚持硬件开放、软件开源,华为能够华为能够协同生态、赋能伙伴,为产业界提供高效、灵活且强大的算力支撑。
对国内产业而言,这座桥提供了自主创新的底层选择,保障了算力供应链的韧性和安全;而对全球开发者而言,CANN技术指导委员会将项目治理社区化,也在对外表明:这座桥的规则不由华为一家决定,而是由全球贡献者共同治理,消除了开发者对垄断的担忧。
华为的实践也证明,技术自主与全球协作并非对立,而是可以通过开放开源的方式实现统一。封闭生态的叙事固然有吸引力,它背后是难以想象的商业利益。但如果跳出单一的商业逻辑,开放或许才是更可持续的发展哲学——所有后来的参与者,都有机会享受到技术进步的红利。
富华优配提示:文章来自网络,不代表本站观点。