A Huawei 2025 augusztusában bejelentette, hogy nyílt forráskódúvá teszi a neurális hálózatok számítási architektúráját (CANN AI GPU eszköztár) és az egységesített gyorsítótár-kezelőjét (Unified Cache Manager keretrendszer), ezzel közvetlenül kihívva az Nvidia CUDA platformjának közel két évtizedes egyeduralmát az AI fejlesztési ökoszisztémában. Ez a stratégiai lépés különösen jelentős Kína technológiai önállóságra való törekvése és az amerikai chipexport-korlátozások kontextusában.
A CANN (Compute Architecture for Neural Networks) a Huawei heterogén számítástechnikai keretrendszere, amely az Ascend AI GPU-kra történő AI alkalmazásfejlesztést támogatja többrétegű programozási interfészekkel. A vállalat már megkezdte a tárgyalásokat jelentős kínai AI szereplőkkel, egyetemekkel és kutatóintézetekkel egy nyílt forráskódú Ascend fejlesztői közösség létrehozásáról. A Huawei UCM (Unified Cache Manager) keretrendszere, amelyet a China UnionPay valós üzleti alkalmazásaiban teszteltek, akár 90%-os késleltetéscsökkentést és 22-szeres átviteli sebesség növekedést is képes elérni a KV Cache adatok hatékonyabb memóriakezelése révén. Zhou Yuefeng, a Huawei vezeték nélküli termékcsaládjának marketingigazgatója megerősítette, hogy az UCM architektúrája különböző tárolási szinteken telepíthető anélkül, hogy befolyásolná a teljesítményt.
A Huawei döntése szélesebb körű következményekkel járhat, mivel a CANN nyílt forráskódúvá tétele összhangban van Kína AI számítástechnikában való technológiai önállóságra irányuló törekvésével. A CloudMatrix 384 benchmark eredmények szerint bizonyos Ascend chipek meghatározott körülmények között felülmúlhatják az Nvidia processzorokat, azonban a fejlesztők migrációja nemcsak a nyers teljesítménytől, hanem a szoftver stabilitásától és támogatásától is függ. A Huawei tervei szerint az UCM 2025 szeptemberében válik nyílt forráskódúvá a MindSpore közösségi platformon keresztül, míg a CANN nyílt forráskódúvá tétele az első komoly alternatívát jelentheti a CUDA-val szemben évek óta.
Források:
1.

2.

3.