Firma Huawei przedstawiła https://www.huawei.com/en/news/2025/9/hc-xu-keynote-speech atlas 950 SuperCluster na Huawei Connect 2025, zapewniający wydajność eksaskalową z 524 FP8 ExaFLOPS do szkolenia AI i 1 FP4 ZettaFLOPS do wnioskowania. System ten ma bezpośrednio konkurować z platformami Rubin firmy Nvidia, które mają pojawić się pod koniec 2026 roku. Atlas 950 integruje 524 288 jednostek przetwarzania neuronowego Ascend 950DT w ponad 10 240 szafach.
Architektura składa się z 64 SuperPoD Atlas, z których każdy zawiera 8 192 chipy Ascend 950DT, oferując 20 razy więcej jednostek przetwarzających niż poprzednie systemy Atlas 900 A3. Nowa architektura obsługuje zarówno protokoły RoCE, jak i opatentowane przez Huawei protokoły UBoE (UnifiedBus over Ethernet) i oferuje w pełni optyczne połączenie o przepustowości 16 PB/s i opóźnieniu 2,1 mikrosekundy.
Superklaster Atlas 950 przewyższa superklaster OCI firmy Oracle, który wykorzystuje 131 072 procesorów graficznych B200 w celu uzyskania 2,4 FP4 ZettaFLOPS. Atlas 950 przewyższa również klaster Colossus firmy xAIoferując 2,5-krotnie więcej jednostek NPU i 1,3-krotnie większą wydajność obliczeniową. Każdy SuperPoD Atlas 950 zapewnia 8 FP8 ExaFLOPS, w porównaniu do 1,2 FP8 ExaFLOPS dla Vera Rubin NVL144 firmy Nvidia. Huawei zaprojektował SuperCluster do obsługi modeli sztucznej inteligencji od setek miliardów do dziesiątek bilionów parametrów.
Każdy SuperPoD zajmuje około 1000 metrów kwadratowych, co jest podobne do powierzchni dwóch boisk do koszykówki, i wymaga 160 szaf. W sumie SuperCluster zajmuje powierzchnię 64 000 metrów kwadratowych, czyli około 150 boisk do koszykówki lub dziewięć boisk do piłki nożnej. Zamiast korzystać z bardziej wydajnych chipów, takich jak Nvidia, Huawei polega na większej liczbie akceleratorów, więc klaster potrzebuje więcej miejsca na zasilanie, chłodzenie i systemy wsparcia.
Huawei spodziewa się uruchomić Atlas 950 SuperCluster pod koniec 2026 roku, a 960 SuperCluster pojawi się rok później. Model 960 będzie zawierał ponad milion jednostek NPU i oferował od dwóch do czterech ZettaFLOPS mocy obliczeniowej. Ponieważ chipy Huawei są mniej wydajne sama w sobie, firma buduje ogólnie większe systemy. Te SuperClusters są przeznaczone dla firm zajmujących się sztuczną inteligencją, które potrzebują ogromnej mocy obliczeniowej dla swoich modeli nowej generacji.
Źródło(a)
Huawei (w języku angielskim)