Notebookcheck Logo

NVLink Fusion rozszerza strukturę obliczeniową o niskim opóźnieniu na procesory i akceleratory innych firm

Nvidia otwiera NVLink Fusion dla szerszego ekosystemu krzemowego. Na zdjęciu: Biuro Nvidia Endeavor (źródło zdjęcia: Nvidia)
Nvidia otwiera NVLink Fusion dla szerszego ekosystemu krzemowego. Na zdjęciu: Biuro Nvidia Endeavor (źródło zdjęcia: Nvidia)
NVLink Fusion firmy Nvidia zapewnia niską latencję i wysoką przepustowość szkieletu obliczeniowego NVLink poza układem scalonym w postaci niewielkiego chipletu. Zapewnia on nawet 14-krotnie większą przepustowość niż PCIe, zachowując przy tym semantyczny dostęp do pamięci pomiędzy urządzeniami.
Nvidia AI Blackwell RTX 5000 CPU GPU

Firma Nvidia przedstawiła na stronie https://nvidianews.nvidia.com/news/nvidia-nvlink-fusion-semi-custom-ai-infrastructure-partner-ecosystem NVLink Fusion, interfejs na poziomie układu scalonego, który rozszerza zastrzeżoną przez firmę strukturę NVLink poza jej procesory. Zapowiedziany na targach Computex 2025, nowy układ krzemowy umożliwia procesorom innych firm i niestandardowym akceleratorom współdzielenie tej samej ścieżki o niskim opóźnieniu i wysokiej przepustowości, która już łączy procesory graficzne Nvidia w "fabrykach sztucznej inteligencji"

NVLink Fusion przenosi technologię z połączenia między płytami do małego chipletu, który projektanci mogą umieścić obok własnych matryc obliczeniowych. Łącze nadal opiera się na znanej sygnalizacji PCIe, ale zapewnia do 14 razy większą przepustowość niż standardowy pas PCIe, zachowując jednocześnie semantyczny dostęp do pamięci między urządzeniami. Ta skalowalna struktura uzupełnia istniejące produkty Nvidii Spectrum-X Ethernet i Quantum-X InfiniBand, które obsługują skalowalny ruch w szafach.

Do współpracy przystąpiło już kilku partnerów. MediaTek, Marvell, Alchip, Astera Labs, Cadence i Synopsys dostarczą niestandardowe układy ASIC, bloki IP lub usługi projektowe wykorzystujące nowy protokół. Po stronie CPU, Fujitsu planuje sparować swój nadchodzący 2 nm, 144-rdzeniowy procesor Monaka z NVLink Fusion, podczas gdy Qualcomm dołączy interfejs do swojego procesora serwerowego opartego na Arm. Obaj producenci dążą do umieszczenia swoich układów w systemach referencyjnych Nvidii bez rezygnacji z bezpośredniego dostępu do GPU.

Operatorzy chmur hiperskalowych mogą łączyć te części obsługujące NVLink Fusion z własnymi procesorami Nvidii Procesorami Grace i Układami GPU klasy Blackwella następnie łączyć ze sobą duże wyspy GPU za pośrednictwem sieci o przepustowości 800 Gb/s. Rezultatem jest modułowa ścieżka do klastrów obejmujących tysiące, a nawet miliony akceleratorów, bez strat wydajności typowych dla konstrukcji opartych wyłącznie na PCIe.

Licencjonując podstawowy element swojego stosu, Nvidia pozycjonuje się jako tkanka łączna dla heterogenicznego sprzętu AI, a nie jako dostawca zamkniętych rozwiązań. Konkurenci, którzy walczyli o dopasowanie przepustowości NVLink, mogą teraz korzystać z niego, ale muszą to robić w ramach szerszego oprogramowania i sieci Nvidii.

Źródło(a)

Nvidia (w języku angielskim)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2025 05 > NVLink Fusion rozszerza strukturę obliczeniową o niskim opóźnieniu na procesory i akceleratory innych firm
Nathan Ali, 2025-05-20 (Update: 2025-05-20)