Firma Nvidia przedstawiła na stronie https://nvidianews.nvidia.com/news/nvidia-nvlink-fusion-semi-custom-ai-infrastructure-partner-ecosystem NVLink Fusion, interfejs na poziomie układu scalonego, który rozszerza zastrzeżoną przez firmę strukturę NVLink poza jej procesory. Zapowiedziany na targach Computex 2025, nowy układ krzemowy umożliwia procesorom innych firm i niestandardowym akceleratorom współdzielenie tej samej ścieżki o niskim opóźnieniu i wysokiej przepustowości, która już łączy procesory graficzne Nvidia w "fabrykach sztucznej inteligencji"
NVLink Fusion przenosi technologię z połączenia między płytami do małego chipletu, który projektanci mogą umieścić obok własnych matryc obliczeniowych. Łącze nadal opiera się na znanej sygnalizacji PCIe, ale zapewnia do 14 razy większą przepustowość niż standardowy pas PCIe, zachowując jednocześnie semantyczny dostęp do pamięci między urządzeniami. Ta skalowalna struktura uzupełnia istniejące produkty Nvidii Spectrum-X Ethernet i Quantum-X InfiniBand, które obsługują skalowalny ruch w szafach.
Do współpracy przystąpiło już kilku partnerów. MediaTek, Marvell, Alchip, Astera Labs, Cadence i Synopsys dostarczą niestandardowe układy ASIC, bloki IP lub usługi projektowe wykorzystujące nowy protokół. Po stronie CPU, Fujitsu planuje sparować swój nadchodzący 2 nm, 144-rdzeniowy procesor Monaka z NVLink Fusion, podczas gdy Qualcomm dołączy interfejs do swojego procesora serwerowego opartego na Arm. Obaj producenci dążą do umieszczenia swoich układów w systemach referencyjnych Nvidii bez rezygnacji z bezpośredniego dostępu do GPU.
Operatorzy chmur hiperskalowych mogą łączyć te części obsługujące NVLink Fusion z własnymi procesorami Nvidii Procesorami Grace i Układami GPU klasy Blackwella następnie łączyć ze sobą duże wyspy GPU za pośrednictwem sieci o przepustowości 800 Gb/s. Rezultatem jest modułowa ścieżka do klastrów obejmujących tysiące, a nawet miliony akceleratorów, bez strat wydajności typowych dla konstrukcji opartych wyłącznie na PCIe.
Licencjonując podstawowy element swojego stosu, Nvidia pozycjonuje się jako tkanka łączna dla heterogenicznego sprzętu AI, a nie jako dostawca zamkniętych rozwiązań. Konkurenci, którzy walczyli o dopasowanie przepustowości NVLink, mogą teraz korzystać z niego, ale muszą to robić w ramach szerszego oprogramowania i sieci Nvidii.
Źródło(a)
Nvidia (w języku angielskim)