Superukład GB10 firmy Nvidia to dość monstrualny SoC, który może pochwalić się opartym na architekturze ARM procesorem Grace z 20 rdzeniami w połączeniu z procesorem graficznym Blackwell oraz 128 GB zunifikowanej pamięci dostępnej dla obu. Asus wydaje się być gotowy do pełnego ujawnienia swojego Ascent GX10 mini PC wyposażonego w superprocesor GB10 22 dnia tego miesiąca, jak zauważył VideoCardz.
Wielu producentów zapowiedziało systemy zasilane przez Nvidia GB10, a różnica w wydajności między nimi powinna być minimalna. Nvidia DIGITS, lub DGX Sparkrównież może pochwalić się układem GB10, ujawniając intrygujące szczegóły dotyczące chipu. 128 GB zunifikowanej pamięci znajduje się na 256-bitowej magistrali, umożliwiając przepustowość pamięci na poziomie 273 GB/s. Dwuportowa karta ConnectX-7 NIC obsługuje również klastrowanie 200 GbE, co jest koniecznością dla wielu zaawansowanych użytkowników.
Według Nvidii, GB10 jest dobry dla około 1000 TOPS lub 1 petaflopa wydajności AI (FP4). Zasadniczo, system powinien być w stanie działać na równi z systemami wyposażonymi w Nvidia RTX 5070, które charakteryzują się około 988 TOPS szczytowej wydajności, podczas gdy Nvidia RTX 5080 (obecnie 1,699 USD na Amazon) znacznie wyprzedza ponad 1400 TOPS. RTX 5070 ma znacznie szybszą pamięć, 673 GB/s.
Proszę jednak pamiętać, że systemy zasilane przez GB10 są przeznaczone wyłącznie do lokalnych obciążeń AI intensywnie wykorzystujących GPU i oferują rozczarowującą wydajność, jeśli chodzi o ogólne obliczenia. Według niedawno ujawnionych testów porównawczych, 20-rdzeniowy procesor ARM GB10 z grubsza pasuje do Apple 8-rdzeniowemu SoC M3, który jest przyzwoity, ale nie ma o czym pisać.
Oczywiście, biorąc pod uwagę, że DGX Spark kosztuje 3000 USD, Ascent GX10 od Asusa najprawdopodobniej będzie wyceniony bardzo podobnie. Apple znacznie droższy Mac Studio z M3 Ultra SoC, który może pochwalić się aż 512 GB zunifikowanej pamięci o przepustowości 800 GB/s, co znacznie przewyższa GB10, ale nic dziwnego, że nie zbliża się pod względem surowej wydajności sztucznej inteligencji.