Notebookcheck Logo

SK Hynix wyprzedaje swoje układy DRAM, NAND i HBM dla Nvidii do 2026 r., ponieważ popyt na sztuczną inteligencję przewyższa Samsunga i Microna

Para chipów SK hynix (źródło obrazu: SK hynix)
Para chipów SK hynix (źródło obrazu: SK hynix)
SK Hynix potwierdził, że cała produkcja pamięci DRAM, NAND i pamięci o wysokiej przepustowości (HBM) do 2026 roku została wyprzedana, w dużej mierze dla Nvidii na potrzeby jej akceleratorów sztucznej inteligencji. Dominacja południowokoreańskiego producenta chipów w technologii HBM i rekordowe zyski podkreślają, w jaki sposób napędzany przez NVIDIA boom na sztuczną inteligencję zmienia globalną konkurencję w dziedzinie półprzewodników.
AI Business Geforce Nvidia CPU Samsung

Firma SK hynix ogłosiła właśnie, że jej moce produkcyjne w zakresie pamięci DRAM, NAND i pamięci o wysokiej przepustowości (HBM) są w pełni zarezerwowane do 2026 roku. Ten kamień milowy był w dużej mierze napędzany przez duże zamówienie od Nvidii. Największa na świecie firma pod względem kapitalizacji rynkowej zasila swoje procesory AI półprzewodnikami HBM firmy SK hynix, w tym układami H100 i B200.

SK hynix osiągnął w 3. kwartale 2025 r. zysk w wysokości 8 mld USD (11,4 bln ₩), co stanowi wzrost o 62% rok do roku. Firma zwiększyła również przychody o 39% do 22,4 bln jenów. Większość tego wzrostu pochodziła ze sprzedaży chipów HBM3E, które Nvidia nabyła do zasilania swoich procesorów graficznych w centrach danych. W rezultacie ich wartość rynkowa wzrosła powyżej wartości rynkowej konkurentów.

Firma badawcza TrendForce szacuje, że SK hynix kontroluje obecnie ponad połowę globalnego rynku układów HBM, podczas gdy Samsung i Micron zajmują mniej więcej po jednej czwartej. Najnowsze wyniki finansowe firmy pokazują, jak głęboko powiązany stał się ekosystem sprzętu AI, a dominacja GPU Nvidii bezpośrednio napędza rekordową passę SK hynix.

Zablokowana pojemność i kolejna fala chipów AI

"Wyprzedaliśmy naszą pojemność DRAM, NAND i HBM na przyszły rok", powiedział Kim Kyu-hyun, szef marketingu DRAM w SK hynix. Potwierdził on również, że klienci zarezerwowali już sloty produkcyjne na rok 2026. SK hynix prawie nie będzie w stanie przyjąć nowych zamówień w przyszłym roku.

Firma przygotowuje się do zwiększenia produkcji pamięci HBM4 do końca 2025 roku. Jeśli zostanie to pomyślnie wdrożone, obiecuje to skok w przepustowości i efektywności energetycznej. Oczekuje się, że chipy nowej generacji będą podstawą nadchodzących procesorów AI i platform superkomputerowych Nvidii.

SK hynix podpisał również umowy na dostawy z OpenAI dla planowanego projektu superkomputera Stargate. Oczekuje się, że projekt ten ponad dwukrotnie zwiększy całkowite zapotrzebowanie branży na pamięci HBM.

Nowa hierarchia krzemowa AI

Wydajność SK hynixpokazuje większe przesunięcie mocy w technologii. Producenci pamięci są teraz kluczowymi graczami w infrastrukturze sztucznej inteligencji. "Zapotrzebowanie na HBM nadal szybko rośnie, więc podaż będzie trudna do nadrobienia w najbliższym czasie" - powiedział Kim Ki-tae, szef sprzedaży i marketingu HBM.

Citi Research prognozuje, że globalny rynek pamięci HBM osiągnie wartość 43 mld USD do 2027 r., a partnerstwo SK hynix i Nvidii pozycjonuje obie firmy w centrum boomu na półprzewodniki AI, pozostawiając Samsunga i Microna w wyścigu o nadrobienie zaległości.

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2025 10 > SK Hynix wyprzedaje swoje układy DRAM, NAND i HBM dla Nvidii do 2026 r., ponieważ popyt na sztuczną inteligencję przewyższa Samsunga i Microna
David Odejide, 2025-10-31 (Update: 2025-10-31)