Notebookcheck Logo

Darmowy, open-source'owy DeepSeek V3.2 Exp AI LLM debiutuje z niższymi kosztami obliczeniowymi, pomagając firmom zaoszczędzić jeszcze więcej pieniędzy

DeepSeek V3.2 Exp AI LLM wykorzystuje nowy projekt skąpej uwagi w celu zmniejszenia kosztów obliczeniowych przy zachowaniu podobnej wydajności w porównaniu z poprzednimi wersjami. (Źródło obrazu: DeepSeek)
DeepSeek V3.2 Exp AI LLM wykorzystuje nowy projekt skąpej uwagi w celu zmniejszenia kosztów obliczeniowych przy zachowaniu podobnej wydajności w porównaniu z poprzednimi wersjami. (Źródło obrazu: DeepSeek)
DeepSeek udostępnił DeepSeek-V3.2-Exp, eksperymentalny AI LLM zaprojektowany w celu zmniejszenia kosztów obliczeniowych przy jednoczesnym zachowaniu dobrej wydajności w porównaniu do poprzedniej wersji, DeepSeek-V3.1-Terminus. Model open-source można pobrać i używać bezpłatnie, podczas gdy publiczny interfejs API kosztuje ponad 50% mniej.
Launch AI Software Business Open Source

Firma DeepSeek wydała swój najnowszy model sztucznej inteligencji dla dużych języków, DeepSeek-V3.2-Exp, ze znacznie obniżonymi kosztami obliczeniowymi. Optymalizacja ta pomaga firmom korzystającym z API firmy w swoich aplikacjach zaoszczędzić pieniądze, zapewniając jednocześnie dostęp do inteligentnej sztucznej inteligencji, która zajęła 11. miejsce wśród najpotężniejszych LLM wydanych na całym świecie.

Osiągnięto to dzięki zastosowaniu nowego projektu DeepSeek Sparse Attention (DSA), aby skupić się na indeksowaniu tokenów nie z każdym innym tokenem, jak ma to miejsce w przypadku tradycyjnych transformatorów AI, ale tylko z tymi najbardziej istotnymi. Pozwala to sztucznej inteligencji na szybsze przetwarzanie tekstu wejściowego do okna 128 tys. tokenów przy mniejszym zużyciu pamięci.

Deweloperzy aplikacji uzyskujący dostęp do DeepSeek V3.2 Exp za pośrednictwem publicznego interfejsu API mogą oczekiwać, że zapłacą ponad 50% mniej niż za poprzednią wersję, zachowując porównywalną wydajność w standardowych testach porównawczych sztucznej inteligencji.

Oprogramowanie 400 GB AI LLM można pobrać bezpłatnie ze strony Hugging Face i uruchomić lokalnie na potężnych komputerach. Czytelnicy, którzy to zrobią, będą potrzebować systemu z wieloma procesorami graficznymi Nvidia H100/H200/H20 lub pojedynczym serwerem NVIDIA B200/GB200 ze względu na wymaganą przez ten model pamięć VRAM o pojemności ponad 1,5 TB.

Czytelnicy, którzy chcą uruchomić DeepSeek v3.2 na domowych komputerach stacjonarnych, będą musieli poczekać, aż skwantyzowane modele zostaną opublikowane na Hugging Face, , takie jak ten dla v3.1 autorstwa unslothaoraz posiadać procesor graficzny z co najmniej 24 GB pamięci, taki jak ten Nvidia 5090 na Amazon.

DeepSeek V3.2 Exp uplasował się na 11. miejscu wśród najpotężniejszych modeli sztucznej inteligencji dostępnych w momencie premiery. (Źródło obrazu: LMArena)
DeepSeek V3.2 Exp uplasował się na 11. miejscu wśród najpotężniejszych modeli sztucznej inteligencji dostępnych w momencie premiery. (Źródło obrazu: LMArena)
Koszty DeepSeek V3.2 Exp API dla twórców aplikacji zostały zmniejszone o ponad 50% w porównaniu do V3.1. (Źródło obrazu: DeepSeek)
Koszty DeepSeek V3.2 Exp API dla twórców aplikacji zostały zmniejszone o ponad 50% w porównaniu do V3.1. (Źródło obrazu: DeepSeek)
Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2025 10 > Darmowy, open-source'owy DeepSeek V3.2 Exp AI LLM debiutuje z niższymi kosztami obliczeniowymi, pomagając firmom zaoszczędzić jeszcze więcej pieniędzy
David Chien, 2025-10-11 (Update: 2025-10-11)