Kiedy Jensen Huang w styczniu 2025 roku wyciągnął na scenie CES coś, co wyglądało jak ozdobna czekoladka i powiedział, że to superkomputer AI na każde biurko, sala zareagowała śmiechem połączonym z niedowierzaniem. Miał rację. NVIDIA DGX Spark to prawdziwy komputer do uruchamiania modeli o 200 miliardach parametrów lokalnie, bez chmury i bez serwera za 70 tysięcy dolarów.
Urządzenie trafiło do sprzedaży 15 października 2025 roku. Od tego dnia branżowe fora, recenzje na Mastadon i wątki na Hacker News wypełniły się dwiema grupami opinii: entuzjastami, którzy zamówili w ciągu pierwszych 24 godzin, i sceptykami pytającymi, czy ARM64 i Ubuntu to nie za dużo problemów dla typowego badacza AI przyzwyczajonego do x86 i Windowsa. Obie strony mają trochę racji. I właśnie o tym jest ten tekst.
Skąd wziął się DGX Spark, czyli jak „Project DIGITS” zmienił nazwę i cenę
NVIDIA ogłosiła projekt pod nazwą DIGITS na CES 5 stycznia 2025 roku z hasłem „superkomputer Grace Blackwell na każde biurko”. Wtedy mówiono o cenie 2 999 dolarów i premierze w maju lub czerwcu. Żadnego z tych terminów nie dotrzymano.
Na konferencji GTC Spring 19 marca 2025 roku projekt zmienił nazwę na DGX Spark, pojawiły się rezerwacje, ale dostępność przesunęła się na jesień. Wersja Founder’s Edition ruszyła ostatecznie za 3 999 USD w Micro Center i NVIDIA Marketplace jednocześnie, z dodatkiem złotej metalowej obudowy i dysku 4 TB. Podwyżka o tysiąc dolarów względem pierwszej zapowiedzi przyciągnęła komentarze: jedni mówili o „Apple’owym” sposobie budowania oczekiwań, inni po prostu zapłacili i zamówili.
Wersje OEM od ASUS-a, Dell’a, HP, Lenovo i Acera trafiły na rynek w różnych konfiguracjach cenowych. Na NVIDIA Marketplace standardowa cena to dziś 4 699 dolarów, ale ta kwota obejmuje kurs AI z platformy DLI (wartość 90 USD). Na Newegg można było złapać ten sam sprzęt za 4 399 USD, a Best Buy miał chwilowo ceny powyżej 5 000 dolarów. Rynek wtórny i arbitraż cenowy od razu stały się częścią historii tej premiery.
Specyfikacja techniczna: co siedzi w tej skrzynce
DGX Spark to obudowa o wymiarach 150 × 150 × 50,5 mm i masie 1,2 kg. Dla porównania: Mac mini M4 Pro ma 127 × 127 mm, więc Spark jest nieco większy, ale oba urządzenia spokojnie wchodzą na każde biurko. Sercem jest układ GB10 Grace Blackwell Superchip: 20 rdzeni ARM (10 Cortex-X925 + 10 Cortex-A725) połączonych z GPU Blackwell piątej generacji z Tensor Cores obsługującymi format FP4.
128 GB jednolitej pamięci LPDDR5x to jednocześnie RAM procesora i VRAM karty graficznej. Nie ma tu podziału na „pamięć systemową” i „pamięć GPU” w sensie, do którego przyzwyczaiły nas desktopowe karty PCIe. Wszystko to jeden adresowalny obszar; model AI widzi całą pulę bez transferów przez PCIe. To właśnie tam leży przewaga tej platformy.
| Parametr | Wartość |
|---|---|
| Układ | GB10 Grace Blackwell Superchip |
| Rdzenie CPU | 20 × ARM (10 × Cortex-X925 + 10 × Cortex-A725) |
| Wydajność AI | 1 petaFLOP (FP4, sparse) |
| Pamięć zunifikowana | 128 GB LPDDR5x |
| Dysk | 4 TB NVMe SSD |
| Sieć | 2 × QSFP (200 Gb/s łącznie) |
| Wymiary | 150 × 150 × 50,5 mm, 1,2 kg |
| System operacyjny | Ubuntu (ARM64) |
| Cena startowa | 3 999 USD (Founder’s Edition, X 2025) |
Modele do 200 miliardów parametrów działają tu lokalnie przy inferencji. Fine-tuning jest obsługiwany do 70 miliardów parametrów. To oznacza, że Llama 3.1 70B w precyzji FP16 (bez kwantyzacji) na DGX Sparku nie wymaga żadnego kompromisu. Dla porównania: uruchomienie tego samego modelu bez kwantyzacji na standardowym sprzęcie GPU wymaga co najmniej dwóch kart H100 80 GB podłączonych przez NVLink, a same karty kosztują ok. 60 000-70 000 dolarów, nie licząc obudowy i infrastruktury.

Zunifikowana pamięć: dlaczego 128 GB to tu coś innego niż gdzie indziej
Model językowy 70B w precyzji FP16 potrzebuje ok. 140 GB pamięci GPU (70 miliardów parametrów razy 2 bajty na każdy parametr FP16). Żadna pojedyncza karta GPU w standardowej konfiguracji nie ma tyle VRAM: H100 SXM5 ma 80 GB, RTX 4090 ma 24 GB. DGX Spark obsługuje ten sam model z jednej puli 128 GB… ale przy kwantyzacji do FP4, bo natywny FP16 przekracza fizyczną pojemność pamięci. To subtelna, ale ważna różnica.
Dwa DGX Sparki połączone przez porty QSFP obsługują modele do 405 miliardów parametrów. Przepustowość sieci to 200 Gb/s agregowanych; to wystarczy, żeby oba układy widziały wspólną pulę 256 GB z rozsądnymi opóźnieniami. Cluster z dwóch urządzeń kosztuje ok. 8 000-9 500 dolarów w zależności od sprzedawcy. Dla laboratorium akademickiego albo małego startupu to opcja, która jeszcze rok temu wymagała dedykowanego serwera i wsparcia administratorów.
Warto jednak pamiętać, że szybkość inferencji to nie to samo co rozmiar modelu, który możesz załadować. Apple M4 Ultra ze 192 GB RAM też uruchomi duże modele. Ale CUDA, NVFP4 i pipeline narzędzi NVIDIA (Isaac, Metropolis, Holoscan) to ekosystem (tutaj w sensie dosłownym: zbiór narzędzi), którego ARM od Apple po prostu nie ma. Jeśli twój workflow zaczyna się od Hugging Face Transformers z flagą device_map="cuda", DGX Spark da ci to natychmiast. Mac Studio da ci frustrację.
Największy problem: ARM64 i rzeczywistość ekosystemu CUDA
Tu robi się ciekawie… i trochę bolesnie. Simon Willison, jeden z pierwszych recenzentów, który dostał pre-release unit, opisał to wprost: sporo bibliotek i tutoriali zakłada x86, nie ARM64. Narzędzia działają, ale po drodze pojawiają się niespodzianki z Dockerem, zależnościami PyTorcha i wersjami CUDA skompilowanymi pod architekturę, która nie jest tą, którą masz.
NVIDIA odpowiedziała szybko: w ciągu tygodnia od premiery (październik 2025) udostępniono obszerne playbooki, instrukcję DGX Dashboard i zestaw gotowych kontenerów. Oprogramowanie w kolejnych miesiącach poprawiło wydajność o 2,5-krotność w stosunku do stanu w dniu premiery, co jest informacją zarówno dobrą (aktywny rozwój), jak i złą (premiera z wolnym oprogramowaniem). Per marzec 2026 ekosystem wygląda wyraźnie lepiej niż w październiku 2025.
Typowy badacz AI, który całe życie spędził na Windowsie z WSL2 lub na macOS z MLX, znajdzie tu nowe pułapki. Ale typowy badacz z dostępem do klastra HPC na Linuksie poczuje się jak w domu. To ważna informacja przy decyzji zakupowej.
DGX Spark vs alternatywy: porównanie dla osób, które muszą uzasadnić wydatek
| Urządzenie | Pamięć GPU/unif. | Maks. model lokalnie | Cena (USD) | Ekosystem |
|---|---|---|---|---|
| NVIDIA DGX Spark | 128 GB (unif.) | 200B (inferencja) | od 3 999 | CUDA, NVFP4, Ubuntu ARM64 |
| Apple Mac Studio M4 Ultra | 192 GB (unif.) | ~200B (z kwantyzacją) | od 3 999 | MLX, Metal, macOS |
| 2 × H100 80 GB (bez chassis) | 2 × 80 GB (oddzielne) | 70B FP16 (bez kwant.) | 60 000-70 000 | CUDA x86, pełna kompatybilność |
| RTX 5090 (desktop) | 32 GB GDDR7 | ~30B (z kwantyzacją) | ok. 2 000 | CUDA x86, pełna kompatybilność |
Mac Studio M4 Ultra to naprawdę poważna konkurencja cenowa, jeśli twoje środowisko to Python, Jupyter i MLX. Ma więcej pamięci fizycznej (192 GB w topowej wersji), sprawdzony ekosystem aplikacji i zero problemów z architekturą. Ale nie ma CUDA. Dla 90% zadań eksperymentalnych z LLM to nie problem; dla 10%, gdzie musisz użyć bibliotek ściśle powiązanych z NVIDIA, to bloker.
RTX 5090 z 32 GB GDDR7 kosztuje ok. 2 000 USD i jest dwa razy tańsza. Jednak 32 GB to twarda granica: modele powyżej ok. 30B parametrów wymagają kwantyzacji do 4-bitów, co obniża jakość wyjścia. DGX Spark z 128 GB zunifikowanej pamięci daje tu ponad czterokrotnie więcej przestrzeni na wagi modelu.

Kto kupuje DGX Spark i czy ma rację
TIME magazyn umieścił DGX Spark na liście najlepszych wynalazków 2025 roku. To miła odznaka, ale nie uzasadnia 4 000 dolarów dla każdego.
Kupuj DGX Spark, jeśli: pracujesz z modelami 70B+ i cenisz lokalną inferencję bez chmury (dane medyczne, kod własnościowy, modele przed publikacją); potrzebujesz CUDA i bibliotek z ekosystemu NVIDIA (Isaac do robotyki, Holoscan do wizji komputerowej w medycynie); twój workflow zaczyna się od docker pull nvcr.io/.... To sprzęt dla badaczy AI, data scientists w firmach z restrykcjami co do chmury i laboratoriów uczelnianych, które potrzebują mocnej stacji bez serwera.
Nie kupuj, jeśli: twój codzienny model to Llama 3.2 3B lub 7B z Ollama na laptopie; używasz głównie OpenAI API albo Claude przez API; zależy ci na pełnej kompatybilności z bibliotekami x86 bez debugowania. RTX 5090 w normalnym desktopie będzie wtedy szybsza przy inferencji mniejszych modeli i kosztuje połowę tej kwoty. A Mac Studio M4 Ultra to godny rywal dla wszystkich, którzy nie potrzebują CUDA.
Najczęściej zadawane pytania
Ile kosztuje NVIDIA DGX Spark w Polsce?
Oficjalna sprzedaż w Polsce odbywa się przez partnerów OEM (ASUS, Dell, HP, Lenovo). Cena bazowa to ok. 3 999-4 699 USD, co po przeliczeniu na złotówki i doliczeniu podatku VAT (23%) wynosi orientacyjnie 20 000-25 000 PLN w zależności od kursu i konfiguracji. Dostępność przez autoryzowanych dystrybutorów NVIDIA w Polsce była w Q1 2026 ograniczona; warto sprawdzać aktualne stany u lokalnych resellerów.
Czy DGX Spark działa z Windows?
Nie. Urządzenie działa pod Ubuntu (ARM64). Nie ma oficjalnego wsparcia dla Windows ani WSL2. Jeśli twoje narzędzia wymagają Windows lub x86, DGX Spark nie jest odpowiednim wyborem; wówczas lepiej rozważyć kartę RTX z desktopem x86.
Jak duże modele AI można uruchomić lokalnie na DGX Spark?
Przy inferencji: modele do 200 miliardów parametrów. Przy fine-tuningu: do 70 miliardów parametrów. Dwa połączone DGX Sparki (przez QSFP 200 Gb/s) obsługują inferencję modeli do 405 miliardów parametrów.
Czym różni się DGX Spark od DGX Station?
DGX Spark to mniejsza jednostka desktopowa; DGX Station to większy, droższy system do bardziej wymagających zadań treningowych. DGX Spark jest przeznaczony dla indywidualnych badaczy i małych teamów; DGX Station celuje w laboratoria i większe organizacje z poważnymi potrzebami obliczeniowymi.
Czy DGX Spark to dobry wybór zamiast Mac Studio M4 Ultra?
Zależy od workflow. Mac Studio M4 Ultra (od ok. 3 999 USD w topowej konfiguracji 192 GB) ma przewagę w kompatybilności z narzędziami na macOS i nie wymaga konfiguracji Linuksa. DGX Spark wygrywa, gdy potrzebujesz CUDA, NVFP4 lub narzędzi z ekosystemu NVIDIA. Przy czystym eksperymentowaniu z LLM oba urządzenia są porównywalne cenowo.
Czy można podłączyć dwa DGX Sparki razem?
Tak. Dwa urządzenia łączy się przez porty QSFP z przepustowością 200 Gb/s agregowanych, co daje dostęp do puli 256 GB zunifikowanej pamięci i umożliwia obsługę modeli do 405 miliardów parametrów. NVIDIA udostępnia gotowe instrukcje konfiguracji klastra na platformie DGX Spark.
Jakie modele AI działają na DGX Spark?
Wszystkie popularne modele open-source: Llama 3.x do 70B, DeepSeek do 70B, modele Google Gemma i inne udostępniane przez Hugging Face. NVIDIA preinstalluje swój stack AI z gotowymi kontenerami. Modele GPT-4 i Claude są dostępne tylko przez API (zewnętrzną chmurę), DGX Spark ich lokalnie nie uruchamia.
Czy DGX Spark to dobry zakup dla studenta lub samodzielnego badacza?
Szczerze? Przy ograniczonym budżecie nie. Dla osoby eksperymentującej z modelami do 30B parametrów karta RTX 5090 za ok. 2 000 USD jest szybsza przy inferencji i tańsza. DGX Spark zaczyna mieć sens, gdy regularnie pracujesz z modelami 70B+, zależy ci na lokalnej prywatności danych albo masz finansowanie badawcze.
Co z tego wynika dla twojego zakupu
DGX Spark jest dokładnie tym, czym NVIDIA chciała, żeby był: pierwszym osobistym superkomputerem AI, który pozwala uruchamiać modele klasy enterprise bez serwera za 70 000 dolarów. 1 petaFLOP FP4 i 128 GB zunifikowanej pamięci w obudowie mniejszej niż litr to naprawdę imponujące osiągnięcie inżynieryjne. TIME miał rację, wpisując Spark na listę wynalazków roku.
Ale uczciwe podsumowanie brzmi tak: jeśli twoja praca to trenowanie i testowanie modeli 70B+ w środowisku Linux z CUDA, ten sprzęt jest godny uwagi. Jeśli twój główny model to Llama 3.2 7B i piszesz w Python na Macu… zostaw te pieniądze na coś innego. Nie każde narzędzie do AI musi kosztować 20 000 zł.
Źródła i dalsze informacje
- NVIDIA. „DGX Spark: Personal AI Supercomputer.” nvidia.com
- Simon Willison. „NVIDIA DGX Spark: great hardware, early days for the ecosystem.” simonwillison.net, październik 2025
- TIME. „Nvidia DGX Spark: Best Inventions of 2025.” time.com
- IntuitionLabs. „NVIDIA DGX Spark Review: Specs, 2.5x performance gains.” intuitionlabs.ai, marzec 2026
- Robert McDermott. „The NVIDIA DGX Spark: hands-on review.” Medium, grudzień 2025







