Nvidia zapowiedziała nową linię osobistych superkomputerów ze sztuczną inteligencją, bazujących na platformie Grace Blackwell. Nowe urządzenia, przeznaczone głównie dla programistów AI, badaczy oraz specjalistów zajmujących się prototypowaniem i doskonaleniem modeli, mają usprawnić pracę z dużymi modelami sztucznej inteligencji.
Podczas oficjalnej prezentacji, dyrektor generalny Nvidii, Jensen Huang, zaprezentował dwa nowe modele superkomputerów osobistych: DGX Spark oraz DGX Station. Urządzenia te pozwalają na tworzenie, testowanie i wdrażanie modeli sztucznej inteligencji na poziomie lokalnym, umożliwiając jednocześnie płynną migrację do chmury.
„To komputer dla ery technologii AI. Sztuczna inteligencja przekształciła każdą warstwę stosu obliczeniowego. Jest rzeczą oczywistą, że powstanie nowa klasa komputerów przeznaczonych dla programistów zajmujących się AI i aplikacjami opartymi na tej technologii. Dzięki nowym komputerom osobistym DGX AI technologie AI mogą rozszerzyć się z chmury na aplikacje stacjonarne i brzegowe” – powiedział Huang. Dodał również, że Nvidia obecnie oferuje pełną gamę rozwiązań, obejmującą zarówno niewielkie urządzenia, jak i zaawansowane stacje robocze.
DGX Spark – najmniejszy superkomputer AI
DGX Spark to kompaktowy superkomputer AI, oparty na superprocesorze GB10 Grace Blackwell, zoptymalizowanym pod kątem komputerów stacjonarnych. Wyposażony w procesor graficzny Tensor Core piątej generacji, osiąga wydajność na poziomie 1 petaflopsa FP4 (1000 bilionów operacji na sekundę). Centralna jednostka obliczeniowa zawiera 20 rdzeni, w tym dziesięć Arm Cortex-X925 i dziesięć Cortex-A725. Całość działa na systemie operacyjnym DGX OS.
Zaletą DGX Spark jest jego zdolność do płynnej migracji modeli AI z komputerów stacjonarnych do chmury DGX Cloud lub innych rozwiązań chmurowych. Oznacza to minimalne wymagania dotyczące zmian w kodzie, co ułatwia iteracyjne dostosowywanie i wdrażanie modeli.
DGX Station – moc centrum danych w kompaktowej obudowie
DGX Station to rozwiązanie zapewniające wydajność porównywalną z centrami danych, ale w kompaktowej formie. Jest to pierwsza stacja robocza oparta na akceleratorze GB300 wykorzystującym architekturę Grace Blackwell.
Wyposażona w procesor Blackwell Ultra z najnowszą generacją rdzeni Tensor oraz 72-rdzeniowy procesor Grace (bazujący na Arm Neoverse V2), oferuje maksymalną wydajność 20 Pflops FP4. System posiada 784 GB pamięci spójnej, w tym 288 GB pamięci HBM3e i 496 GB pamięci LPDDR5X.
Stacja DGX jest wyposażona w kartę sieciową ConnectX-8 SuperNIC, zoptymalizowaną pod kątem obciążeń wymagających dużej skali obliczeniowej, obsługującą sieci o przepustowości do 800 Gb/s. Dzięki integracji z platformą Nvidia CUDA-X, użytkownicy mogą osiągnąć znaczną wydajność w zakresie budowy modeli AI na poziomie lokalnym.
Nowoczesna architektura Blackwell
Nowa generacja układów GPU Nvidia Blackwell została nazwana na cześć amerykańskiego matematyka Davida Blackwella. Superchip Grace Blackwell wykorzystuje technologię NVLink-C2C, która umożliwia ultra-szybką komunikację między procesorem CPU a GPU, zapewniając pięciokrotnie większą przepustowość niż PCIe 5.0. Układ ten został opracowany we współpracy z MediaTek i łączy 20-rdzeniowy procesor Nvidia Grace z najnowszym GPU Blackwell.
Dzięki wbudowanej pamięci 128 GB oraz obsłudze do 4 TB pamięci masowej NVMe, nowa architektura znacząco optymalizuje przetwarzanie dużych zbiorów danych i przyspiesza dystrybucję obliczeń między CPU a GPU.
Nowe urządzenia trafią do sprzedaży w najbliższych miesiącach, a eksperci przewidują, że staną się one kluczowym elementem w ekosystemie AI dla profesjonalistów i firm technologicznych na całym świecie.