WhatsApp:8613480819877
Leave Your Message
Kategorie produktów
Polecane produkty

Komputer NVIDIA DGX Spark Super AI

Podstawowy opis produktu

NVIDIA DGX Spark to osobisty, stacjonarny superkomputer AI z systemem DGX, który można ustawić bezpośrednio na biurku. Jego wymiary to zaledwie Mac mini (150 mm × 150 mm × 50,5 mm, 1,2 kg), ale integruje on całą istotę najnowszej generacji architektury Grace Blackwell firmy NVIDIA, oferując programistom, badaczom i analitykom danych wrażenie „przeniesienia centrum danych z powrotem na pulpit”.

    Funkcje i zalety produktu

    Funkcjonalność i zalety produktu NVIDIA DGX Spark można podsumować jednym zdaniem: kondensuje on „moc obliczeniową AI na poziomie centrum danych” w cichym, małym urządzeniu na komputerze stacjonarnym, umożliwiając osobom fizycznym i małym zespołom tworzenie, debugowanie i wdrażanie dużych modeli niczym superkomputer. ) 1. Funkcja produktu (w czym może pomóc) Lokalne tworzenie i wnioskowanie dużych modeli. Pojedyncza maszyna może uruchamiać prototypy modeli językowych o 200 miliardach parametrów, dostrajać je i wnioskować bez polegania na procesorach graficznych w chmurze. Dwie jednostki mogą wnioskować o modelach o bardzo dużej skali, takich jak Llama-3.1-405B, poprzez połączenie NVLink-C2C. Bezpieczne i zgodne z przepisami prywatne środowisko AI. W scenariuszach, w których poufne dane, takie jak dane szpitali, finansów i administracji publicznej, nie mogą zostać przesłane do chmury, pełne badania i rozwój w zakresie AI procesów można przeprowadzić lokalnie. Nauczanie, badania i eksperymenty osobiste. Kursy uniwersyteckie, konkursy Kaggle, reprodukcja artykułów, plug and play, oszczędność kosztów zakupu i utrzymania serwerów. Akcelerator PoC (Proof of Concept) Małe zespoły przedsiębiorstw szybko weryfikują wykonalność algorytmów lokalnie, a po przejściu walidacji płynnie migrują je do chmury DGX lub centrów danych w celu szkolenia na dużą skalę, osiągając zerową liczbę zmian w kodzie między komputerem stacjonarnym a chmurą. Sztuczna inteligencja brzegowa i rozwój robotów. Uruchamiaj modele sztucznej inteligencji nowej generacji, takie jak model bazowy robota NVIDIA GR00T N1 i model świata Cosmos Reason, bezpośrednio napędzając prototypy robotów lub urządzenia brzegowe.
    Schemat komputerowy AI 3
    Schemat komputerowy AI 2
    2、 Główne zalety (dlaczego warto wybrać) Zalety wymiarowe Najwyższa wydajność 1000 TOPS (FP4)/1 PFLOPS mocy obliczeniowej AI, osiągająca poziom serwerów GPU centrów danych poprzedniej generacji. Niezwykle mała objętość 150 × 150 × 50,5 mm, 1,2 kg, możliwość przenoszenia jedną ręką, standardowe gniazdo zasilania 170 W, brak potrzeby chłodzenia w pomieszczeniu komputerowym. Bardzo duża zunifikowana pamięć 128 GB LPDDR5X z ujednoliconym adresowaniem, współdzielenie CPU/GPU, unikanie częstego kopiowania danych i poprawa wydajności dużych modeli. Gotowy do użycia, preinstalowany system operacyjny Ubuntu 22.04 DGX, PyTorch/TensorFlow, CUDA-X, NVIDIA NIM i inne kompletne stosy AI, ze zoptymalizowanymi sterownikami, kontenerami i bibliotekami. Bezproblemowa rozbudowa ConnectX-7 200 GbE+NVLink-C2C, umożliwiająca skalowanie poziome w klastry wielomaszynowe; Migracja tego samego kodu do DGX Cloud jednym kliknięciem bez konieczności refaktoryzacji. Ciche, energooszczędne, pasywne chłodzenie + cichy wentylator, poziom hałasu

    Obszary zastosowań produktu

    Chociaż NVIDIA DGX Spark to superkomputer AI klasy desktopowej, z mocą obliczeniową na poziomie 1 PFLOPS, 128 GB pamięci zunifikowanej i poborem mocy 170 W, może on już samodzielnie uruchamiać duże modele z 7-200 miliardami parametrów lokalnie. Dlatego jest szczególnie odpowiedni do przenoszenia dużych przepływów pracy AI, które mogłyby być realizowane wyłącznie w chmurze lub centrum danych, do środowiska „desktop/on-site/edge”.
    Poniżej przedstawiono typowe obszary zastosowań, które można wdrożyć bezpośrednio zgodnie ze scenariuszami branżowymi (★ oznacza zaletę „pojedynczej maszyny, która może obsługiwać duże modele”, co jest szczególnie przydatne w przypadku DGX Spark).
    Energia elektryczna i usługi publiczne
    ★ Harmonogramowanie inteligentnej sieci w czasie rzeczywistym
    Bazując na modelach wielkoskalowych do prognozowania obciążenia i prognozowania produkcji nowej energii, pojedyncza maszyna może obsługiwać sieć prognozowania szeregów czasowych o parametrach 70B z 15-minutową prognozą toczącą się, zastępując tradycyjną dwuwarstwową architekturę wnioskowania brzegowego w oparciu o szkolenie w chmurze.
    Instalacja na miejscu odbywa się w pomieszczeniu dyżurnym centrum dyspozytorskiego, a danych nie można przesyłać poza intranet, aby spełnić wymogi bezpieczeństwa i zgodności sieci energetycznej.
    ★ Konserwacja predykcyjna na poziomie sprzętu
    Korzystając z wizualnego modelu na dużą skalę w celu identyfikacji usterek na obrazach w świetle widzialnym i w podczerwieni bezzałogowych statków powietrznych/robotów podczas inspekcji, możliwe jest przeprowadzenie wnioskowania na podstawie 2000 obrazów 4K na sekundę lokalnie, co pozwala na „latanie i ocenianie w tym samym czasie”.
    Przeprowadzanie multimodalnej analizy fuzji metodą chromatografii wibracyjnej z wykorzystaniem oleju z wyładowaniami niezupełnymi w urządzeniach wysokiego napięcia, takich jak transformatory i GIS, oraz wczesne ostrzeganie o awariach z wyprzedzeniem 3–6 miesięcy.
    ★ Cyfrowy bliźniak sieci energetycznej i ćwiczeń awaryjnych
    Przeprowadź symulację przepływu w sieci elektroenergetycznej na poziomie 1000 węzłów i model uczenia się przez wzmacnianie, aby w ciągu kilku minut wygenerować strategie transferu. Możesz szybko przejrzeć ekstremalne scenariusze pogodowe w pomieszczeniu dyżurnym lub pojeździe dowodzenia w sytuacjach awaryjnych.
    Nowa energia i magazynowanie energii
    ★ Ultrakrótkoterminowa prognoza energii wiatrowej i słonecznej
    Pojedyncza maszyna obsługująca 34-calowy duży model meteorologiczny, integrujący dane z radaru, satelitarnych obrazów chmur i danych lidarowych dotyczących wiatru, aktualizowanych co 15 minut, co zmniejsza liczbę błędów o 15-20%.
    ★ Optymalizacja lokalnej strategii EMS w zakresie magazynowania energii
    Uruchom wielokryterialny model harmonogramowania (maksymalizacja przychodów, maksymalizacja żywotności baterii i kontrola zapotrzebowania) lokalnie w pomieszczeniu kontrolnym stacji magazynowania energii i w ciągu kilku sekund opracuj strategie ładowania i rozładowywania bez konieczności przesyłania ich z powrotem do chmury.
    ropa i gaz
    ★ Interpretacja trzęsień ziemi i prognozowanie deserów
    Lokalna sztuczna inteligencja generująca parametry 70 B służy do automatycznej interpretacji uskoków i piasków rzecznych na podstawie danych sejsmicznych zebranych przed i po ułożeniu skał, generując trójwymiarowe objętości prawdopodobieństwa dla punktów optymalnych. Personel interpretujący na miejscu może bezpośrednio wchodzić w interakcję z danymi i je modyfikować.
    ★ Prognozowanie ryzyka związanego z wierceniem i dokończeniem
    Zastosowanie hybrydowego modelu LSTM+Transformer do analizy danych z odwiertu w czasie rzeczywistym podczas wiercenia (MWD/LWD), ostrzeganie o ryzyku wystąpienia zacięć i zablokowania otworu wiertniczego z 5–10-minutowym wyprzedzeniem, a także możliwość wnioskowania w czasie rzeczywistym na poziomie 20 Hz przez pojedynczą maszynę.
    Energia jądrowa i cieplna
    ★ Monitorowanie poziomu bezpieczeństwa AI
    Uruchom 30-bitowy model fuzji wizualno-akustycznej w wewnętrznej sieci pomieszczenia kontrolnego elektrowni jądrowej, przeanalizuj w czasie rzeczywistym dane z monitoringu CCTV i dane z czujników akustycznych, a także wykryj wycieki i nietypowe szumy urządzeń, spełniając tym samym wymagania izolacji fizycznej sieci elektrowni jądrowej.
    ★ Optymalizacja spalania w elektrowniach cieplnych
    Strategia optymalizacji spalania oparta na głębokim uczeniu maszynowym (Deep Strength Learning), integrująca dane DCS w czasie rzeczywistym (temperatura, ciśnienie, zawartość tlenu), sterowanie pojedynczą maszyną w pętli zamkniętej w czasie 100 ms, redukująca zużycie węgla o 1-2%. Zintegrowany park energetyczny/mikrosieciowy/przemysłowy.
    ★ Mózg routera energetycznego na poziomie kampusu
    Wdróż DGX Spark w sali sterowania mikrosiecią, uruchom 50-bitowy model optymalizacji przepływu wielu energii, koordynuj w czasie rzeczywistym instalacje fotowoltaiczne, magazyny energii, stosy ładowania oraz skojarzone chłodzenie, ogrzewanie i zasilanie, a także osiągnij drugi poziom autonomii „magazynowania obciążenia sieci źródłowej”.
    ★ Rozliczanie i handel emisjami dwutlenku węgla online
    Lokalny model na dużą skalę odczytuje logi systemowe, takie jak EMS, MES, ERP itp., automatycznie generuje raporty emisji dwutlenku węgla z dokładnością do kilku minut i łączy się bezpośrednio z regionalnym interfejsem API giełdy emisji dwutlenku węgla, bez konieczności opuszczania parku. Podsumowanie w jednym zdaniu:
    Dzięki DGX Spark po raz pierwszy „duże modele, które można umieścić wyłącznie w chmurze/pomieszczeniach komputerowych” wprowadzono na linie produkcyjne, takie jak dyspozytornie sieci energetycznych, pomieszczenia dyżurne podstacji, stacje wspomagające farmy wiatrowe, sterownie stacji magazynowania energii, biura platform wiertniczych itp., uzyskując w ten sposób „dane nie są spoza terenu, modele nie są z chmury”, co znacznie zmniejsza ryzyko przekroczenia progów i zgodności z przepisami związane z wdrażaniem sztucznej inteligencji w branży energetycznej.

    Instrukcja obsługi produktu

    Instrukcja obsługi produktu NVIDIA DGX Spark
    (Dotyczy edycji detalicznej/założycielskiej wprowadzonej na rynek od lipca 2025 r.) Rozpakowanie i pierwsze włączenie zasilania
    Lista rzeczy do spakowania: Host, zasilacz z azotku galu o mocy 170 W (wraz z wtyczką do wielu krajów), kabel USB-C do C o długości 1 m, kabel Ethernet 10 GbE o długości 1 m, karta szybkiego startu, karta gwarancyjna.
    Kroki połączenia
    ① Podłącz zasilacz do portu USB-C PD 3.1 znajdującego się po lewej stronie obudowy;
    2. Podłącz HDMI 2.1 do monitora lub użyj kabla USB-C do DP/HDMI, aby podłączyć kilka ekranów;
    ③ Sieć przewodowa: RJ-45 podłączony do 10 GbE; Sieć bezprzewodowa: Po włączeniu wybierz Wi-Fi 7 zgodnie z wyświetlanymi instrukcjami;
    ④ Naciśnij górny przycisk zasilania na 1 sekundę, a kontrolka zmieni kolor z białego na niebieski, sygnalizując uruchomienie. Pierwsze uruchomienie zajmuje około 90 sekund, zanim pojawi się pulpit DGX OS.
    Inicjalizacja systemu i konta
    System domyślny: Ubuntu 22.04 LTS + NVIDIA DGX OS 5.2 (jądro 6.8 + CUDA 12.6). Kreator pierwszego uruchomienia
    ① Język → ② Strefa czasowa → ③ Utwórz konto administratora lokalnego (z uprawnieniami sudo) → ④ Wybierz, czy chcesz zarejestrować się w usłudze NVIDIA AI Enterprise (90-dniowy okres próbny).
    Zdalne SSH: W systemie zainstalowany jest wstępnie serwer OpenSSH. Uruchom po pierwszym nawiązaniu połączenia sieciowego.
    sudo systemctl enable --now ssh
    domyślny port

    Obsługa posprzedażowa i konserwacja produktu

    Komputer NVIDIA DGX Spark Super AI
    Przegląd kompleksowych usług posprzedażowych i konserwacyjnych
    (Dotyczy wersji detalicznej oficjalnie sprzedawanej na terenie Chin kontynentalnych od lipca 2025 r.)
    Oficjalna polityka gwarancyjna
    |Okres gwarancji | 3-letnia ograniczona gwarancja na całą maszynę (w tym hosta, zasilacz i dołączone kable) IT Home|
    |Rozpoczęcie gwarancji | Na podstawie daty wystawienia faktury lub daty produkcji plus 30 dni, w zależności od tego, co nastąpi wcześniej|
    |Okres gwarancji | Awarie sprzętu, wady oryginalnego oprogramowania sprzętowego, awarie preinstalowanego oprogramowania|
    |Zakres gwarancji | Uszkodzenia spowodowane przez człowieka, wnikanie wody, uderzenia pioruna, samodzielny demontaż, nieautoryzowane flashowanie oprogramowania sprzętowego

    opis2