NVIDIA przyspiesza naukę i inżynierię dzięki bibliotekom CUDA-X na superchipach GH200 i GB200



NVIDIA ponownie przesuwa granice obliczeń wysokowydajnych (HPC) i sztucznej inteligencji, wprowadzając biblioteki CUDA-X, które wykorzystują potencjał superchipów GH200 i GB200. Dzięki tym rozwiązaniom naukowcy i inżynierowie mogą przyspieszyć swoje obliczenia nawet 11-krotnie oraz prowadzić analizy obejmujące nawet 5 razy większe zestawy danych niż przy użyciu tradycyjnych architektur.

Nowe możliwości dla naukowców i inżynierów

CUDA-X, ogłoszone podczas konferencji NVIDIA GTC, zapewnia automatyczną integrację między CPU i GPU, co skutkuje ogromnym wzrostem wydajności w symulacjach inżynieryjnych, optymalizacji projektów i wielu innych dziedzinach. To kolejny krok w ewolucji obliczeń przyspieszonych, który ułatwia prowadzenie przełomowych badań w takich dziedzinach jak astronomia, fizyka cząstek, fizyka kwantowa, przemysł motoryzacyjny, lotnictwo oraz projektowanie układów scalonych.

Architektura Grace i NVLink-C2C – nowy poziom integracji CPU i GPU

Dzięki architekturze Grace CPU NVIDIA znacząco zwiększa przepustowość pamięci przy jednoczesnym zmniejszeniu zużycia energii. Kluczową rolę odgrywa także technologia NVLink-C2C, umożliwiająca bezpośrednią współdzieloną pamięć pomiędzy CPU a GPU. To oznacza, że programiści mogą pisać mniej skomplikowany kod, obsługiwać większe problemy obliczeniowe i uzyskiwać lepszą wydajność aplikacji.

Przyspieszenie solverów inżynieryjnych dzięki NVIDIA cuDSS

Superchipy NVIDIA pozwalają na jeszcze efektywniejsze wykorzystanie dostępnych zasobów CPU i GPU. Biblioteka cuDSS, zaprojektowana do rozwiązywania dużych problemów symulacyjnych z macierzami rzadkimi, umożliwia przyspieszenie analiz inżynieryjnych, takich jak optymalizacja projektów czy symulacje elektromagnetyczne.

Dzięki pamięci Grace GPU i interfejsowi NVLink-C2C użytkownicy mogą przetwarzać macierze, które wcześniej nie mieściły się w pamięci urządzenia. Przekłada się to na 4-krotne skrócenie czasu rozwiązywania najbardziej wymagających problemów obliczeniowych.

Firmy takie jak Ansys i Altair już wdrożyły cuDSS do swoich narzędzi. Ansys HFSS wykorzystuje cuDSS do przyspieszenia analiz elektromagnetycznych nawet 11-krotnie, a Altair OptiStruct zauważalnie poprawił wydajność swoich obliczeń metodą elementów skończonych.

Skalowanie pamięci dzięki superchipom GB200 i GH200

Architektury GB200 i GH200 otwierają nowe możliwości dla aplikacji ograniczonych dostępnością pamięci. W inżynierii precyzyjne symulacje często wymagają ogromnych zasobów obliczeniowych. Dzięki NVLink-C2C CPU i GPU mogą współdzielić pamięć, eliminując tradycyjne wąskie gardła.

Przykładem jest wykorzystanie NVIDIA Warp – frameworka Python do generowania danych i obliczeń przestrzennych – przez Autodesk. Przy użyciu ośmiu węzłów GH200 przeprowadzono symulacje o skali 48 miliardów komórek, co stanowi ponad 5-krotne zwiększenie w porównaniu do systemów opartych na H100.

Wspieranie badań nad komputerami kwantowymi z NVIDIA cuQuantum

Obliczenia kwantowe mają potencjał przyspieszenia wielu kluczowych problemów naukowych i przemysłowych. Jednak rozwój tej technologii zależy od symulacji skomplikowanych układów kwantowych. Biblioteka cuQuantum umożliwia efektywne modelowanie takich układów, obsługując zarówno symulacje wektorów stanów, jak i sieci tensorowych.

Dzięki GB200 i GH200 można skalować te symulacje w sposób wcześniej niemożliwy. W testach benchmarkowych system GH200 osiągnął do 3 razy wyższą wydajność w porównaniu do systemu H100 opartego na architekturze x86.

Przyszłość obliczeń przyspieszonych z CUDA-X

Od czasu premiery CUDA w 2006 roku NVIDIA zbudowała ponad 900 specjalistycznych bibliotek CUDA-X i modeli AI, otwierając nowe możliwości dla wielu dziedzin nauki i inżynierii. CUDA-X z superchipami GH200 i GB200 to kolejny krok w rewolucji obliczeniowej, który pozwala naukowcom i inżynierom szybciej osiągać przełomowe wyniki i rozwiązywać problemy o niespotykanej dotąd skali.