Trish Damkroger, wiceprezes i dyrektor generalna ds. HPC i AI Infrastructure Solutions w HPE, podkreśla, że nowy system zapewnia najwyższą wydajność, skalowalność oraz szybkie wdrożenie. HPE, jako twórca trzech najszybszych systemów na świecie z chłodzeniem cieczą, oferuje klientom niższy koszt szkolenia modeli AI i optymalne zużycie energii.
NVIDIA GB200 NVL72 to system z pamięcią współdzieloną i architekturą niskiej latencji, idealny do obsługi modeli AI przekraczających bilion parametrów. Zintegrowane procesory NVIDIA Grace oraz akceleratory Blackwell pozwalają na maksymalne przyspieszenie zadań wymagających równoczesnych obliczeń, takich jak trenowanie modeli generatywnych AI (GenAI) i wnioskowanie.
Bob Pette, wiceprezes ds. platform enterprise w NVIDIA, podkreśla, że zaawansowana technologia chłodzenia cieczą pozwala na dostosowanie się do rosnących wymagań obliczeniowych i energetycznych.
HPE posiada ponad 50-letnie doświadczenie w zakresie chłodzenia cieczą, co pozwala firmie oferować szybkie wdrożenie oraz kompleksowe wsparcie infrastrukturalne dla skomplikowanych systemów. Firma stworzyła osiem z 15 najbardziej energooszczędnych superkomputerów na liście Green500 oraz siedem z dziesięciu najszybszych superkomputerów na świecie.
HPE oferuje szeroki wachlarz usług dostosowanych do indywidualnych potrzeb klientów. Wsparcie obejmuje:
Nowy system NVIDIA GB200 NVL72 to jeden z wielu zaawansowanych systemów obliczeniowych HPE, zaprojektowanych z myślą o sztucznej inteligencji, odkryciach naukowych i intensywnych obliczeniowo zadaniach. Więcej informacji o portfolio NVIDIA AI Computing by HPE można znaleźć na stronie internetowej producenta.