Modele AI wymagają coraz większej wydajności, zwłaszcza w procesach rozumowania, które generują dodatkowe tokeny i obciążają infrastrukturę obliczeniową. Aby sprostać tym wyzwaniom, CoreWeave jako pierwszy dostawca usług chmurowych wprowadził instancje oparte na NVIDIA GB200 NVL72, czyniąc platformę Blackwell ogólnodostępną.
Nowe instancje zapewniają wyjątkową skalowalność i wydajność dzięki zastosowaniu:
NVIDIA GB200 NVL72 to rozwiązanie chłodzone cieczą, w którym 72 GPU mogą działać jako jedna jednostka obliczeniowa. To pozwala na:
CoreWeave dostosowało swoją infrastrukturę chmurową do Blackwell, oferując rozwiązania takie jak:
Dodatkowo, zastosowanie sieci NVIDIA Quantum-2 InfiniBand zapewnia 400 Gb/s przepustowości na każde GPU, a BlueField-3 DPU wspiera elastyczność w chmurze.
NVIDIA Blackwell to nie tylko hardware – to także zaawansowane oprogramowanie ułatwiające wdrażanie i rozwój modeli AI. Kluczowe komponenty obejmują:
Te rozwiązania, dostępne w ramach NVIDIA AI Enterprise, umożliwiają budowanie i skalowanie agentów AI w chmurze CoreWeave.
Wprowadzenie instancji NVIDIA GB200 NVL72 do chmury CoreWeave to kolejny krok w kierunku rewolucji AI. Firmy mogą teraz korzystać z niezwykle wydajnej infrastruktury do tworzenia i wdrażania inteligentnych agentów AI. Instancje są dostępne w regionie US-WEST-01, a ich wdrożenie jest możliwe przez CoreWeave Kubernetes Service.
To znaczący moment w rozwoju sztucznej inteligencji – platforma Blackwell w chmurze otwiera nowe możliwości dla firm i twórców AI na całym świecie.