NVIDIA Blackwell w chmurze – nowa era AI już dostępna



Sztuczna inteligencja coraz bardziej wpływa na przemysł i codzienne życie, a jej rozwój wymaga ogromnej mocy obliczeniowej. Nowa platforma NVIDIA Blackwell, dostępna teraz w chmurze dzięki CoreWeave, otwiera nowe możliwości dla zaawansowanych modeli AI.

Rewolucja w obliczeniach AI dzięki NVIDIA Blackwell

Modele AI wymagają coraz większej wydajności, zwłaszcza w procesach rozumowania, które generują dodatkowe tokeny i obciążają infrastrukturę obliczeniową. Aby sprostać tym wyzwaniom, CoreWeave jako pierwszy dostawca usług chmurowych wprowadził instancje oparte na NVIDIA GB200 NVL72, czyniąc platformę Blackwell ogólnodostępną.

Nowe instancje zapewniają wyjątkową skalowalność i wydajność dzięki zastosowaniu:

  • 72 procesorów graficznych NVIDIA Blackwell połączonych przez NVLink,
  • 36 procesorów NVIDIA Grace,
  • możliwości skalowania do 110 000 GPU dzięki sieci NVIDIA Quantum-2 InfiniBand.

NVIDIA GB200 NVL72 – potęga w jednym module

NVIDIA GB200 NVL72 to rozwiązanie chłodzone cieczą, w którym 72 GPU mogą działać jako jedna jednostka obliczeniowa. To pozwala na:

  • 130 TB/s przepustowości NVLink,
  • wykorzystanie drugiej generacji silnika Transformer z obsługą FP4, co zwiększa wydajność AI,
  • znaczną redukcję kosztów operacyjnych przy jednoczesnym wzroście efektywności.

CoreWeave dostosowało swoją infrastrukturę chmurową do Blackwell, oferując rozwiązania takie jak:

  • CoreWeave Kubernetes Service – optymalizacja zarządzania obciążeniem,
  • Slurm on Kubernetes (SUNK) – inteligentne rozłożenie obciążeń w ramach GB200 NVL72,
  • CoreWeave Observability Platform – monitorowanie wydajności NVLink, wykorzystania GPU i temperatury.

Dodatkowo, zastosowanie sieci NVIDIA Quantum-2 InfiniBand zapewnia 400 Gb/s przepustowości na każde GPU, a BlueField-3 DPU wspiera elastyczność w chmurze.

Kompleksowa platforma AI dla firm

NVIDIA Blackwell to nie tylko hardware – to także zaawansowane oprogramowanie ułatwiające wdrażanie i rozwój modeli AI. Kluczowe komponenty obejmują:

  • NVIDIA Blueprints – gotowe, konfigurowalne przepływy pracy dla aplikacji AI,
  • NVIDIA NIM – zestaw mikrousług do wdrażania modeli AI,
  • NVIDIA NeMo – narzędzia do trenowania i dostosowywania modeli AI.

Te rozwiązania, dostępne w ramach NVIDIA AI Enterprise, umożliwiają budowanie i skalowanie agentów AI w chmurze CoreWeave.

Nowa era AI w chmurze CoreWeave

Wprowadzenie instancji NVIDIA GB200 NVL72 do chmury CoreWeave to kolejny krok w kierunku rewolucji AI. Firmy mogą teraz korzystać z niezwykle wydajnej infrastruktury do tworzenia i wdrażania inteligentnych agentów AI. Instancje są dostępne w regionie US-WEST-01, a ich wdrożenie jest możliwe przez CoreWeave Kubernetes Service.

To znaczący moment w rozwoju sztucznej inteligencji – platforma Blackwell w chmurze otwiera nowe możliwości dla firm i twórców AI na całym świecie.