Jednym z najważniejszych tematów, które zostaną poruszone podczas GTC 2025, jest rola kart graficznych RTX w rozwoju sztucznej inteligencji. Te nowoczesne GPU, wyposażone w specjalistyczne rdzenie Tensor, oferują moc obliczeniową niezbędną do obsługi nawet najbardziej wymagających modeli AI. Dzięki nim możliwe jest tworzenie cyfrowych ludzi, chatbotów czy podcastów generowanych przez AI.
Z ponad 100 milionami użytkowników GeForce RTX i NVIDIA RTX™, programiści mają ogromny rynek zbytu dla nowych aplikacji AI. Podczas sesji „Buduj cyfrowych ludzi, chatboty i podcasty generowane przez AI dla komputerów RTX”, Annamalai Chockalingam — starszy menedżer produktów w NVIDIA — zaprezentuje kompleksowe narzędzia, które ułatwiają tworzenie i błyskawiczne wdrażanie aplikacji wspomaganych sztuczną inteligencją.
Modele językowe (LLM) znajdują szerokie zastosowanie — od generowania kodu po tłumaczenia językowe. Jednak ogromne modele, trenowane na szerokim zakresie danych, nie zawsze są najlepszym rozwiązaniem dla konkretnych zadań, takich jak generowanie dialogów NPC w grach komputerowych. W takich przypadkach mniejsze modele językowe oferują idealne połączenie dokładności i wydajności, działając lokalnie na urządzeniach.
Podczas sesji „Uważaj na język: Twórz małe modele językowe, które działają na urządzeniu”, Oluwatobi Olabiyi z NVIDIA przedstawi narzędzia i techniki pozwalające na generowanie, selekcję i destylację danych, a następnie trenowanie małych modeli językowych dostosowanych do określonych zadań.
Optymalizacja działania AI na stacjach roboczych z systemem Windows wymaga strategicznego dostrajania zarówno sprzętu, jak i oprogramowania. Sesja „Optymalizacja obciążeń AI na stacjach roboczych Windows: Strategie i najlepsze praktyki” skupi się na metodach takich jak kwantyzacja modeli, usprawnianie przepływów wnioskowania (inference pipelines) oraz dostrajanie sprzętowe.
Eksperci NVIDIA pokażą także, jak maksymalizować wydajność AI przy użyciu ONNX Runtime, NVIDIA TensorRT i llama.cpp, optymalizując działanie modeli na GPU, CPU i NPU.
Budowanie, testowanie i wdrażanie modeli AI lokalnie pozwala zachować pełną kontrolę nad danymi i wydajnością, bez konieczności łączenia się z usługami chmurowymi. Dzięki kartom RTX i rozwiązaniom AI od Z by HP, programiści mogą trenować i wdrażać modele AI na miejscu, chroniąc swoją własność intelektualną.
Warto zwrócić uwagę na następujące sesje:
NVIDIA wprowadza również NIM — mikroserwisy AI zoptymalizowane pod kątem generatywnej AI. Umożliwiają one prostą integrację z aplikacjami poprzez standardowe API. Pierwsza publiczna wersja beta obejmuje:
Konferencja GTC 2025 to ponad 1000 sesji, 300 wystaw i unikalne wydarzenia networkingowe. Kluczowym punktem programu będzie wystąpienie założyciela i CEO NVIDIA, Jensena Huanga, który przedstawi najnowsze innowacje w dziedzinie AI.
Jeśli interesuje cię przyszłość sztucznej inteligencji i chcesz dowiedzieć się, jak wykorzystać moc RTX AI PC oraz stacji roboczych w swojej pracy — GTC 2025 to wydarzenie, którego nie możesz przegapić.