Użytkownicy uczący się języka migowego mogą skorzystać z bogatej, zweryfikowanej biblioteki znaków ASL, by poszerzać swoje słownictwo. Unikalną funkcją platformy jest trójwymiarowy awatar, który demonstruje poszczególne znaki. Dodatkowo, dzięki wykorzystaniu AI, Signs analizuje obraz z kamery internetowej i udziela w czasie rzeczywistym informacji zwrotnych na temat poprawności wykonywanych znaków.
Platforma pozwala również ochotnikom — niezależnie od poziomu zaawansowania — na nagrywanie własnych interpretacji poszczególnych znaków, co przyczynia się do budowania bazy danych video ASL. Celem NVIDII jest stworzenie zbioru zawierającego 400 000 klipów wideo, obejmujących 1000 słów w języku migowym.
Jak podkreśla Cheri Dowling, dyrektor wykonawcza American Society for Deaf Children, większość niesłyszących dzieci rodzi się w rodzinach słyszących. Wczesny dostęp do narzędzi takich jak Signs może pomóc rodzicom rozpocząć naukę ASL już wtedy, gdy ich dziecko ma zaledwie 6-8 miesięcy. To kluczowe, by zbudować skuteczny kanał komunikacji od pierwszych lat życia.
Co istotne, każde słowo dodane do bazy danych Signs jest weryfikowane przez biegłych użytkowników ASL oraz tłumaczy języka migowego, co gwarantuje najwyższą jakość i precyzję prezentowanych znaków.
Plan NVIDII zakłada, że zebrane dane posłużą do dalszego rozwijania aplikacji AI, które zniwelują bariery komunikacyjne między społecznościami niesłyszących i słyszących. Publicznie dostępna baza danych umożliwi budowę nowych technologii — od agentów AI i cyfrowych awatarów po narzędzia do wideokonferencji, które będą w stanie w czasie rzeczywistym rozpoznawać i tłumaczyć ASL.
Twórcy Signs nie zatrzymują się jednak na obecnym etapie. Kolejne wersje platformy mają uwzględniać nie tylko ruchy rąk i palców, ale również mimikę twarzy i ruchy głowy — nieodłączny element ASL. Eksplorowane są także niuanse języka migowego, takie jak różnice regionalne czy slang, by wzbogacić bazę danych o kontekst kulturowy.
Współpraca z Rochester Institute of Technology’s Center for Accessibility and Inclusion Research pozwala na bieżąco testować i doskonalić narzędzie, by jak najlepiej odpowiadało na potrzeby użytkowników niesłyszących i słabosłyszących.
Każdy, kto chce wspierać rozwój ASL i sztucznej inteligencji, może już teraz rozpocząć naukę lub nagrać własne znaki na platformie Signs. W marcu uczestnicy konferencji NVIDIA GTC w San Jose będą mieli okazję przetestować funkcje platformy na żywo.
Więcej informacji znajdziesz na oficjalnej stronie projektu: signs-ai.com.
Rozwój dostępnych technologii języka migowego to nie tylko krok w stronę lepszego zrozumienia, ale i budowanie mostów między światami, które — dzięki takim inicjatywom jak Signs — stają się sobie coraz bliższe.