Jocurile sunt pe cale să devină mult mai reale
- Jocurile pe Windows sunt pe cale să devină din ce în ce mai distractive și interactive.
- NVIDIA a prezentat ACE în timpul unei conferințe recente, în care au fost făcute dezvăluiri.
- Folosind această nouă tehnologie, NPC-urile pot vorbi cu personajele jucătorilor în timp real.
Poate că acum îl știți încă, dar în timpul discursului principal de ieri la Computex din Taiwan, CEO-ul NVIDIA, Jensen Huang, a prezentat o nouă tehnologie pentru dezvoltatorii de jocuri.
Și da, această nouă tehnologie implică utilizarea AI și a serverelor cloud, care a devenit noul obiectiv al companiei.
Fără a strica nimic încă, trebuie să știți că această nouă tehnologie va folosi de fapt cea Microsoft Chat GPT și Google BARD Software AI.
Interacțiunile NPC vor deveni din ce în ce mai reale
Această nouă tehnologie se numește NVIDIA ACE (Avatar Cloud Engine) pentru Jocuri. Nu este cel mai scurt dintre nume, așa cum sunt numele, dar puteți folosi doar acronimul.
Într-adevăr, va permite dezvoltatorilor să introducă NPC-uri care pot vorbi cu personajele jucătorilor în timp real, dar cu dialog care nu este scriptat și alimentat de chatbot-uri AI similare cu ChatGPT, Bing Chat și Bard.
În plus, vi se va permite și animațiile faciale NPC să se potrivească cu dialogul fără scenariu. Cum e asta pentru o tehnologie din 2023?
Cu el, puteți aduce viață NPC-urilor prin tehnicile de aliniere a modelelor NeMo. În primul rând, folosiți clonarea comportamentului pentru a permite modelului limbajului de bază să realizeze sarcini de joc de rol conform instrucțiunilor.
Pentru a alinia și mai mult comportamentul NPC-ului cu așteptările, în viitor, puteți aplica întărire învățând din feedbackul uman (RLHF) pentru a primi feedback în timp real de la designeri în timpul dezvoltării proces.
Compania a mai declarat că aceste NPC-uri AI sunt controlate de NeMo Guardrails, ceea ce sperăm că îi va împiedica să spună lucruri ciudate sau chiar ofensatoare jucătorilor.
După cum puteți vedea mai sus, NVIDIA a prezentat o scurtă demonstrație a ACE care a fost postată pe YouTube. A fost creat în Unreal Engine 5 cu ray tracing activat și tehnologia MetaHuman pentru modelele de personaje NPC.
NVIDIA a folosit, de asemenea, tehnologie de la o companie startup numită Convai, care creează personaje AI în jocuri.
Rețineți că Convai a folosit NVIDIA Riva pentru capacități de transmitere a vorbirii în text și text în vorbire, NVIDIA NeMo pentru LLM care conduce conversația și Audio2Face pentru animație facială bazată pe inteligență artificială din voce intrări.
NPC-ul AI prezentat în demonstrație nu este cu siguranță perfect. Tiparul lui de vorbire părea foarte înclinat și, îndrăznim să spunem, de natură artificială.
Acestea fiind spuse, este mai mult ca probabil ca modelele de vorbire să fie îmbunătățite și să devină mai naturale în lunile și anii următori.
Cu toate acestea, NVIDIA nu a precizat când va fi disponibil ACE pentru jocuri pentru dezvoltatorii de jocuri, așa că să nu ne avansăm prea mult.
Tehnologia Audio2Face, care potrivește animația facială cu discursul unui personaj din joc, este folosită în două jocuri viitoare: jocul științifico-fantastic la persoana a treia. Fortul Solis, și mult așteptata continuare post-apocaliptică FPS HĂRȚUITOR. 2: Inima din Chornobyl.
Ce părere aveți despre această știre recentă de la NVIDIA? Împărtășiți-vă opiniile cu noi în secțiunea de comentarii de mai jos.