A játék hamarosan sokkal valóságosabb lesz
- A játék Windows rendszeren egyre szórakoztatóbb és interaktívabb lesz.
- Az NVIDIA a közelmúltban tartott vitaindítón mutatta be az ACE-t, ahol felfedték.
- Ezzel az új technológiával az NPC-k valós időben tudnak beszélni a játékos karakterekkel.
Lehet, hogy most még ismeri, de a tajvani Computex tegnapi vitaindító beszéde során az NVIDIA vezérigazgatója, Jensen Huang egy új technológiát mutatott be a játékfejlesztők számára.
És igen, ez az új technológia magában foglalja a mesterséges intelligencia és a felhőszerverek használatát, amely a vállalat nagy új fókuszává vált.
Anélkül, hogy bármit is elrontanánk, csak tudd, hogy ez az új technológia valóban a Microsoft technológiáját fogja használni Chat GPT és a Google-é DALNOK AI szoftver.
Az NPC interakciók egyre valóságosabbak lesznek
Ezt az új technológiát az ún NVIDIA ACE (Avatar Cloud Engine) a Games számára. Ez nem a legrövidebb név, ahogy a nevek mondják, de használhatod a betűszót is.
Valójában ez lehetővé teszi a fejlesztők számára, hogy olyan NPC-ket helyezzenek be, amelyek valós időben tudnak beszélni a játékos karaktereivel, de olyan párbeszéddel, amelyet nem írnak alá, és olyan AI chatbotok hajtanak végre, amelyek hasonlóak a ChatGPT-hez, a Bing Chathez és Dalnok.
Ezenkívül az NPC arcanimációi is illeszkedhetnek a nem forgatókönyvezett párbeszédekhez. Hogy van ez néhány 2023-as technológiával?
Ezzel életre keltheti az NPC-ket a NeMo modell-illesztési technikák segítségével. Először is alkalmazzon viselkedés klónozást, hogy az alapnyelvi modell az utasítások szerint tudjon szerepjátékos feladatokat végrehajtani.
Az NPC viselkedésének az elvárásokhoz való további összehangolása érdekében a jövőben megerősítést alkalmazhat tanulás az emberi visszajelzésekből (RLHF), hogy valós idejű visszajelzést kapjon a tervezőktől a fejlesztés során folyamat.
A cég azt is kijelentette, hogy ezeket az AI NPC-ket a NeMo Guardrails irányítja, ami remélhetőleg megakadályozza, hogy furcsa vagy akár sértő dolgokat mondjanak a játékosoknak.
Mint fentebb látható, az NVIDIA bemutatta az ACE rövid bemutatóját, amelyet a YouTube-on tettek közzé. Az Unreal Engine 5-ben készült, sugárkövetéssel és MetaHuman technológiával az NPC karaktermodellekhez.
Az NVIDIA a Convai nevű startup cég technológiáját is felhasználta, amely AI karaktereket hoz létre a játékokban.
Ne feledje, hogy a Convai az NVIDIA Rivát használta a beszéd-szöveg és a szöveg-beszéd képességekhez, az NVIDIA NeMo a beszélgetést irányító LLM számára, valamint az Audio2Face a mesterséges intelligencia által vezérelt arcanimációhoz hangból bemenetek.
A demóban látható AI NPC határozottan nem tökéletes. Beszédmintája nagyon szaggatottnak és, merjük mondani, mesterségesnek tűnt.
Ennek ellenére több mint valószínű, hogy a beszédminták javulni fognak, és természetesebbek lesznek az elkövetkező hónapokban és években.
Az NVIDIA azonban nem közölte, hogy az ACE for Games mikor lesz elérhető a játékfejlesztők számára, ezért ne menjünk túl magunk elé.
Az Audio2Face technológiát, amely az arc animációját a játékkarakter beszédéhez igazítja, két közelgő játékban használják: a harmadik személyű sci-fi játékban. Fort Solis, és a várva várt poszt-apokaliptikus FPS-folytatás ORVVADÁSZ. 2: Csernobil szíve.
Mi a véleménye az NVIDIA friss híréről? Ossza meg velünk véleményét az alábbi megjegyzések részben.