Gamen staat op het punt veel realistischer te worden
- Gamen op Windows staat op het punt steeds leuker en interactiever te worden.
- NVIDIA presenteerde ACE tijdens een recente keynote, waar onthullingen werden gedaan.
- Met behulp van deze nieuwe technologie kunnen NPC's in realtime met spelerspersonages praten.
Je weet het nu misschien al, maar tijdens de keynote-toespraak van gisteren op Computex in Taiwan toonde NVIDIA's CEO, Jensen Huang, een nieuwe technologie voor game-ontwikkelaars.
En ja, deze nieuwe technologie omvat het gebruik van AI en cloudservers, wat de grote nieuwe focus van het bedrijf is geworden.
Zonder nog iets te bederven, weet gewoon dat deze nieuwe technologie daadwerkelijk gebruik zal maken van die van Microsoft GPT chatten en die van Google BARD AI-software.
NPC-interacties zullen steeds reëler worden
Deze nieuwe technologie heet NVIDIA ACE (Avatar Cloud-engine) voor spellen. Het is niet de kortste naam, zoals namen gaan, maar je kunt gewoon het acroniem gebruiken.
In werkelijkheid stelt het ontwikkelaars in staat om NPC's in te zetten die in realtime met spelerspersonages kunnen praten, maar met dialoog die niet is geschreven en wordt aangedreven door AI-chatbots vergelijkbaar met ChatGPT, Bing Chat en Bard.
Bovendien mogen de NPC-gezichtsanimaties overeenkomen met de niet-gescripte dialoog. Hoe is dat voor sommige technologie uit 2023?
Hiermee kun je NPC's tot leven brengen door middel van NeMo-modeluitlijningstechnieken. Gebruik eerst gedragsklonen om het basistaalmodel in staat te stellen rollenspeltaken uit te voeren volgens de instructies.
Om het gedrag van de NPC in de toekomst verder af te stemmen op de verwachtingen, kun je versterking toepassen leren van menselijke feedback (RLHF) om real-time feedback van ontwerpers te ontvangen tijdens de ontwikkeling proces.
Het bedrijf verklaarde ook dat deze AI NPC's worden bestuurd door NeMo Guardrails, waardoor ze hopelijk geen rare of zelfs aanstootgevende dingen tegen gamers zullen zeggen.
Zoals je hierboven kunt zien, toonde NVIDIA een korte demo van ACE die op YouTube was geplaatst. Het is gemaakt in Unreal Engine 5 met ray tracing ingeschakeld en MetaHuman-technologie voor NPC-personagemodellen.
NVIDIA gebruikte ook technologie van een startend bedrijf genaamd Convai dat AI-personages in games maakt.
Houd er rekening mee dat Convai NVIDIA Riva gebruikte voor spraak-naar-tekst- en tekst-naar-spraak-mogelijkheden, NVIDIA NeMo voor de LLM die het gesprek aanstuurt, en Audio2Face voor AI-aangedreven gezichtsanimatie van stem ingangen.
De AI NPC die in de demo wordt getoond, is zeker niet perfect. Zijn spraakpatroon leek erg hoogdravend en, laten we zeggen, kunstmatig van aard.
Dat gezegd hebbende, is het meer dan waarschijnlijk dat spraakpatronen de komende maanden en jaren zullen verbeteren en natuurlijker zullen worden.
NVIDIA heeft echter niet aangegeven wanneer ACE for Games beschikbaar zal zijn voor game-ontwikkelaars, dus laten we niet te veel op de zaken vooruitlopen.
Audio2Face-technologie, die de gezichtsanimatie koppelt aan de spraak van een gamekarakter, wordt gebruikt in twee aankomende games: de third-person sci-fi game Fort Solis, en het langverwachte post-apocalyptische FPS-vervolg S.T.A.L.K.E.R. 2: Hart van Tsjernobyl.
Wat vindt u van dit recente nieuws van NVIDIA? Deel uw mening met ons in de opmerkingen hieronder.