Spelandet är på väg att bli mycket mer verkligt
- Spel på Windows är på väg att bli mer och mer roligt och interaktivt.
- NVIDIA presenterade ACE under en ny keynote, där avslöjanden gjordes.
- Med denna nya teknik kan NPC: er prata med spelarkaraktärer i realtid.
Du kanske nu vet det ännu, men under gårdagens huvudtal på Computex i Taiwan visade NVIDIAs VD, Jensen Huang, upp en ny teknik för spelutvecklare.
Och ja, denna nya teknik involverar användning av AI och molnservrar, vilket har blivit företagets stora nya fokus.
Utan att förstöra något ännu, vet bara att den här nya tekniken faktiskt kommer att använda sig av Microsofts Chatta GPT och Googles BARD AI-programvara.
NPC-interaktioner kommer att bli allt mer verkliga
Denna nya teknik kallas NVIDIA ACE (Avatar Cloud Engine) för spel. Det är inte det kortaste av namn, som namn går, men du kan bara använda förkortningen.
I själva verket kommer det att tillåta utvecklare att lägga in NPC: er som kan prata med spelarkaraktärer i realtid, men med dialog som är icke-skriptad och drivs av AI-chatbots som liknar ChatGPT, Bing Chat och Bard.
Dessutom kommer du också att tillåtas att NPC-ansiktsanimationerna matchar dialogen utan manus. Hur är det för någon teknik från 2023?
Med den kan du ge liv till NPC: er genom NeMo-modelljusteringstekniker. Använd först beteendekloning för att göra det möjligt för basspråkmodellen att utföra rollspelsuppgifter enligt instruktionerna.
För att ytterligare anpassa NPC: s beteende till förväntningarna kan du i framtiden tillämpa förstärkning lära sig av mänsklig feedback (RLHF) för att få feedback i realtid från designers under utvecklingen bearbeta.
Företaget uppgav också att dessa AI NPC: er kontrolleras av NeMo Guardrails, vilket förhoppningsvis kommer att hålla dem från att säga konstiga eller till och med stötande saker till spelare.
Som du kan se ovan visade NVIDIA upp en kort demo av ACE som lades ut på YouTube. Den skapades i Unreal Engine 5 med ray tracing aktiverad och MetaHuman-teknik för NPC-karaktärsmodeller.
NVIDIA använde också teknik från ett startföretag som heter Convai som skapar AI-karaktärer i spel.
Tänk på att Convai använde NVIDIA Riva för tal-till-text och text-till-tal-funktioner, NVIDIA NeMo för LLM som driver samtalet och Audio2Face för AI-driven ansiktsanimering från röst ingångar.
AI NPC som visas i demot är definitivt inte perfekt. Hans talmönster verkade mycket uppstyltat och, vågar vi säga, artificiellt till sin natur.
Med detta sagt är det mer än troligt att talmönster kommer att förbättras och bli mer naturliga under de kommande månaderna och åren.
NVIDIA har dock inte angett när ACE for Games kommer att vara tillgängligt för spelutvecklare, så låt oss inte gå före oss själva.
Audio2Face-teknik, som matchar ansiktsanimationen med en spelkaraktärs tal, används i två kommande spel: tredjepersons sci-fi-spelet Fort Solis, och den efterlängtade postapokalyptiska FPS-uppföljaren S.T.A.L.K.E.R. 2: Heart of Chornobyl.
Vad tycker du om de senaste nyheterna från NVIDIA? Dela dina åsikter med oss i kommentarsfältet nedan.