Los juegos están a punto de volverse mucho más reales
- Los juegos en Windows están a punto de volverse cada vez más divertidos e interactivos.
- NVIDIA presentó ACE durante un discurso de apertura reciente, donde se hicieron revelaciones.
- Con esta nueva tecnología, los NPC pueden hablar con los personajes de los jugadores en tiempo real.
Es posible que ya lo sepa, pero durante el discurso de apertura de ayer en Computex en Taiwán, el director ejecutivo de NVIDIA, Jensen Huang, mostró una nueva tecnología para los desarrolladores de juegos.
Y sí, esta nueva tecnología implica el uso de IA y servidores en la nube, que se ha convertido en el nuevo gran enfoque de la empresa.
Sin estropear nada todavía, solo sepa que esta nueva tecnología en realidad hará uso de Microsoft Chat GPT y de Google BARDO software de IA.
Las interacciones de NPC serán cada vez más reales
Esta nueva tecnología se llama NVIDIA ACE (motor de nube de Avatar) para juegos. No es el más corto de los nombres, pero puedes usar el acrónimo.
En verdad, permitirá a los desarrolladores colocar NPC que puedan hablar con los personajes de los jugadores en tiempo real, pero con un diálogo sin guión y alimentado por chatbots de IA similares a ChatGPT, Bing Chat y Bardo.
Además, también se le permitirá que las animaciones faciales de NPC coincidan con el diálogo sin guión. ¿Cómo es eso para una tecnología de 2023?
Con él, puedes dar vida a los NPC a través de las técnicas de alineación del modelo NeMo. Primero, emplee la clonación de comportamiento para permitir que el modelo de lenguaje base realice tareas de juego de roles de acuerdo con las instrucciones.
Para alinear aún más el comportamiento del NPC con las expectativas, en el futuro, puede aplicar refuerzo aprender de la retroalimentación humana (RLHF) para recibir retroalimentación en tiempo real de los diseñadores durante el desarrollo proceso.
La compañía también declaró que estos AI NPC están controlados por NeMo Guardrails, lo que con suerte evitará que digan cosas raras o incluso ofensivas a los jugadores.
Como puede ver arriba, NVIDIA mostró una breve demostración de ACE que se publicó en YouTube. Fue creado en Unreal Engine 5 con trazado de rayos habilitado y tecnología MetaHuman para modelos de personajes NPC.
NVIDIA también usó tecnología de una empresa nueva llamada Convai que está creando personajes de IA en los juegos.
Tenga en cuenta que Convai usó NVIDIA Riva para las funciones de voz a texto y de texto a voz, NVIDIA NeMo para el LLM que impulsa la conversación, y Audio2Face para la animación facial impulsada por IA a partir de la voz entradas.
El AI NPC que se muestra en la demostración definitivamente no es perfecto. Su forma de hablar parecía muy forzada y, nos atreveríamos a decir, de naturaleza artificial.
Dicho esto, es más que probable que los patrones del habla mejoren y se vuelvan más naturales en los próximos meses y años.
Sin embargo, NVIDIA no indicó cuándo estará disponible ACE for Games para los desarrolladores de juegos, así que no nos adelantemos demasiado.
La tecnología Audio2Face, que hace coincidir la animación facial con el habla de un personaje del juego, se utilizará en dos próximos juegos: el juego de ciencia ficción en tercera persona Fuerte Solís, y la tan esperada secuela post-apocalíptica FPS S.T.A.L.K.E.R. 2: Corazón de Chernobyl.
¿Qué piensas sobre estas noticias recientes de NVIDIA? Comparta sus opiniones con nosotros en la sección de comentarios a continuación.