O jogo está prestes a ficar muito mais real
- Os jogos no Windows estão prestes a se tornar cada vez mais divertidos e interativos.
- A NVIDIA apresentou o ACE durante uma palestra recente, onde foram feitas revelações.
- Usando essa nova tecnologia, os NPCs podem conversar com os personagens dos jogadores em tempo real.
Você já deve saber, mas durante o discurso de ontem na Computex em Taiwan, o CEO da NVIDIA, Jensen Huang, mostrou uma nova tecnologia para desenvolvedores de jogos.
E sim, essa nova tecnologia envolve o uso de IA e servidores em nuvem, que se tornaram o novo grande foco da empresa.
Sem estragar nada ainda, apenas saiba que esta nova tecnologia realmente fará uso do Microsoft Bate-papo GPT e do Google BARDO software de IA.
As interações dos NPCs se tornarão cada vez mais reais
Essa nova tecnologia é chamada NVIDIA ACE (Avatar Cloud Engine) para Jogos. Não é o menor dos nomes, como os nomes dizem, mas você pode usar apenas o acrônimo.
Na verdade, permitirá que os desenvolvedores coloquem NPCs que podem conversar com os personagens dos jogadores em tempo real, mas com diálogo sem script e alimentado por chatbots de IA semelhantes ao ChatGPT, Bing Chat e Bardo.
Além disso, você também terá permissão para que as animações faciais do NPC correspondam ao diálogo sem script. Como é isso para alguma tecnologia de 2023?
Com ele, você pode dar vida aos NPCs por meio de técnicas de alinhamento de modelo NeMo. Primeiro, empregue a clonagem de comportamento para permitir que o modelo de linguagem base execute tarefas de representação de papéis de acordo com as instruções.
Para alinhar ainda mais o comportamento do NPC com as expectativas, no futuro, você pode aplicar reforço aprendendo com o feedback humano (RLHF) para receber feedback em tempo real dos designers durante o desenvolvimento processo.
A empresa também afirmou que esses NPCs de IA são controlados por NeMo Guardrails, o que os impedirá de dizer coisas estranhas ou mesmo ofensivas aos jogadores.
Como você pode ver acima, a NVIDIA exibiu uma breve demonstração do ACE que foi postada no YouTube. Foi criado no Unreal Engine 5 com ray tracing habilitado e tecnologia MetaHuman para modelos de personagens NPC.
A NVIDIA também usou a tecnologia de uma empresa iniciante chamada Convai, que está criando personagens de IA em jogos.
Lembre-se de que a Convai usou NVIDIA Riva para recursos de fala para texto e texto para fala, NVIDIA NeMo para o LLM que conduz a conversa e Audio2Face para animação facial baseada em IA a partir de voz entradas.
O AI NPC mostrado na demo definitivamente não é perfeito. Seu padrão de fala parecia muito afetado e, ousamos dizer, de natureza artificial.
Dito isto, é mais do que provável que os padrões de fala melhorem e se tornem mais naturais nos próximos meses e anos.
No entanto, a NVIDIA não informou quando o ACE for Games estará disponível para desenvolvedores de jogos, então não vamos nos antecipar.
A tecnologia Audio2Face, que combina a animação facial com a fala de um personagem do jogo, está sendo usada em dois jogos futuros: o jogo de ficção científica em terceira pessoa Forte Solis, e a tão esperada sequência FPS pós-apocalíptica PERSEGUIDOR. 2: Coração de Chornobyl.
Quais são seus pensamentos sobre esta notícia recente da NVIDIA? Compartilhe suas opiniões conosco na seção de comentários abaixo.