게임이 훨씬 더 현실화될 것입니다.
- Windows에서의 게임은 점점 더 재미있고 상호 작용할 것입니다.
- NVIDIA는 최근 기조연설에서 ACE를 발표했으며 공개가 이루어졌습니다.
- 이 새로운 기술을 사용하여 NPC는 플레이어 캐릭터와 실시간으로 대화할 수 있습니다.
아직은 잘 아시겠지만 어제 대만에서 열린 Computex의 기조 연설에서 NVIDIA의 CEO인 Jensen Huang은 게임 개발자를 위한 새로운 기술을 선보였습니다.
그리고 네, 이 새로운 기술은 AI와 클라우드 서버를 사용하는 것과 관련이 있으며, 이는 회사의 새로운 큰 초점이 되었습니다.
아직 아무것도 망치지 않고 이 새로운 기술이 실제로 Microsoft의 채팅 GPT 그리고 구글의 음유 시인 AI 소프트웨어.
NPC 상호 작용이 점점 더 현실화됩니다.
이 신기술은 NVIDIA ACE(아바타 클라우드 엔진) 게임용. 이름처럼 가장 짧은 이름은 아니지만 약어를 사용할 수 있습니다.
실제로 개발자는 플레이어 캐릭터와 실시간으로 대화할 수 있는 NPC를 배치할 수 있습니다. 그러나 스크립트가 없고 ChatGPT, Bing Chat 및 음유 시인.
또한 NPC 얼굴 애니메이션이 대본이 없는 대화와 일치하도록 허용됩니다. 2023년 기술은 어떻습니까?
이를 통해 NeMo 모델 정렬 기술을 통해 NPC에 생명을 불어넣을 수 있습니다. 첫째, 기본 언어 모델이 지침에 따라 역할극 작업을 수행할 수 있도록 동작 복제를 사용합니다.
NPC의 행동을 기대에 더 잘 맞추려면 나중에 강화를 적용할 수 있습니다. RLHF(Learning from Human Feedback)를 통해 개발 중 설계자로부터 실시간 피드백을 받습니다. 프로세스.
이 회사는 또한 이러한 AI NPC가 NeMo Guardrails에 의해 제어되어 게이머에게 이상하거나 공격적인 말을 하지 않도록 할 것이라고 밝혔습니다.
위에서 볼 수 있듯이 NVIDIA는 YouTube에 게시된 ACE의 간략한 데모를 선보였습니다. 레이 트레이싱이 활성화된 Unreal Engine 5와 NPC 캐릭터 모델용 MetaHuman 기술로 제작되었습니다.
NVIDIA는 또한 게임에서 AI 캐릭터를 만드는 Convai라는 스타트업 회사의 기술을 사용했습니다.
Convai는 음성을 텍스트로 변환하고 텍스트를 음성으로 변환하는 기능을 위해 NVIDIA Riva를 사용했으며 NVIDIA NeMo를 사용했습니다. 대화를 주도하는 LLM 및 음성에서 AI 기반 얼굴 애니메이션을 위한 Audio2Face 입력.
데모에 표시된 AI NPC는 확실히 완벽하지 않습니다. 그의 말투는 매우 부자연스러워 보였고, 감히 말하건대 본질적으로 인공적이었습니다.
즉, 앞으로 몇 달, 몇 년 동안 말하기 패턴이 개선되고 더 자연스러워질 가능성이 높습니다.
그러나 NVIDIA는 게임 개발자가 ACE for Games를 언제 사용할 수 있는지 명시하지 않았으므로 너무 앞서 나가지 마십시오.
얼굴 애니메이션을 게임 캐릭터의 말과 일치시키는 Audio2Face 기술은 곧 출시될 두 가지 게임인 3인칭 공상과학 게임에 사용되고 있습니다. 포트 솔리스, 그리고 오랫동안 기다려온 포스트 아포칼립스 FPS 속편 스토커. 2: 체르노빌의 심장.
NVIDIA의 최근 소식에 대해 어떻게 생각하십니까? 아래 의견 섹션에서 의견을 공유하십시오.