ゲームはさらにリアルなものになろうとしています
- Windows でのゲームは、ますます楽しく、インタラクティブなものになろうとしています。
- NVIDIA は最近の基調講演で ACE を発表し、そこで明らかになりました。
- この新しいテクノロジーを使用すると、NPC はリアルタイムでプレイヤー キャラクターと会話できるようになります。

もうご存知かもしれませんが、台湾の Computex での昨日の基調講演で、NVIDIA の CEO であるジェンスン ファンはゲーム開発者向けの新しいテクノロジーを披露しました。
そしてそうです、この新しい技術には AI とクラウド サーバーの使用が含まれており、これが同社の新たな大きな焦点となっています。
まだ何もネタバレするつもりはありませんが、この新しい技術は実際に Microsoft の チャット GPT そしてGoogleの 吟遊詩人 AI ソフトウェア。
NPCのやり取りがますますリアルになる
この新しい技術は次のように呼ばれます NVIDIA ACE (アバター クラウド エンジン) ゲーム用。 これは名前の中でも最も短い名前ではありませんが、単に頭字語を使用することができます。
実際のところ、開発者はリアルタイムでプレイヤー キャラクターと会話できる NPC を配置できるようになります。 ただし、対話はスクリプト化されておらず、ChatGPT、Bing Chat、および 吟遊詩人。
さらに、NPC の顔のアニメーションをスクリプト以外のダイアログと一致させることもできます。 2023 年のテクノロジーについてはどうでしょうか?
これを使用すると、NeMo モデル調整テクニックを通じて NPC に命を吹き込むことができます。 まず、動作の複製を使用して、基本言語モデルが指示に従ってロールプレイング タスクを実行できるようにします。
NPC の動作を期待とさらに一致させるために、将来的には強化を適用できます。 人間のフィードバック (RLHF) から学習して、開発中にデザイナーからリアルタイムのフィードバックを受け取る プロセス。
同社はまた、これらの AI NPC は NeMo ガードレールによって制御されており、ゲーマーに対して奇妙なことや攻撃的なことを言わないようにすることが期待されると述べています。
上で見られるように、NVIDIA は YouTube に投稿された ACE の簡単なデモを披露しました。 これは、レイ トレーシングが有効になり、NPC キャラクター モデル用の MetaHuman テクノロジーを使用して Unreal Engine 5 で作成されました。
NVIDIA は、ゲーム内で AI キャラクターを作成している Convai という新興企業のテクノロジーも使用しました。
Convai は、音声合成およびテキスト読み上げ機能に NVIDIA Riva、NVIDIA NeMo を使用していたことに留意してください。 会話を促進する LLM には、音声による AI を活用した顔のアニメーション用の Audio2Face が含まれます。 入力。
デモで示された AI NPC は決して完璧ではありません。 彼のスピーチパターンは非常に堅苦しく、あえて言えば本質的に人工的であるように見えました。
そうは言っても、今後数か月、数年のうちに発話パターンが改善され、より自然になる可能性は十分にあります。
ただし、NVIDIA は、ゲーム開発者が ACE for Games をいつ利用できるようになるかについては明らかにしていないため、先走りしすぎないようにしましょう。
顔のアニメーションとゲーム キャラクターの音声を一致させる Audio2Face テクノロジーは、今後 2 つのゲームで使用されます: 三人称 SF ゲーム フォート・ソリス、そして待望の黙示録的な FPS 続編 ストーカー。 2: チェルノブイリ中心部.
NVIDIA からのこの最近のニュースについてどう思いますか? 以下のコメントセクションでご意見をお聞かせください。