この動画では、AI駆動ゲームエンジンがゲーム業界に与える革命的変化について、3つのレベルに分けて詳しく解説している。レベル1ではUnreal Engine 5.6の画期的な機能、レベル2ではNvidiaの3D生成技術や高度な物理シミュレーション、レベル3ではGoogleのGenie 3に代表されるニューラルシミュレーション技術を取り上げ、これらの技術がいかにゲーム開発を根本から変革し、現実と見分けがつかないレベルまで到達する可能性を持つかを論じている。

AI がゲーム業界を完全に変える時代の到来
ゲーム開発者の97%が、生成AIが業界を再構築していることに同意している。GoogleCloudが実施した最新のゲーム業界調査では、専門家たちがAI駆動ゲームエンジンを、ゲームプレイのバランス調整AIやAIパワーテスティングと並んで、最も有望な新トレンドの一つと見なしていることが分かった。
長い間待ち望まれていたAIのゲーム業界への影響が、今まさにリアルタイムで展開されており、新世代のAI駆動ゲームエンジンがこの分野を変革している。
この動画では、ゲームの構築方法を根本的に見直している最も有望なエンジンを3つのレベルで見ていこう。影響力のあるレベルから、まさに狂気的なレベルまで段階的に紹介していく。
レベル1:Unreal Engine 5.6 の革命的進化
まず、混乱を解いておこう。エンジンという用語を使うとき、多くの人はUnityやUnrealを思い浮かべるが、それは完全に正しい。これらは完全なエンジンであり、我々もそれについて話すつもりだ。
しかし、調査でゲーム専門家がAI駆動ゲームエンジンと言うとき、彼らは完全なエンジンと、その内部にある物理エンジン、アニメーションシステム、キャラクターエンジンなどの特殊化されたサブシステムの両方について話している。
レベル1はUnreal Engine 5.6から始まる。Unreal Engineは一般に公開されている人気のゲーム開発プラットフォームで、新しいアップグレードはこれまで見たことがないほど優れている。Unreal 5.6には、ほんの数年前には考えられなかった5つの驚くべき改善が含まれている。
新しいMetaHumanシステムは2つのことを見事に実現している。超リアルなデジタルヒューマンと、狂気的なレベルのスピードだ。ゲーム開発者の真の夢が実現している。このシステムは現在、Unreal Engine内に完全に統合されている。
このシステムは、AAAスタジオがリアルな表情や口の動きを作れるだけでなく、誰でも最小限の機器でそれができることを意味している。
これまでは、リアルなアニメーションを作るために、深度情報を持つカメラと、その情報を動きに変換する一連の専用アプリを所有する必要があった。今すぐ手を止めて、この魔法をチェックしてほしい。あなたの携帯電話のような普通のカメラからの動きを、この信じられないほど豊かな表情にリアルタイムで変換している。
見ての通り、我々の動きはミリ秒単位で反映される。最も小さな表情でも美しく表現されている。顔だけではない。全身がバーチャル世界に変換される。
このような重要な技術の民主化こそが、業界を変革する方法だ。その上、自分のバーチャルキャラクターを作成する必要さえない。
MetaHumanシステムは今やカスタマイズ可能なキャラクターを提供している。システムにあなたの顔をコピーさせ、その後身体の特性をカスタマイズできる。着せる服にも自動的にマッチする。これの多くは従来手作業だったもので、小規模な開発者にとっては交渉の余地のない障壁であり、大規模な開発者にとっては巨大なコストだった。
カスタマイゼーションも想像以上にはるかに深く、伝統的な意味での手作業をあまりすることなく、無限のキャラクターを作成する機会を人々に与えている。
次に、彼らはLumen、グローバル照明システムも改良した。より低い計算コストで、より現実的な照明とマテリアルを作り出す。これらのアップグレード全体を貫く一本の糸は、彼らがいかに少ない計算でより多くのことを行えるようになったかということだ。
効率性が主要な焦点だったが、実際の開発者がそれをどう感じるかは待って見る必要がある。また、巨大なバーチャルワールドのジオメトリをより速く読み込むこともできる。モーションの編集はより直感的で使いやすくなった。
内蔵ツールを使ってエディター内で表情やキャラクターの動きを直接彫刻できる。そしてリアルタイムで、プロシージャル物理を適用してキャラクターをより現実的に動かすこともできる。
脚が身体、装備、尻尾に微妙な波紋効果をもたらし、手動では実現が容易でない新しいレベルのリアリズムを生み出している。
そして最後に、Substrateマテリアルにより、複雑なマテリアルモデルをこれまで以上に現実的にミックスできる。
ちなみに、知らなかった人のために言っておくと、Unreal Engineは完全に無料でダウンロードして使用できる。Epicは、プロジェクトがタイトルごとに100万ドル以上を稼いだ後に5%のカットを取るだけだ。映画、TV、建築、またはその他の非ゲームプロジェクトについては、ロイヤリティフリーだ。
レベル2:NVIDIA の革新的AI技術
約7ヶ月前、我々はNvidiaがゲーム開発に革命をもたらすことを約束する新しいゲームエンジンをリリースしたことについて話した。今、我々にはその証拠がある。それはすでに起こっている。
これらのレベル2技術は新しいもので、Unrealのような主流エンジンにはまだ浸透していないが、非常に価値があるため、企業は独立したツールとして使用している。
これらのAIツールはゲーム開発プロセスを大きく変えており、既存の役職の56%がAI関連タスクを含むように進化しただけでなく、チームはAIエンジニアやAIコンテンツデザイナーなどの新しい役職を追加している。
メインエンジンが追いつくのをただ待っている余裕は誰にもない。AIは特に、面倒で反復的なタスクを自動化する能力において輝いている。これがメインラインだ。
ほんの数年前、ゲームの構築には何ヶ月ものコーディングと巨大なチームが必要だった。今日、AI駆動エンジンは完全なワールドとキャラクターをリアルタイムで作成できる。
そして変化のスピードは加速するばかりだ。これはもはやゲームだけの話ではない。AIはあらゆる業界を再構築しており、AIスキルのない人々はすでに取り残されている。実際、AIスキルを持つ専門家は130%多く求められている。
しかし問題は、あなたがその一人かということだ。心配しないで、良いニュースがある。
この週末、世界初のAI特化教育プラットフォームであるOutskillによる2日間のAIマスターマインドワークショップに参加できる。専門メンターと16時間過ごすだけで、Outskillの学習者たちはコードなしで100以上のAI製品を構築・リリースし、3,000から4,000ドルの実働収益モデルを持っている。
このトレーニングは通常895ドルかかるが、私はOutskillと提携して、次の72時間だけ私の視聴者専用に1,000の無料席を提供する。これは約90万ドル相当のトレーニングが完全に無料だ。
ちなみに、Trustpilotで5点満点中4.9点の評価を受けており、非常に信頼性が高い。
これが他と違うのは何か?たった16時間で、忙しい専門家にも完璧だ。5,000人以上の専門家からなるOutskill専用AIコミュニティへの生涯アクセスと、簡単でスムーズな体験のためのシームレスな学習ダッシュボードが提供される。
昨年、様々な業界で1,000万人以上がこのトレーニングに参加した。そして今度はあなたの番だ。
2日間のトレーニング中に、10以上の強力なAIツール、プロンプトエンジニアリング、ワークフローの自動化、コードなしでのAI製品構築を学ぶ。今参加すれば、5,100ドル相当の限定ボーナスが得られる。
1日目に3,000以上の高インパクトプロンプトを含むプロンプトバイブル、2日目にAIを収益化するロードマップ、両日に参加した場合のみ提供されるパーソナライズドAIツールキットビルダー。
9月6日と7日の土曜と日曜、両日とも午前10時から午後7時まで開催される。席数は限られており、急速に埋まっている。
説明欄のリンクから今すぐ席を確保してほしい。また、大爆発前の最新情報を受け取るため、WhatsAppコミュニティにも参加してほしい。この動画のスポンサーをしてくれたOutskillに感謝する。
では動画に戻ろう。このAI強化の一部はNPCの脳として使われるLLM、スクリプティングの自動化のためのコーディングエージェント、テスト環境、そしてアイデアを練り上げるための生成画像モデルだ。
それらの使用例はほとんど明白なので、それらを通り過ぎて、より興味深くあまり知られていないものを見ていこう。
NvidiaのこのAIエンジンは個々のアセットを作成するだけでなく、完全なシーンを作ることができる。プロセスは特定のシーンをAIにプロンプトすることから始まる。そして個々のオブジェクトを提案し、デザイナーが満足すれば3Dジオメトリを構築する。
ゲームプロジェクトのユニークなアセットを作成することは、小規模スタジオにとって最も困難な挑戦の一つだ。そしてこれはすでに大きな飛躍だ。しかしNvidiaはそこで止まらない。環境マップの構築に進む。
これらの球体は環境を表現している。背景を満たし、シーンの照明を設定する。素晴らしいのは、出力に縛られないことだ。探している感覚にマッチするまで、いつでも好みに合わせてカスタマイズできる。
包括的なテーマを決めることもできる。ゴールドラッシュテーマはどうだろうか?そしてそのようにして、個別のアセットが準備された美しいシーンが手に入る。
NvidiaはこれをEdify 3D、または高品質合成と呼んでいる。包括的なテーマとスタイルに基づいて、バッチで3Dメッシュを生成できる。
これを北京工科大学発のMesh Coderと組み合わせると、ポイントクラウドを取り込んで編集可能な3Dメッシュを出力するもので、3Dデザインについて実際に知らなくても、好みの詳細なシーンを作る力を持つことができる。
Mesh Coderは3DモデルをBlenderなどの任意の3Dソフトウェアにインポートできる編集可能なコードの形で出力する。
例えば、このソファがあり、任意の3Dモデリングソフトウェアでさらに編集できる各個別部分のコードスニペットがここにある。このソファの任意の部分のサイズ、形状、寸法を簡単に変更できる。
この椅子の上部を丸くして探しているスタイルにマッチさせたり、このオブジェクトの解像度を上げてよりスムーズに見せたりできる。
これらのツールは、シーンと静止コンテンツを支援し、小規模スタジオがより野心的なゲームを作成し、大規模スタジオがプロトタイピングのコストを下げ、将来のゲームのためのアセットのバックログをローカライズするための大きな開放だ。
しかし、私がより興奮しているのは、単に民主化とコスト削減だけでなく、以前は不可能だった新しい体験を開放する次のいくつかのツールだ。
RobloxとUtah大学のコラボレーションで、研究者たちはリアルタイムで信じられないほどの量のオブジェクト相互作用をシミュレートする新しい方法を開発した。これは、我々が長い間夢見ることしかできなかった種類のゲームを開放する。
これは、ほぼ不可能な問題を解決する無料でオープンなシミュレーション方法だ。このシーンでは同時に数百万の相互作用が起こっており、事前レンダリングでさえ挑戦だっただろう。しかし、新しい方法はすべてをリアルタイムで処理する。コンシューマーGPUで毎秒100フレームだ。
この方法は信じられないほど効率的であるだけでなく、より正確でもある。これ以前は、現実的な特性を持つ振り子の振動さえ扱うことができなかった。
ゲーム開発者は現在の物理シミュレーションエンジンで作業する際、しばしば野心を制限し、ギャップを埋めるために様々なトリックを使用するが、品質だけでなくシミュレーションの効率も向上させる技術がますます登場している。
この新技術は拡張頂点ブロック降下法、略してAVBDと呼ばれ、非常に多くのクールな相互作用を開放する。摩擦、衝撃、重力、その他すべての物理特性を美しくシミュレートする。
見ていて本当に楽しいが、問題は現実と混同する人はいないだろうということだ。そしてそれがレベル2の限界だ。
コードの記述やアイデア出しから3Dモデルの作成や物理シミュレーションまで、あらゆることを支援する個別の最先端エンジン。現実的に見えるほど、何かがおかしい、手を置けないような何かがある。
そしてそこでレベル3が登場する。単にゲームを作成するだけでなく、技術の新しい分野を開放する種類の技術だ。これはゲーム以上のものだ。
レベル3:ニューラルシミュレーション 現実を超える技術
GoogleのGenie 3について聞いたことがあるだろうし、それはおそらく最も有名なニューラルシミュレーションマシンだが、それがゲームや技術の未来全般にとって実際に何を意味するかをみんなが理解しているとは思えない。
Genie 3について見逃したかもしれないいくつかの事実がある。
まず、Genie 3は唯一のものではない。いくつかの側面でより優れた他の競合他社が多数ある。単に見回すだけでなく、より多くのアクションを含むものなどだ。
次に、この技術は機能するが、作成者を含む誰もが、それが機能することに困惑している。Genieは我々の予想をはるかに上回る性能で、どこからともなく登場した。
研究者たちは2D プラットフォーマーゲームから始め、次に3Dだが非常に低解像度のものに移った。GoogleがこのProgress を見たとき、なぜもっとリソースを注ぎ込み、VOチームの人々をGenieに移動させて、どう進化するか見てみないのかと考えた。
そしてそれは、ただ考えさせられるいくつかの創発特性を生み出した。Genie 3は記憶なしにすべてを覚えている。このデモで彼らがGenieに何かを描かせ、その後よそを見て、再び戻ると絵画が完全に無傷で見つかるのを示すとき、そのシーンは記憶に保存されていない。
それは単にモデルが常時行っている次のフレーム予測の一部だ。この狂気的なレベルの一貫性は、システムに組み込まれたものではなかった。モデル自体によって学習されたものだ。
それからリアリズムのレベルと物理の理解は、我々が以前に示したレベル2の何よりもはるかに優れている。この一つのニューラルマシンは、それらすべてをシミュレートし、品質面でもはるかに優れている。
Demis Hassabis でさえ、モデルが物理をこれほど正確に捉えることができたことに驚いたと脚注で述べている。
そしてそれは疑問を提起する。では限界はどこなのか?モデルは知的エージェントもシミュレートできるのか?
VOをプロンプトしてプロンプトされた通りに行動する人を得ることは一つのことだ。シミュレートされたワールドに入り、AIがそのワールドで知的エージェントがどう行動するかもモデリングしているのは全く別のことだ。
これはもはやプロンプトではない。そのエージェントはあなたと環境に反応する。あまり哲学的になりたくないが、シミュレートされたワールドのそのエージェント、それは何なのか?知的なのか、それとも知的に振る舞っているのか?
2種類のエージェントを持てることに気づくと、さらに不気味になる。一つはメインのGenieシミュレーション自体の一部として。つまり、AIが光線や複雑な物理をモデル化するように、猫や人間のような知的エージェントが環境の一部としてどう行動するかをモデル化する。
そして、そのワールドに送り込んで環境と相互作用し学習する第三者エージェントを持つことができる。これは思考実験ではない。これはどういうわけか今や現実だ。
そしてそれがGenieが存在する主要な理由の一つだ。Googleが現実の近似を体験し、現実世界に入る前に学習できるワールドモデルを訓練できるように。
ゲームはGPUでAI革命を始めたが、実際にそれを完成させることになるかもしれない。すべてのインセンティブが、このシミュレーションをできるだけ現実に近づけるよう整列している。
そして問題は、それが区別できないものになることがあるのか?そしてもしそうなったら何が起こるのか?
私の名前はPuryaで、視聴してくれてありがとう。


コメント