
5,241 文字

AIビデオには1つの大きな欠点がありました。シーン中に顔が変わるキャラクター、カット間で一致しない背景、そして連続性が崩れる映像です。それが今変わりました。2025年3月31日に発表されたRunway Gen-4は、ショット間のキャラクターとシーンの一貫性において大きなブレークスルーをもたらしています。このビデオでは、Gen-4がAI映画制作における最大の問題をどのように解決したのかを詳しく解説します。
それだけではありません。以前のモデルとの比較、ライオンズゲートのようなスタジオがすでにどのように活用しているか、そしてAIビデオにおける仕事、創造性、著作権の未来にとって何を意味するのかも見ていきます。話すべきことがたくさんありますので、ぜひ最後までご覧ください。
Runway Gen-4が実現したこと
Runwayの新しいGen-4モデルは、AIビデオに大きなアップグレードをもたらしました。視覚要素、キャラクター、オブジェクト、環境のための永続的なメモリーです。顔の特徴、服装、姿勢、周囲の環境がカメラアングルが変わっても一貫性を保つようになりました。これにより、フレームからフレームへの連続性が崩れるというAIビデオの長年の欠点に直接対処しています。
Gen-4では、ユーザーは参照画像をアップロードし、シーンを説明することで、被写体が全体を通して一貫している映像クリップ(現在は720pで5〜10秒)を受け取ることができます。滑らかなカメラの動き、複数ショットの連続性、キャラクターの一貫性が実現可能になり、単発クリップの生成から実際のストーリー構築への転換点となっています。
この改善は技術的な転換から生まれています。Gen-3やPika、Stability AIなどの他のプラットフォームからの以前のモデルは、各フレームを独立して処理していたため、ショット間でちらつきや変形が生じていました。Gen-4はその代わりに、ビデオを統一されたシーンとして扱います。フレームからフレームへと視覚情報を伝える永続的な内部モデルを構築します。これは研究者が「ワールドモデリング」と呼ぶ方法に沿ったものです。
会社は完全なアーキテクチャの詳細を公開していませんが、結果はより高度な時間的システムと参照条件付けの強力な使用を示唆しています。Act 1の顔のアニメーション転送やGen-3 Turboの3Dカメラ移動などの以前のRunway機能と組み合わせることで、Gen-4はパフォーマンス、カメラディレクション、ショットの連続性という従来の映画制作の基本を複製することに近づいています。
初めて、AI生成ビデオは複数ショットのストーリーテリングをサポートできるほど強力な視覚的結束性を示しています。これは以前のシステムでは提供できなかったものです。
Gen-4を使用した実際の映画
モデルの能力を実証するために、Runwayはクリエイターと協力して、Gen-4のみを使用した短編映画を制作しました。従来のカメラやアニメーションソフトウェアは一切使用していません。「ニューヨークは動物園」では、クリエイターはGen-4を使用して、日常的な都市のシーンにフォトリアルな動物を配置しました。ブルックリンの通りを歩くライオン、デリの前に立つ象など。これらは単なる視覚的実験ではありません。カメラが移動しても、動物は比例した大きさで、地に足をつけ、一貫してレンダリングされています。照明、影、さらには環境のテクスチャもトランジション全体で維持されています。
2つ目の例「ザ・リトリーバル」はストーリーを語ります。探検家のグループが光る花を探して、ジャングルの地形を航行します。トラッキングショット、空撮視点、クローズアップなど、複数のシーンを通して、主要キャラクターは視覚的に安定しています。服装は同じまま、ヘアスタイルは保持され、さらに姿勢と動きも時間を通して一貫しています。
これらの映画は長くありません(10〜40秒の間)が、以前の世代では達成できなかったレベルの物語の結束性を示しています。重要なのは、制作期間が短いことです。Runwayによると、「ザ・リトリーバル」はGen-4ツールのみを使用して1週間以内に完成したとのことです。これは、小さなチームや個人でさえ、高価なハードウェア、VFXチーム、またはアニメーションパイプラインなしで一貫性のあるビデオコンテンツを生成できる未来を示唆しています。
ただし、視覚的一貫性は向上していますが、音声、ダイアログ、より深い物語のコントロールは現在のAIビデオツールの範囲外であることに注目する価値があります。Gen-4はパズルの重要な一部を修正することに焦点を当てており、その部分は現在のところ顕著な進歩を示しています。
なぜこれはRunwayの戦略的名手なのか
Gen-4のローンチは突然起こったわけではありません。過去1年間にRunwayが追跡してきた明確な軌跡の一部であり、よりAIビデオ制作システムへと一歩一歩近づいています。
2024年10月、RunwayはAct 1を導入しました。これはユーザーがスマートフォンから表情をキャプチャし、それらをAIで生成されたキャラクターにマッピングできる機能です。これにより、クリエイターは単なる視覚だけでなく、パフォーマンスをAI生成シーンに取り入れることができるようになりました。
次に11月にはGen-3 Alpha Turboが登場し、これは3Dスタイルのカメラコントロールを追加した大幅なアップグレードでした。ズーム、パン、シーン全体のダイナミックな動きが可能になり、キャラクターの比率を維持しました。静的なフレームの代わりに、ユーザーはカメラが生成された環境をどのように移動するかを指示できるようになりました。
現在、Gen-4により、会社は欠けていたリンク、つまりショット間の視覚的連続性に対処しました。Pika、Sora、Stable Video Diffusionなどの他のプラットフォームが視覚的に印象的な単一クリップやアクションの短い連続を生成することに焦点を当てている間、Runwayのアップデートはより深い制作上の課題、つまりパフォーマンスキャプチャ、モーションコントロール、そして今では一貫性に取り組んでいます。
そうすることで、Runwayは単に美学のためのリアリズムを追求しているだけではありません。物語の連続性と方向性がシステムとして機能する必要がある従来の映画制作のロジックを反映するフレームワークを開発しています。この戦略的な焦点は、AIビデオが実験から実用へと移行するにつれて重要になる可能性があります。
お金、スタジオ、そして何が危険に?
Runwayの一貫性とマルチショットのストーリーテリングへの最新の取り組みは、同社が財政的および業界的なフットプリントを拡大するにつれて到着しています。情報からの報告によると、Runwayは評価額が40億ドル近くになる可能性のある新しい資金調達ラウンドの最中です。この数字は、生成ビデオ技術が実世界の制作パイプラインに近づくにつれて、投資家の信頼が高まっていることを反映しています。
同社はまた、Gen-4のような製品発売、エンタープライズサブスクリプション、デベロッパーとメディア企業向けのAPIオファリングによって後押しされる2025年の年間収益が3億ドルに達することを目標としています。
しかし、おそらくより注目すべきは、従来のメディアプレーヤーとの戦略的整合性です。Runwayはライオンズゲートとパートナーシップを結び、カスタムビデオ生成モデルをトレーニングするために、スタジオのカタログにある2万以上のタイトルにアクセスできるようになりました。
並行して、Runwayはハンドレッドフィルムファンドというイニシアチブを立ち上げ、AIを使用して映画を制作したいフィルムメーカーにプロジェクトごとに最大100万ドルを割り当てています。このファンドは実験的な作品をサポートし、以前は大規模な視覚効果やアニメーションを手頃な価格で入手できなかった独立したクリエイターの障壁を下げるように設計されています。
この投資は、AIビデオがもはやサイドラインで運営されているのではなく、主流のエンターテイメントパイプラインの一部になりつつあることを示しています。そして競争は激化しています。OpenAI、Meta、Google DeepMindを含む他の企業もすべて生成ビデオツールを探索しており、AIコンテンツ制作における支配権を巡る10億ドルの戦いと多くの人が呼ぶものを作り出しています。
核となる使いやすさの問題を解決するGen-4により、Runwayはその競争において大きな足がかりを得ています。しかし、すべての人が祝っているわけではありません。
AIビデオが進化するにつれて、クリエイティブ産業内の懸念は高まっています。アニメーションギルドが委託した2024年の調査によると、AIツールを採用した制作会社の75%が仕事の削減、統合、または排除を報告しています。同じ調査では、2026年までに生成AIによって10万以上の米国エンターテイメント業界の仕事が影響を受ける可能性があると予測されています。特に視覚効果、アニメーション、合成の役割においてです。
仕事の移動を超えて、AI生成コンテンツをめぐる法的精査は続いています。Runwayは多くのAI企業と同様に、トレーニングデータセットで同意なしに著作権で保護された作品が使用されたと主張するアーティストからの訴訟で名指しされています。これらの訴訟は進行中であり、Runwayはフェアユース(公正使用)の原則を法的防御として引用していますが、米国の裁判所はこの防御がAIモデルトレーニングに適用されるかどうかについてまだ決定的な判断を下していません。
倫理的な質問は合法性を超えて広がっています。2025年3月、OpenAIによるChat GPTを通じたジブリスタイルの画像生成機能の発表は広範な反発を引き起こしました。ユーザーは公式のコラボレーションやライセンスがないにもかかわらず、スタジオジブリの特徴的な美学で何百万もの画像を作成しました。OpenAIは生きているアーティストの名前の使用を避けていますが、ジブリのようなスタジオスタイルは引き続き利用可能です。
Runwayはスタイル模倣に関する公開ポリシーを発表しておらず、モデル構築のためにどのトレーニングデータが使用されたかについて質問されると、競争上の懸念を理由に具体的な詳細の提供を拒否しました。この透明性の欠如は業界での標準となっていますが、それは引き続き緊張点となっています。
根本的な疑問は残ります。AIモデルがほぼ完璧な正確さで芸術的スタイルを複製できる場合、インスピレーションと模倣の間の線はどこにあるのでしょうか?
これが切り開く未来
Gen-4が示しているのは、もはや技術的制限が魅力的なビデオコンテンツを作成する主な障害ではないということです。参照画像、短いプロンプト、いくつかの調整により、ユーザーは以前なら大きなチームと相当な予算を必要としたシーンを現在制作することができます。
しかし、会話は変わり始めています。もはや「AIはビデオを生成できるか?」という問いではありません。技術は明らかにできますし、各リリースでより良くなっています。より重要な問いは今や「私たちはそれでどんなことをするのか?」です。
Gen-4のようなツールは、これまで以上に多くの人々に映画的ビジュアルの実験を可能にします。以前はほとんどの人にとってビデオ制作を手の届かないものにしていたコスト、時間、スキルの障壁を減らします。しかし、一貫したビジュアルを生成する能力が魅力的なストーリーを保証するわけではありません。その部分はまだ人間の意図に依存しています。
マーケティングチーム、教育者、インディーフィルムメーカー、コンテンツクリエイターがGen-4のようなツールを使い始めるにつれて、課題は単なる実行ではなく、想像力と目的になるでしょう。ほとんど誰でも何でも作れるようになったとき、実際に作る価値があるものは何になるのでしょうか?
私たちはボトルネックがハードウェアやレンダリング速度ではなく、プロンプトの背後にあるアイデアの明確さであるフェーズに入っています。技術は追いついてきています。今や、新奇性を超えた方法でそれを使用する方法を見つけ出すのはクリエイターの役割です。
ここまで見ていただいた方は、下のコメント欄であなたの考えを教えてください。より興味深いトピックについては、画面に表示される推奨ビデオをご覧ください。ご視聴ありがとうございました。


コメント