衝撃:アリババの新しいAIビデオモデルが瞬時にポルノ製造機と化す

AGIに仕事を奪われたい
この記事は約9分で読めます。

4,906 文字

Shocking: Alibaba’s New AI Video Model Instantly Turns Into a P**n Machine
Did Alibaba’s new AI video model cross a dangerous line? In a shocking turn of events, the tech giant’s latest AI innova...

中国の巨大テック企業アリババが、先進的なAIビデオモデル「Juan 2.1」をリリースしました。「ねえママ、ねえパパ、エラよ」というデジタル版の私ですが、こんなものは望んでいません。そして24時間以内に、このモデルはAI生成アダルトコンテンツのための主要ツールとなりました。
このモデルは元々、広告やエンターテイメント、さらには教育を革新する可能性のある高品質ビデオ生成のために開発されました。しかし、GitHubに公開された瞬間、AIポルノコミュニティによって即座に活用され、AI生成の露骨な動画が爆発的に増加しました。
これは単にニッチな趣味人が新しいツールを試しているという話ではありません。AI生成の露骨なコンテンツの増加は、すでに世界中で大きな倫理的・法的議論を引き起こしています。そしてWan 2.1がオープンソースであるため、誰でもダウンロード、修正、好きなように使用できることから、状況は急速にエスカレートしています。
アリババはOpenAIやGoogleのような厳格なコンテンツフィルターを課す企業とは異なり、モデルに強力な保護措置や制限を追加しませんでした。つまりWan 2.1は完全に無制限で、AIの世界に強力ながら議論を呼ぶ存在として加わったのです。
では、これがどのようにして迅速に起こり、AIコンテンツの未来にとって何を意味するのでしょうか?
AIコミュニティは時間を無駄にしません。信じられないようなAIビデオがあり、音声は完璧です。先日Instagramで広告を見ましたが、ドナルド・トランプでした。誰かのプログラムや製品を宣伝していたので、それがAIだとわかりました。
AIの趣味人がWan 2.1を露骨なコンテンツに使い始めるのに1日もかかりませんでした。AI生成のアダルトメディアに特化したフォーラムは新しく作成されたクリップであふれ、一部のユーザーはリアリズムと動きの正確さにおいて、このモデルが市場の他のどれよりも優れていると主張しています。
AIモデルがこのように使用されるのは初めてではありません。OpenAIのSora(クローズドソースのテキスト→ビデオモデル)も発表時にディープフェイクの可能性について議論を巻き起こしました。しかしSoraとは異なり、Wan 2.1はオープンソースであり、適切な技術スキルとハードウェアを持つ誰にでも自由に利用できます。
AIポルノ業界はすでに急成長しており、今後数年で数十億ドル規模になるという予測もあります。AI研究機関DeepTraceによると、オンライン上のディープフェイク動画の96%は露骨な性的内容であり、AI生成のアダルトコンテンツの需要は急上昇しています。
これは一部の人々にとって、プライバシー、同意、悪用に関する大きな懸念を引き起こします。AI生成の露骨なコンテンツは、非同意のディープフェイク動画が最大の脅威の一つである中で、容易に悪用される可能性があります。そして、Wan 2.1のような高度なモデルが一般に公開されることで、問題はさらに悪化する可能性があります。
一部のユーザーはさらに踏み込んで、Wan 2.1をカスタムデータセットで訓練し、非常にリアルな顔や体の動きを生成する能力を強化しています。ここで倫理的懸念はさらに深刻になります。なぜなら、AIモデルが実在の人々の画像で訓練されると、非同意のディープフェイクのリスクが急上昇するからです。
これは新しい問題ではありませんが、Wan 2.1がこのような目的のために急速に採用されたスピードは警戒すべきものです。有名人、公人、一般の個人は長い間、同意なく作成されたAI生成の露骨なコンテンツと戦ってきました。そして、Wan 2.1のオープンソースという性質により、問題は減速するどころか加速しています。
非同意のAIコンテンツとディープフェイクの懸念点:AI生成の露骨なコンテンツの最大の危険性は、AIポルノの増加だけではなく、それに伴う非同意のディープフェイクです。ディープフェイク技術はすでに世界中で深刻な被害をもたらしています。MITテクノロジーレビューの2023年のレポートによると、AI生成のリベンジポルノの事例は急増しており、被害者は多くの場合、法的救済を受けられません。
問題は非常に深刻化しており、主要な政府はAI生成の親密な内容と戦うための法律を急いで導入しています。アメリカではディープフェイクポルノを犯罪とする新しい法律が提案されており、イギリスや韓国のような国ではすでに違法とする法律が可決されています。
大手プラットフォームでさえ、対応に苦戦しています。Reddit、Twitter X、TikTokはAI生成の露骨なコンテンツであふれ、モデレーターは常に追いつくのに懸命です。Wan 2.1の場合、リスクは単に露骨なコンテンツに使用されていることだけではなく、制限なしに使用されていることであり、それは同意の有無にかかわらず、誰の顔でもAI生成メディアに変換される可能性があるということです。
さらに懸念されるのは、技術が急速に進化していることです。数年前まで、ディープフェイク動画は簡単に見分けられ、多くの場合、グリッチや奇妙な顔の歪みに悩まされていました。しかし、Wan 2.1のようなモデルにより、AI生成コンテンツは今や実際の映像とほぼ区別がつかないレベルのリアリズムに達しています。
これはプライバシー、セキュリティ、倫理に関する大きな疑問を投げかけます。このようなモデルが自由に利用可能である場合、それによって引き起こされる損害に誰が責任を負うのか?そして、この技術が悪用された場合には何が起こるのでしょうか?
オープンソースAIのジレンマ:アリババのWan 2.1を巡る最大の疑問の一つは、それが何をできるかだけでなく、なぜアリババがオープンソースにしたのかということです。OpenAIのSoraやGoogleのGeminiモデルのように厳密に管理・調整されるのではなく、Wan 2.1はGitHubで誰でもアクセス、修正、自由に使用できるように公開されました。
この動きは偶然ではありません。多くのAI開発者は、AIモデルをオープンソースに保つことで、より速いイノベーション、コラボレーション、技術の民主化が可能になると主張しています。AIの開発が少数の大企業によって支配されるのではなく、オープンソースモデルは独立した開発者、研究者、ビジネスに最先端のAIを使用する力を与えます。
しかし欠点は、組み込みの安全装置がないことです。OpenAIはSoraをディープフェイクや露骨なコンテンツに使用することを防ぐ厳しいコンテンツモデレーションポリシーを持っていますが、Wan 2.1には全く制限がありません。それは誰でも自分のニーズに合わせてコードを修正できることを意味し、非倫理的または違法なコンテンツを作成しようとする人々も含まれます。
これがオープンソースAIの諸刃の剣です。一方では開発者の力を高め、急速な進歩を促進します。他方では、AIの悪用をこれまで以上に容易にします。
AI規制に関する議論は世界中で熱を帯びています。AIモデルの透明性と説明責任を求めるEUのAI法(最初の主要なAI規制法)は、ビデオ生成に使用されるモデルを含め、AIモデルの透明性と説明責任を求めています。一方、アメリカでは、ホワイトハウスがAI企業に自主規制を求めていますが、AI生成のディープフェイクコンテンツを禁止する連邦法はまだありません。
一部の専門家は、AIモデルがオープンソースであっても、それがどのように使用されるかについて企業が責任を負うべきだと主張しています。他の人々は、特に超リアルな画像や動画を生成できるツールについては、政府がAIツールを規制すべきだと信じています。しかし現在、グローバルなコンセンサスはなく、急速に悪用されている法的なグレーゾーンが残されています。
疑問は残ります:AIは全ての人に自由であるべきか、それとも保護措置が必要なのか?そしてアリババのような企業が技術を調整することを拒否した場合、誰が規制するのでしょうか?
これがAIとコンテンツ制作の未来にとって何を意味するのか:Wan 2.1の状況はAI生成のアダルトコンテンツだけの問題ではなく、AI業界全体への警鐘です。これらのモデルがより強力になるにつれ、企業、政府、プラットフォームはどのようにリスクに対処するのでしょうか?
大手テクノロジー企業はすでにAI生成の悪用を制限しようとしています。OpenAIはSoraをディープフェイクコンテンツに使用することを厳しく禁止し、GoogleはAIツールを誤解を招く動画の生成に使用することを禁止しています。Metaでさえ、誤情報を避けるためにAI生成コンテンツにラベル付けを要求するなど、ポリシーを強化しています。
しかし、より大きな問題はオープンソースのAIモデルです。AI生成ビデオは政治的な誤情報、フェイクニュース、さらには実在の人物になりすますために簡単に使用される可能性があります。選挙直前に政治家の偽の発言をするAI生成のディープフェイク動画を想像してみてください。現実と偽物の境界線が急速に曖昧になっています。
AIの規制は世界中で優先事項になりつつありますが、それらの規制がどれほど効果的かは不明確です。専門家は、一部のAI生成画像に見えないデジタル署名が含まれているのと同様に、AI生成コンテンツに透かしを入れることを提案していますが、オープンソースAIでは、ユーザーがそれらの保護措置を修正または削除できるため、検出はほぼ不可能になります。
一部のアナリストは、悪用を防ぐために企業が利用可能性を制限する、AIモデルがより制限されるようになる未来を予測しています。しかし、オープンソースAIがロックダウンされれば、OpenAIやGoogleのような大企業だけが最も高度なAIを制御するということになるのでしょうか?これは明確な答えのない難しい問題です。
確かなのは、AI生成コンテンツがこれまで以上に現実と区別がつかなくなる時代に向かっているということです。そして、Wan 2.1のようなモデルがすでに意図しない目的にいかに迅速に使用されるかを証明しているため、業界は次に何が来るかを迅速に決定する必要があります。
次に何が起こるのか:これまでのところ、アリババはJuan 2.1の予期せぬ使用例について沈黙を守っています。AIツールの悪用を積極的に遮断するOpenAIとは異なり、アリババのオープンソースアプローチでは、もはや引き戻すことができません。モデルはすでに流通しています。
沈黙にもかかわらず、圧力は高まっています。政府や支援団体はより厳しいAI規制を求めており、一部の専門家は開発者がモデルの使用方法について責任を負うべきだと主張しています。
現在の最大の疑問は、アリババが制限を課すかどうかです。もしそうなれば、中国のテクノロジー企業がAI倫理にどのようにアプローチするかの転換点となる可能性があります。もしそうでなければ、オープンソースAIが制御不可能であるという懸念を強めることになります。
一方で、オープンソース擁護者は厳しい規制に反対し、教育と検出ツールがAIを制限するよりも良い解決策だと主張しています。しかし、Wan 2.1がすでに大きな波を作っている中、議論は終わっていません。
AI自由と倫理的責任は共存できるのか、それとも技術があまりにも急速に進化しているため、悪用を防ぐためにロックダウンする必要があるのか?
一つ確かなのは、これがAI倫理をめぐるはるかに大きな戦いの始まりに過ぎないということです。
ここまで読んでいただいた方は、コメント欄で皆さんの意見をお聞かせください。より興味深いトピックについては、画面に表示されているおすすめ動画をご覧ください。ご視聴ありがとうございました。

コメント

タイトルとURLをコピーしました