
5,419 文字

OpenAIがある衝撃的な事実を明らかにしました。中国に関連する秘密のAI駆動の監視ツールを発見したのです。OpenAIは、西側のソーシャルメディア全体で反中国的な投稿を追跡するよう設計された中国製のAI監視ツールを発見しました。
彼らがどのようにして発見したかというと、このツールに取り組んでいた誰かが偶然にもOpenAIのテクノロジーを使ってコードをデバッグしたのです。研究者たちは、プロジェクトに取り組んでいた開発者が誤ってOpenAIのテクノロジーを使ってコードを修正した際に、その目的が露呈したことで発見しました。このシステムは西側のソーシャルメディア上の反中国的な投稿をリアルタイムで追跡し、フラグを立てています。
しかし、より大きな懸念はこれです。これが偶然に発見されたとすれば、他にどれだけ多くのシステムが存在するのでしょうか?このAIはどのように機能するのか?誰が背後にいるのか?そして、あなたのプライバシーとオンラインの自由にとって何を意味するのか?お付き合いください。OpenAIが暴露したすべてを解説します。
このAI駆動の監視ツールは、OpenAIの調査員によって「ピアレビュー」というコード名が付けられました。「私が今まで遭遇した中で断然最大の監視システムまたはオープンソースインテリジェンスシステムでした」とサイバーセキュリティの専門家ロバート・ポッターは言います。
彼は復元のために採用され、232万人が追跡されていることを発見しました。そのうち35,000人はオーストラリア人でした。彼らはかなり異例な方法でこれを発見しました。システム開発に関わっていた誰かがOpenAIのチャットボットを使って、そのコンピュータコードの一部をデバッグしたのです。その失敗が本当の目的を露呈させました。
OpenAIの調査結果によると、このシステムは西側のソーシャルメディアプラットフォーム上で習近平の中国を批判する投稿を追跡、収集、分析するようプログラムされています。AIはリアルタイムでコンテンツをフィルタリングし、キーワード、感情、さらには中国政府の物語に挑戦する議論のパターンをスキャンしています。
OpenAIの主任調査員であるベン・エンモは、このような規模のAI駆動の監視ツールを特定したのは初めてだと確認しました。OpenAIはレポートで詳細を説明し、AIがコンテンツモデレーションだけでなく、大規模な監視とデータ収集のために積極的に活用されていることを強調しました。
この発見は重要な疑問を提起します。もしOpenAIが偶然にこのツールを発見したならば、検出されないまま他にどれだけ多くのツールが存在するのか?そしてどれだけの情報がすでに収集されているのでしょうか?
このAI監視システムの動作方法について:「私たちは引き出せる大量のデータセットを持っています。第三者に行って『階段の画像を1000枚売ってくれませんか』と購入する必要はありません。もし私たちがこのようなものを構築するなら、グローバルに目を向け、18か所のオフィスにいる全員と話し、それらのデータセットをすべて引き戻してから、トレーニングを開始します。」
この発見の最も懸念すべき側面の一つは、この監視システムがMetaのLLaMA、オープンソースのAIモデル上に構築されていることです。以前Facebookと呼ばれていたMetaによって開発されたLLaMAは、イノベーションを促進するためにオープンソース化されました。しかし、これにより政府支援の監視プログラムを含む誰でもアクセスでき、より物議を醸す用途に転用することが可能になりました。
今回のケースでは、OpenAIの研究者たちは中国がLLaMAを改変して、ソーシャルメディアの議論をリアルタイムで追跡し、特に中国政府を批判するコンテンツを探しているとみています。
これはどのように機能するのでしょうか?AI駆動の感情分析です。このツールは機械学習アルゴリズムを使用して、中国に対するネガティブな感情を示す単語、フレーズ、パターンを検出します。そしてこれらの投稿を記録し、ユーザーを分類し、さらなる監視のために個人にフラグを立てる可能性があります。
AIは単に受動的にスキャンするだけではありません。報告によれば、複数のプラットフォームからリアルタイムデータを集約し、反中国的なナラティブのトレンドについて、当局にほぼ瞬時に全体像を提供しているとのことです。もしこれが事実なら、政府はグローバルな会話を形成、制御、あるいは抑制できるAI駆動のツールを手に入れたことになります。
この発見はより大きなパターンの一部です。中国は顔認識やソーシャルメディアの監視を含む国内の広範な監視システムで知られています。しかし、同様のツールが現在、西側のプラットフォームをターゲットにして外部に展開されているという事実が、これを特に警戒すべきものにしています。
他の衝撃的なAI悪用事例として、OpenAIの調査は「ピアレビュー」だけでは終わりませんでした。彼らのレポートは他のAI駆動のキャンペーンも明らかにし、これが孤立した事例ではなく、グローバルな会話に影響を与えるためのより大きな連携した取り組みの一部であることを示唆しています。
これらのキャンペーンの一つ、「スポンサード・ディスコンテント」と名付けられたものは、中国の反体制派に対するプロパガンダを広めるためにAI生成コンテンツを使用していました。このAIシステムは、中国政府に反対する個人を批判する英語の投稿を作成するよう設計され、国際的なナラティブを形成する可能性がありました。
しかし、それだけではありません。OpenAIの研究者たちは、同じグループが政治的な記事をスペイン語に翻訳するためにAIモデルを使用し、それらをラテンアメリカ全体に配布していることを発見しました。その目的は、反米的なナラティブを推し進め、スペイン語を話すコミュニティでの議論を操作し、グローバル規模で世論に影響を与えることでした。
これは、世界中でAIが悪用されている唯一の例ではありません。OpenAIはまた、カンボジアを拠点とする組織がAI生成のコメントを使用して、「ピッグ・ブッチャリング」と呼ばれる手法で人々を騙していることを発見しました。これは、被害者が長期的なソーシャルエンジニアリングの戦術によってお金を手渡すよう騙される投資詐欺の一種です。
ここでの重要な点は、AIは単に会話を追跡して分析するために使用されているだけではないということです。これは重要な疑問を提起します:もしOpenAIがこれらの作戦を検出できたとすれば、他にどれだけ多くが隠されているのか?そしてより重要なのは、誰も発見していないAI駆動の影響キャンペーンがどれだけ高度なものなのかということです。
グローバル規模のAI監視について:「この監視システムを構築すれば、昨日はあなたが妊娠していて、今日はそうではないことを識別できます。その間に何が起こったのか。これはイランやパレスチナ人や中国人だけの問題ではありません。これはアメリカにも来る可能性があります。州境を越えるのを防ぐなど、そういったことです。」
「ピアレビュー」のようなAI駆動の監視ツールがすでに運用されていることは、グローバルなプライバシーと言論の自由にとって何を意味するのでしょうか?
まず、これは政府がオンラインでの議論を追跡するためにAIを使用する方法における大きな転換を示しています。過去において、ソーシャルメディアの監視は主にキーワード検索と手動でのフラグ付けに限られていました。今やAIは、ほぼ人間の精度で数百万の投稿を同時に分析するリアルタイムの大規模な追跡を可能にしています。
第二に、この技術は中国だけに限定されているわけではありません。世界中の政府がAI監視ツールの実験を行っています。アメリカでは、法執行機関が予測的な警察活動のためにAIを使用してきました。イギリスでは、公共の場でAI駆動の顔認識が展開されています。違いは、中国のシステムが国境の外での会話をターゲットにしているようであることです。つまり、国際的なユーザーがAI駆動の監視下にあるということです。
最後に、次に何が起こるかという問題があります。OpenAIの調査結果は、AI監視の台頭が将来来るものではなく、すでに存在していることを示唆しています。そしてAIモデルの進歩により、これらのシステムはますます効率的になり、検出が難しくなり、より侵略的になるでしょう。
これは単なる技術的な問題ではなく、地政学的な懸念です。西側政府はどのように対応するでしょうか?AIモデルが監視のために悪用されるのを防ぐための規制が行われるのか、それともこれはAI駆動の情報戦の始まりに過ぎないのでしょうか?
デュアルユースのジレンマ:AIは諸刃の剣となりました。一方では、産業を革新し、検索エンジン、カスタマーサポート、創造的なツール、さらには医療を強化しています。しかし他方では、大規模な監視、国家検閲、偽情報キャンペーンを助長しています。
OpenAIの最新の発見は、AIがもはや単なるイノベーションのためのツールではなく、情報戦の武器となり、ナラティブを形成し、オンラインの言論をコントロールしていることを証明しています。
これは重要な疑問を提起します:OpenAIとMetaは懸念すべきでしょうか?AI開発を促進するためにオープンソース化されたMetaのLLaMAが、政府支援の監視のために再利用されるようになりました。OpenAIはすでにその技術の悪用を阻止するための措置を講じていますが、さらに進むべきでしょうか?
AIモデルへのアクセスを制限することで悪意のある使用を防ぐことができますが、それはイノベーションと透明性も制限し、AI開発を私的で規制されていない手に押しやる可能性があります。
そしてそれは、AIをどのように規制するかという大きな議論につながります。一部の専門家はAIが武器化されるのを防ぐためにより厳しい管理が必要だと主張しています。他の専門家は、過剰な規制が進歩を妨げ、最も強力なAIモデルを制御できるのは政府と企業だけになり、AI駆動の影響力の独占を生み出す可能性があると警告しています。
その間、私たちはすでにサイバーセキュリティと監視からプロパガンダと心理作戦まで、あらゆることにAIを使用する政府とのAI軍拡競争の最中にあるかもしれません。本当の疑問は、将来誰がAIを制御するのか、そしてどのようなコストでそれが行われるのかということです。
AI監視の未来について、OpenAIが中国のAI監視ツールを公に暴露した今、最大の疑問は次に何が起こるかということです。OpenAIはすでにAI駆動の監視と偽情報キャンペーンについて当局に報告書を発行していますが、この発見が実際に行動につながるのか、それとも成長するAI軍拡競争の中でのもう一つの無視された警告となるのかということです。
これまでのところ、中国はOpenAIの調査結果に関する公式声明を発表していません。同様の状況では、北京はこれまで関与を否定するか、そのような報告を西側のプロパガンダとして枠組みしてきました。彼らはAI監視の取り組みを倍増させるのか、それとも国際的な圧力によって戦略を変更するのかという疑問が残ります。
Meta、Google、OpenAIなどの大手テック企業は現在、大きなジレンマに直面しています。彼らは悪用を防ぐためにAIモデルへのアクセスを制限し始めるべきでしょうか?もしそうすれば、悪意のある行為者を遅らせる可能性がありますが、それはAI開発をより不透明にし、政府が閉ざされた扉の後ろでAI能力を私物化することを可能にするかもしれません。
確かなことが一つあります。この発見はグローバルなAI規制を促進するでしょう。欧州連合、アメリカ、その他の国々はすでにAI安全法について議論しています。OpenAIの調査結果は、より厳しいAIアクセスポリシーを推進し、政府と企業がAIを世界的に展開する方法を再形成するかもしれません。
しかし、規制はAI駆動の監視を止めるのに十分でしょうか?AIがすでに政治的議論を追跡できるとしたら、金融取引、生体認証データ、あるいは個人的な会話にまで拡大するのを阻止するものは何でしょうか?
私たちは、AIがオンラインで何が見られ、聞かれ、検閲されるかを決定する時代に入りつつあります。これらのシステムが高度になればなるほど、それらを検出したり止めたりすることは難しくなるでしょう。
では何ができるでしょうか?AIの透明性、より強力な規制、倫理的なAI開発への呼びかけが、これまで以上に緊急になっています。しかしそれは、人々が何が起きているかを認識している場合にのみ可能です。そこであなたの出番です。情報を得て、議論に参加し、会社や政府からの説明責任を求めましょう。
ここまで読んでいただいた方は、以下のコメント欄であなたの考えを教えてください。より興味深いトピックについては、画面に表示されている推奨ビデオをご覧ください。ご視聴ありがとうございました。


コメント