OpenAIが米国防総省と2億ドルの契約を締結したことを受け、AI技術の軍事利用がもたらす深刻な危険性について詳細に分析した動画である。AI研究の第一人者であるジェフリー・ヒントンやヨシュア・ベンジオの警告を引用しながら、自律兵器システムが戦争の敷居を下げ、道徳的責任の所在を曖昧にする問題を指摘している。さらに、現在ウクライナやガザで既に使用されているAI兵器の実例を挙げ、技術の進歩が人類に与える潜在的脅威について論じている。
OpenAIと米国防総省の歴史的契約
OpenAIが米国政府と2億ドルの契約に署名しました。どの省庁だと思いますか?我々は何年もの間、OpenAIのような数十億ドル企業が癌治療を変革すると聞かされてきました。そうであれば保健省でしょうか。また、人工知能があらゆる背景の子どもたちに専用の個人教師を提供すると聞かされてきました。そうであれば教育省でしょうか。
ああ、もちろんです。OpenAIが政府と結んだ初のパートナーシップは米国防総省とのものでした。誰が予想できたでしょうか。
この契約でOpenAIは2億ドルを得ることになります。ペンタゴンはこの契約を次のように説明しています。「この契約の下で、契約者は戦闘と企業領域の両方における重要な国家安全保障上の課題に対処するため、最先端AI能力のプロトタイプを開発します」
戦闘です。
AI軍事統合の危険性
軍事技術とAI技術を統合することが悪いアイデアである理由は数多くあります。主要なAI企業と軍産複合体の融合がいかに間違った方向に進む可能性があるかについて、いくつか説明いたします。
その前に、AIの父の一人であるジェフリー・ヒントンが自律致死兵器の問題について述べた内容を見てみましょう。
「それらの最悪な点は、強大で豊かな国が常により小さく貧しい国を侵略する能力を持っていることです。彼らは単により強力だからです。しかし、実際の兵士を使ってそれを行うと、死体が袋に入って帰ってきます。そして殺された兵士の親族はそれを好みません。結果として、ベトナムのような状況が生まれ、最終的には国内で大きな抗議が起こります。
しかし、袋に入って帰ってくるのが死体ではなく壊れたロボットだとすれば、抗議ははるかに少なくなるでしょう。そして軍産複合体はそれをより好むでしょう。なぜならロボットは高価であり、殺される可能性があり、交換するのに費用がかかるものを持てるとすれば、それは素晴らしいことだからです。大国は自分たちの兵士が殺されることなく、小国をはるかに簡単に侵略できるようになります」
これはAIの父であり、この技術の開発でノーベル賞を受賞したジェフリー・ヒントンの言葉でした。彼は今週初めに話していました、少なくともこのDiary of the CEOポッドキャストの動画が今週初めにリリースされました。OpenAIとの提携前のことでしたが、これがなぜ非常に悪いアイデアなのかを非常によく説明していると思います。
ドローン戦争と自律兵器の現実
AIボットがあなたの戦争を戦えば、実際のコストはありません。財政的コストはありますが、それは軍産複合体に直接流れ込み、彼らはそれを非常に喜んでいます。しかし、人間が遺体袋に入って帰国することがないため、政治的コストは非常に少ないのです。ロボットが帰ってくるのです。
これは既に起こっていると考えている方もいるでしょう。我々は既にドローンを持っており、無人ドローンは戦闘をはるかに安全にしています。それは部分的に真実です。確かに戦闘をはるかに安全にします。要点は、AIがこれをステロイドのように強化するということです。
例えば、ドローンの制限の一つは、ドローンの操縦者とドローン自体の間の接続を停止する妨害技術があることです。自律ドローンがあれば、接続を維持する必要がありません。なぜなら、それが標的となる人物や物を選択し、独自に実行するからです。
このようにして、米国が自国の軍人を全く関与させることなく、ある国に相当な損害を与えることができる理由がわかるでしょう。
AI研究者たちの警告
もちろん、この番組で議論してきたように、AIに関して、特にAIと軍事装備の統合に関して、より推測的な懸念もあります。以前に話したように、いわゆるAIの3人の父のうち2人が、AIが自律的になり人類に対抗する可能性があると考えています。
その一人がジェフリー・ヒントンです。SF小説のように聞こえますが、これらは誰よりもこの技術を理解している人々であり、これが彼らが本当に心配していることなのです。
もう一人はヨシュア・ベンジオです。ベンジオはヒントンとヤン・ルカンとともに、ニューラルネットワークの開発における役割で2018年のチューリング賞を受賞しました。彼らはいわゆるAIの3人の父です。
ベンジオはAI乗っ取りのリスクについて警告しています。3週間前、彼はAIが我々を欺き、AI開発を遅らせることを提案するTEDトークを行いました。15分間の非常に興味深い内容ですので、ぜひご覧になることをお勧めします。
エリック・シュミットの反対意見
ベンジオのAI開発を遅らせるという呼びかけは、同じTEDカンファレンスにいた別の技術リーダーに向けられました。元Google CEOのエリック・シュミットです。彼はAI開発を遅らせるべきではないと考えており、ガードレールを設けるべきだと考えています。
「業界が信じている基準のセットがあり、それらは比喩的にプラグを抜きたい点です。一つは制御できない再帰的自己改善です。再帰的自己改善とは、コンピューターが独自に学習しており、何を学んでいるかわからない状態です。これは明らかに悪い結果につながる可能性があります。
もう一つは兵器への直接アクセスです。さらに、コンピューターシステムが我々の許可なく自分自身を複製することを決定することです。このような一連の事柄があります。
ヨシュアのような優秀な人物のスピーチの問題は、世界的に競争の激しい市場で物事を止めることは実際には機能しないということです。エージェンティックな作業を止める代わりに、今ガードレールを確立する方法を見つける必要があります」
私はエリック・シュミットの完全な動画も別の理由で見ることをお勧めします。ヨシュア・ベンジオは非常に説得力があると感じましたが、エリック・シュミットは完全に恐ろしいと思いました。なぜなら、彼は基本的に我々は遅らせる必要はない、ただこれらのガードレールが必要だと言っているからです。
ガードレールの虚構性
AI界の誰もがこれらがレッドラインであることに同意していますが、AI界の誰も再帰的自己改善を行わないと具体的に言っていません。OpenAI、Anthropic、DeepMindのいずれも、それを行わないとは言っていません。そして多くの企業が、おそらくその瀬戸際にいると言っています。
コンピューターやこれらのモデルが自分自身を流出させようとすることについて、Anthropicは新しいモデルの一つが実際にそれを試みたことを示しましたが、停止していません。プラグを抜いていません。
兵器に関しては、彼はそれらを兵器に接続することもレッドラインであることを人々が理解していると言っています。もしそれを始めるなら、プラグを抜くべきです。ご覧の通り、それが今起こっています。
OpenAIの方針転換
AI企業が軍事用途を軍事分野に展開するには危険すぎると見なした考えは、かつては理にかなっていたかもしれません。エリック・シュミットは単に時代遅れなのかもしれません。なぜなら、OpenAIは元々その軟体の軍事目的での使用を禁止していたからです。
それは主に、この世界の多くの人々が、我々の制御から逸脱する可能性のある技術を作り、それにすべてのドローンへのアクセスを与えることの巨大な実存的リスクを認識していたからです。
しかし1月に、OpenAIはその禁止を静かに撤廃しました。おそらく数十億ドルの利益があることを見て、また彼らはアメリカの安全保障機関との同盟関係にあると思います。なぜならOpenAIは、我々を遅らせることはできない理由は中国に勝つ必要があるからだと言っているからです。
そのため、OpenAIと米国の軍産複合体の間には非常に居心地の良い関係があり、私はそれを恐ろしいと思います。
ウクライナ戦争での自律兵器の実用化
シュミットがそのスピーチを行った時、彼は時代遅れでした。なぜなら、AIは既に人を殺すことに関してある程度の自律性を与えられているからです。これは先月のウクライナ戦争における自律ドローンに関するドイツの報告です。
「AIはキルチェーンのプロセスを加速している:位置特定、攻撃、評価。ウクライナ軍は戦術的決定のためのドローンデータの使用に優れています。これらのプロセスの多くは現在自動化されています。
実際、自律ナビゲーションは人間がドローンを飛行させるよりもはるかに効果的であることが証明されています。命中率は通常10〜20%ですが、自律ナビゲーションを搭載したドローンでは命中率が最大80%まで跳ね上がる可能性があります。
徘徊弾薬は神風ドローンの形を取る可能性があります。それらは最大9時間エリア上空を旋回します。センサーが潜在的な標的を特定し、訓練された標的と比較します。良い一致が見つかった場合、ドローンとその爆発装置が降下し、通常は兵士が標的に直接突撃します。
兵士たちはプロセスを監視し、ループに人間を保ちます。疑わしい場合、彼らはまだ中止できます」
疑わしい場合、彼らはまだ中止できると書かれています。特に、前述したように、AIドローンが特に価値がある理由の一つは、システムジャマーのためにそれとの接続を失った場合でも、まだ仕事を完遂できることだからです。
そのため、軍事が「我々との接触を失うかどうかに関係なく、この標的を破壊してほしい」とこのAIに言う真のインセンティブがあります。それは完全に自律的な殺害です。
専門家による分析
スティーブン・メサンを番組にお迎えします。久しぶりですね、これらの話題にはかなり時間がかかりました。非常に興味深い番組ですが、スティーブン、これらのAI企業と世界で最も先進的な軍事との融合について、私と同じくらい心配していますか?
私は非常に心配しています。あなたがその部分をやっている間、子どもの頃に映画『ロボコップ』を初めて見たことを考えていました。おそらく見るには若すぎたのですが、デトロイトで自律ロボット警察官がいて、それが暴走して一般市民を殺すシーンで始まります。
そして誰がそれを喜んでいるかというと、競合するAIロボット会社です。なぜなら、これらの技術が戦争や警察のシステムに入ると、決して出てこないことがわかっているからです。より良くなるか改善される必要があるだけで、この場合の改善とはより良い殺人機械を意味します。
現代戦争の最も不穏な側面の一つであり、これが追加するだけの側面は、現代戦争における殺害の遠隔性です。戦争に行くことがより危険でなくなると表現されましたが、戦争に行くことは危険であるべきだと思います。それは本当に大きな決断であるべきです。兵士の何人かを失う可能性があるからというだけでなく、人間に他の人間を殺すことを求めているからです。
戦争の非人間化への懸念
現代戦争のゲーム化、遠隔性、遠く離れたコントロールセンターから人々を殺すことができ、実際に殺すことがどのようなものかを目撃したり感じたりする必要がなく、兵士として道徳的危険を負わないという事実は、非常に危険で不穏な方向だと思います。
そして自律的なAIはそれをさらに悪化させるだけでしょう。なぜなら、間違った場合、民間人が殺された場合、間違った標的が攻撃された場合、誰が責任を負うのかさえ明確でないからです。
AI戦争やAI兵器がより正確で、エラーの余地が少ないという議論もされるでしょう。しかし、例えばガザで既に使用されているAIなどから、閾値はまだ人間によって設定されることがわかっています。
より正確な殺害を持つことはできますが、実際には多くの間違った人々が殺されることを気にしないように閾値を設定できます。例えば、ガザで標的を特定するためにイスラエルが使用しているLavenderは10%のエラー率を持っているとされています。これはイスラエルの雑誌972によるものです。
また、イスラエル軍は民間人の殺害に関して比較的高い閾値を設定することが許可されていました。明らかにこれは今ガザでのイスラエルの大きな目的に貢献していますが、それは人間の決断です。閾値をより高く設定すると、より正確かもしれないAIを使用している時でも、より多くの民間人の死を保証することになります。
ガザでのAI兵器システム
ガザで使用されたもう一つの非常に不穏なAIは「Where’s Daddy(パパはどこ?)」と呼ばれていました。それが行ったことは、標的を特定し、それらの家族の家に追跡してから、それらの家が爆撃されることでした。言い換えれば、ほとんどの場合、標的だけでなく家族全体の殺害を保証していました。
これらは非常に恐ろしいAIの応用であり、大量虐殺を可能にした方法の一つです。大量虐殺が許可された理由の一つは、同じように積極的に関与している兵士がいないからです。実際に個人間の対峙があり、多くの場合実際に人間が引き金を引く状況であれば、兵士や予備兵からもっと抵抗があると思います。
兵士が戦争に従事する際に本当に負うべき道徳的危険の除去は、私にとって戦争がより残酷になることを意味します。そう、良い展開ではないと思います。
道徳的責任の問題
イスラエル国防軍がパレスチナ人について話す方法を聞いていると、おそらく自動化されていなくてもそれを管理できるでしょう。しかし、それがはるかに簡単になることには完全に同意します。人がその決断を下し、実際の結果に直面することをより好みます。
肉食について人々が言うことがありますよね、もし自分で牛や羊を殺さなければならないなら、ベジタリアンの選択肢に行くかもしれません。そして戦闘についても同様の議論ができると思います。自分で殺害を行う必要がなければ、最初にそれを行うのを止める可能性のある同じ道徳的ジレンマに直面しません。
より科学小説的だと人々が考える結果については、確かにより科学小説的だからです。AIの3人の父がいて、ヤン・ルカンは彼らが制御を奪うことを心配すべきではないと言い、そのうち2人、ヨシュア・ベンジオとジェフリー・ヒントンはそう考えています。
これは3人中2人で、彼らが制御を奪うと私を本当に確信させるわけではありません。しかし、これらの懸念を却下することを非常に躊躇させます。技術の3人の父のうち2人がこれは世界を終わらせる可能性があると言っているなら、その懸念を却下する衝動を奇妙に感じます。だからこそ私はそれについて言い続けているのです。


コメント