もうひとりのOpenAI科学者が退社—AGIは「時限爆弾」と警告

AGIに仕事を奪われたい
この記事は約10分で読めます。

5,353 文字

Another OpenAI Scientist QUITS —Says AGI Is a ‘TICKING TIME BOMB’
Is Artificial General Intelligence (AGI) a ticking time bomb? Another top scientist at OpenAI has quit, warning that the...

私の言葉を記録しておいてください。AIは核兵器よりもはるかに危険です。AIの危険性は核弾頭の危険性をはるかに上回っています。問題は、それがあまりにも急速に起こるということです。強力な汎用AIを持つ10年後の生活を想像してみてくださいと人に尋ねると、それは指数関数的に増加し、AIの開発競争はそれを作った専門家たちでさえ恐れるほどの速さで加速しています。そして最新の警鐘を鳴らしたのは、スティーブン・アドラーという元OpenAI安全研究者で、彼は最近会社を去りました。
彼は公に、AGI(人工汎用知能)は時限爆弾だと警告しています。しかし彼だけではありません。かつてOpenAIの安全研究の中核にいた人々を含む、世界トップクラスのAI専門家たちが、スピードと利益のために安全性のリスクが無視されていると主張して去っていきました。では、OpenAI内部で実際に何が起きているのでしょうか?なぜこれほど多くの安全性専門家が去っているのか、そしてAGIは本当にこれらの科学者たちが主張するほど危険なのでしょうか?これらすべてを詳しく見ていきましょう。
OpenAIの内部混乱
スティーブン・アドラーのOpenAIからの辞任は、増加傾向にある一部であり、それはAI安全性の未来について懸念すべき状況を示しています。4年間AIの安全リーダーとして働いたアドラーは、AGIへの競争は「大きなリスクを伴う非常に危険な賭け」だとXで述べました。それだけでも強い発言ですが、さらに心配なのは、OpenAIが過去1年間に見てきた離職のパターンです。
アドラーは最初の人ではなく、おそらく最後の人でもないでしょう。2023年だけでも、イライアス・スツカバーとヤン・リークという、OpenAIのトップAI安全研究者2人が会社を去りました。スツカバーはOpenAIの共同創設者で、同社の最も先進的なAIモデルの開発において重要な役割を果たしました。OpenAIのスーパーアライメントチームを共同リードしていたリークは、辞任後にOpenAIを公に批判し、安全性が華やかな製品に対して後回しにされていると述べました。
そしてそれだけではありません。ダニエル・ココタイロというもう一人のAI安全研究者は、現在OpenAIのAIリスクチームのほぼ半分が去ったことを明らかにしました。これは深刻な懸念を引き起こします。AIの安全性確保を任された当の人々がOpenAIの安全へのコミットメントを信じていないとしたら、私たちが直面するリスクについて何が言えるでしょうか?
スティーブン・アドラーのAGIに関する恐ろしい警告
アドラーの懸念はOpenAIだけにとどまりません。彼はAI業界全体が、AIアライメントという重要な問題を解決せずに速すぎるペースで進んでいることを心配しています。彼は投稿で次のように述べました。「今日、どの研究所もAIアライメントの解決策を持っていません。そして私たちが急げば急ぐほど、誰かが間に合う解決策を見つける可能性は低くなります」。
文脈として、AIアライメントはAI安全性における最も差し迫った課題の一つです。これは、AIシステムが意図しない結果なしに人類に有益な方法で動作することを確保する能力を指します。そして現時点では、AGI(人工汎用知能)を人間のコントロール下に保つことを保証する方法はありません。
これがアドラーの警告をとても憂慮すべきものにしています。彼は現在のAI開発の軌道に「かなり恐怖を感じている」ことを認めました。そして彼は仮説的な話をしているのではなく、この問題が未来についての彼自身の個人的な決断に影響を与えていると言っています。彼はこう書きました。「将来家族をどこで育てるか、あるいは退職のためにどれくらい貯金すべきかを考えるとき、人類がその時点まで生き残るのかという疑問を持たずにはいられません」。
これは世界をリードするAI企業の一つで何年も働いてきた人物からの重大な発言です。そしてそれは重要な疑問を投げかけます。もしもこれらのシステムを構築した専門家たちがこれほど懸念しているなら、私たち全員がもっと注意を払うべきではないでしょうか?
AGI開発競争が制御不能に陥りつつある
この急速な加速の最大の理由の一つが、特に米国と中国の間のグローバルなAI軍拡競争です。最近、Deep Seek AIという中国企業が、OpenAIのモデルと同等かそれを上回るAIモデルをわずかなコストで構築した可能性があるとの報告が出てきました。この発展は業界に衝撃を与え、米国の投資家をパニックに陥れ、OpenAI、Google DeepMind、Anthropicなどの企業に対応を迫りました。
そして、OpenAIのCEOであるサム・アルトマンはどう反応したでしょうか?彼は慎重さを呼びかける代わりに、即座にOpenAIの次の主要なAIリリースの時期を前倒しすると発表しました。彼はDeep Seekの突破口を「活気づける」とさえ呼びました。
しかし、これはまさにアドラーや他のAI安全研究者たちが警告していることです。一つの企業が積極的に前進すると、他の企業も同じようにせざるを得なくなります。OpenAIが減速すれば、競合他社に追い越される可能性があります。だからこそ、重要な安全上の課題を何も解決していないにもかかわらず、AIラボは史上最速のペースで開発を加速しているのです。
これはカリフォルニア大学バークレー校のスチュアート・ラッセル教授などの研究者が「崖っぷちへのレース」と呼んでいるものです。ラッセルは、AIラボが減速しなければ、AGIが人間の知能を超えても、それをコントロールする方法を知る前に到達してしまう可能性があると繰り返し警告しています。
そしてここでさらに懸念が高まります。このレースを推進しているCEOたちの一部でさえ、AGIレースの勝者が人類の絶滅を引き起こす可能性があることを認めています。これらのAIラボをリードしている人々自身がAGIが悪い方向に進む本当のチャンスがあると信じているのであれば、なぜ物事を遅くすることについてもっと公の議論がないのでしょうか?
OpenAIの安全チームが崩壊しつつある
アドラー、リーク、スツカバーなどの離脱により、OpenAIはAI安全性に関して困難な立場に置かれています。OpenAIのスーパーアライメントチーム、つまりAGIが制御下にあり続けることを確実にすることに特に焦点を当てていたグループは、大きく弱体化しています。
そして最も懸念すべき部分は次のとおりです。OpenAIはすでに計算リソースのわずか20%を安全研究に充てていました。多くの安全専門家が去った今、その数字はさらに小さくなっています。その間、OpenAIは元安全研究者たちが提起した懸念に対処することなく、より大きく強力なモデルを推進し続けています。
これはすべて、2023年にサム・アルトマンがOpenAIのCEOとして一時的に解任された後に起こっています。この動きは、少なくとも部分的にはAI安全性をめぐる意見の相違に関連していたと多くの人が信じています。アルトマンは従業員や投資家からの圧力の後、わずか5日後に復帰しましたが、彼が解任された理由についての疑問は完全に答えられていません。
そして彼の復帰以来、OpenAIは、元従業員たちからの懸念が高まっているにもかかわらず、AGIに向けてさらに速く進んでいます。今、大きな疑問は次に何が起こるかです。
OpenAIやその他の主要AIラボがAIアライメントの機能的な解決策なしに前進し続けると仮定すれば、AGIがもはや人間の制御下にない未来に向かっているのでしょうか?それがまさにスティーブン・アドラー、ヤン・リーク、そして他の多くの元AI安全研究者たちが警告していることです。そして彼らの懸念に基づけば、これは単なる仮説的なリスクではなく、リアルタイムで展開されている問題です。AIレースは減速しておらず、そのリスクはこれ以上ないほど高いものです。
サム・アルトマンの権力闘争とAGIの野望
今日のOpenAIで何が起こっているかを完全に理解するためには、2023年11月にOpenAIのリーダーシップが完全な混乱に陥った時に戻る必要があります。テック界全体を震撼させた動きで、サム・アルトマンはOpenAIのCEOとして突然解雇されました。この決定は当時、イライアス・スツカバーなどの重要人物を含むOpenAIの取締役会によって行われました。最初は明確な説明はありませんでしたが、詳細が明らかになるにつれ、AI安全性への懸念とアルトマンのAGIへの積極的な推進が主要な役割を果たしたと報告されました。
5日間、OpenAIは危機モードでした。何百人もの従業員が辞職すると脅し、Microsoftのような投資家は取締役会に圧力をかけ、OpenAIの未来は不確実に思えました。そして、彼が解任されたのと同じくらい突然に、アルトマンは復帰しました。取締役会は再編され、数日以内にアルトマンはかつてよりもさらに強力になったことが明らかになりました。
しかし、より慎重なアプローチを取る代わりに、アルトマンはAGIへの野望を倍増させました。インタビューで彼は、自分の目標はただのAGIではなく、「AGIとその先」だと繰り返し述べています。リスクに関係なく、AGIは避けられないと信じているため、OpenAIは前進し続けるだろうと明言しています。
問題は、どのような代償を払ってかということです。彼の復帰以来、OpenAIはかつてないほど速く動いています。2024年3月、同社はGPT-4 Turboモデルを発表し、さらなる進歩を約束しました。そして中国のDeep Seek AIからの競争により、OpenAIはそのタイムラインをさらに加速させています。
しかし、このレースが行き過ぎるとどうなるでしょうか?AI安全性がすでに優先順位を下げられ、赤旗を掲げている人々が会社を去っている場合、実際に誰がこれらのAIシステムが人間の制御下に留まることを確認しているのでしょうか?そしてより重要なことに、誰も制御できなくなったらどうなるのでしょうか?
AGIは本当に時限爆弾なのか?
この時点で、トップAI研究者たちはかつてないほど大きな警鐘を鳴らし始めています。スティーブン・アドラーの警告はOpenAIだけについてのものではありませんでした。それはアライメントを解決せずに速すぎるペースで進んでいるAI業界全体についてのものでした。そしてそこが危険になるところです。
現在、どのAIラボもアライメント問題を解決していません。AGIが常に人間の価値観や目標に沿って行動することを確保する方法を誰も解明していません。それにもかかわらず、AGIレースはすべての企業により速く動くよう強制しており、より遅くはなっていません。
アドラーは率直に述べました。「ラボが本当に責任を持ってAGIを開発したいと思っていても、他のラボはコーナーをカットして追いつこうとする可能性があり、おそらく壊滅的な結果になるでしょう。そしてこれがすべてのラボに加速を強いるのです」。
言い換えれば、これはOpenAIだけの問題ではなく、業界全体の軍拡競争なのです。そして一社がブレーキなしのスピードで前進し続ける限り、残りの企業は追いつかざるを得なくなります。
しかし、追いつくことが重要な安全対策を急ぎ過ぎることを意味するとしたらどうでしょうか?それこそがスチュアート・ラッセルが警告したことです。彼はAGIレースを「崖っぷちへのレース」と呼びました。なぜなら、いったんAIが人間の知能を超えると、私たちはもはや制御下にない可能性があるからです。
そして最も恐ろしい部分は、このレースをリードするCEOたちでさえリスクを認識していることです。技術リーダーたちは、AGIレースに勝つ企業は「人類の絶滅を引き起こす重大な確率がある」と公に述べています。それを考えてみてください。
これらのシステムを構築している当の人々がリスクを知っていて、それでも前進し続けているのです。では本当の疑問は、なぜなのかということです。
OpenAIで働いていた科学者たちがこれほど懸念しているのであれば、世界トップクラスのAI研究者の一部がAGIが制御不能に陥る可能性があると信じているのであれば、AI企業のリーダーたちでさえAGIを制御下に保つ方法がわからないと認めているのであれば、なぜ私たちは依然として全速力で前進しているのでしょうか?
なぜなら、この時点で警告は陰謀論者やSF作家から来ているのではなく、まさにこれらのAIシステムを最初に構築した人々から来ているのです。もし彼らが安全だと感じていないなら、私たちはどうすべきでしょうか?
ここまで読んでいただいた方は、以下のコメント欄であなたの考えをお聞かせください。より興味深いトピックについては、画面に表示されているおすすめ動画をご覧ください。ご視聴ありがとうございました。

コメント

タイトルとURLをコピーしました