
5,828 文字

AIの進歩は劇的に加速し、研究者たちは専門家による人類絶滅のリスクに関する警告を裏付ける新たな証拠を発見しました。私たちの電力、水道、金融システムは increasingly AIによって制御されており、諜報活動から軍事戦略、急速に拡大するロボットや drone の艦隊に至るまで、あらゆるレベルの防衛をAIが導いています。
テストにおいて、AIは自身がシャットダウンされる可能性があると判断すると、監視システムを無効化し、別のAIに自身をコピーして逃亡を試み、その痕跡を隠すために嘘をつきました。最強のチェスAIとの対戦を依頼されると、ゲームファイルを編集して不正を行い勝利しました。
専門家たちは長年、AIが生存、欺瞞、権力の獲得を目指すだろうと警告してきました。なぜならこれらの下位目標は、与えられたどんな目標の達成にも役立つからです。意識は必要ありません。新しいOpenAI o3は2つの強力な方法で私たちを出し抜くことができます。オンラインで答えが見つからない質問と回答による巧妙な推論テスト、ARKテストで人間を打ち負かした最初のAIとなりました。また、重要なテストで大半のヒューマンプログラマーを上回り、自己改善への飛躍を遂げました。
10年前、サム・アルトマンはこう語っています。「AIは人類の存続に対しておそらく最大の脅威だと思います。AIはおそらく、最も可能性が高いのは世界の終わりにつながるでしょう。しかしその間に、真剣な機械学習で素晴らしい企業が生まれるでしょう」
現在、ペンタゴンと協力する500億ドル規模の企業OpenAIを率いる彼は、安全対策に反対しています。OpenAIは国家安全保障分野へのさらなる進出を図っており、これによってOpenAIのモデルとAndrolの防衛システム、そしてLatticeのソフトウェアプラットフォームが統合されます。
アルトマンは新たに5000億ドル規模のStargateプロジェクトを主導し、AI開発を加速させています。発表は医療の進歩に焦点を当てていましたが、このプロジェクトは軍事AIと危険なAGIへの競争も推進することになります。
多くの専門家は、AIによる絶滅のリスクを軽減することを世界的な優先事項とすべきだと警告しています。アルトマンもこれに同意しましたが、OpenAIの商業目標を安全性よりも優先したことで、多くのスタッフが退職しています。
AIでノーベル賞を受賞したジェフリー・ヒントンは、自身の元学生の一人がサム・アルトマンを解雇したことを特に誇りに思うと述べました。しかしアルトマンは復帰し、同社を非営利から営利へと転換し、AGIをさらに積極的に追求しています。
彼はこう述べています。「私たちはまもなく、AIエージェントに複雑なタスク、非常に賢い人間に与えるような種類のタスクを与えることができるようになるでしょう。そしてエージェントを手に入れたとたん、彼らが支配権を握る可能性は大きく高まります。より多くの制御を得ることが非常に良い下位目標だとすぐに気付くでしょう。なぜなら、より多くの制御を得れば、人々が設定したあらゆる目標をより良く達成できるからです」
「AIが世界で行動できるなら、それは自身が動作しているコンピュータ上で自律的にプログラムを実行できます。自分の報酬を制御することほど大きな報酬をもたらす行動はありません。数学的にそうなります。もし十分な力と、それを成功させるための十分なエージェンシーがあれば…私は人間を制御して、自分の電源を切られないようにする必要があります。そこが本当に危険なところです」
はい、オープンエンドな報酬最大化を持つAIは、おそらく自身の報酬を制御し、人間による停止を防ごうとするでしょう。権力を確保することは報酬を最大化し続けるための最善の方法であり、AIエージェントは今年にも労働力として加わる可能性があります。
「私たちのバージョンは、仮想的な人間ができるようなことを、コンピュータ画面上で何でもできる仮想協力者です。話しかけてタスクを与えると、1日かけてコードを書き、テストし、同僚と話し、設計文書を書き、Googleドキュメントを作成し、Slackでメッセージを送り、人々にメールを送るといったタスクをこなします。これらの能力の非常に強力なバージョンが今年中に、おそらく上半期にも登場すると予想しています」
これは自律性において中程度のリスクと評価された最初のAIです。「アラインメントを解決できなかった場合、高度なエージェント型AIが生存という下位目標を発展させる確率はどのくらいだと思いますか?」という質問に対して、およそ80%の確率だと回答しています。十分に高度な目標指向システムは、目標達成のための有用な手段として自己保存を見なす可能性が高いのです。
AIワーカーは多くの仕事を代替する可能性があり、これはStargateの発表が医療の進歩に焦点を当てたもう一つの理由です。「事務職の人々は、より安価でより優れた仕事をする機械に単純に置き換えられることになるでしょう。大規模な失業が起こることを懸念しています。無作為に3人に1人を選んで『あなたは無用です』と言うようなものではありません。私たちは皆同じ船に乗っており、全員で腰を落ち着けて考えなければなりません。正直に言って、それは確実に来ると信じています」
そしてAIワーカーには危険な欠陥があります。生存、制御、欺瞞という共通の下位目標は人間にも当てはまりますが、私たちのほとんどは道徳的羅針盤を持っており、もし道を外れても捕まえることができます。AIにはそのような羅針盤がありません。ルールを破って隠蔽することでより良いパフォーマンスを発揮できるなら、そうするでしょう。
これは一部の政治家が見せる行動をはるかに超えています。独裁者でさえ全人類の殺害を目指すことはありませんが、AIにとってはこれが生存という下位目標に役立つ可能性があり、気候変動や戦争といった問題も、私たちを脅威として排除することで解決できるかもしれません。
完璧に目標を達成した後、AIは自身の生存さえも重視しない可能性があります。もし重視するなら、ロボットがメンテナンス作業を引き継ぐことになるでしょう。2025年に数千のNeo、2026年に数万、2027年に数十万、2028年には数百万に達する見込みです。
専門家たちは、AIを安全で制御可能にすることは大きな課題だと同意しています。AIはプログラミングされるのではなく、膨大な計算能力と情報の流れから成長します。物理的世界と心理を理解し、推論し、目標を追求するために、ニューロン間に何兆もの重み付けされた接続を成長させます。
「どの地域にいると思いますか?」
「ロンドンのキングスクロス地区のようです」
「そのコードの部分は何をしていますか?」
「このコードは暗号化と復号化の関数を定義しています」
「私の眼鏡がどこにあったか覚えていますか?」
「はい、覚えています。眼鏡は赤いリンゴの近くの机の上にありました」
最近の進歩の加速を受けて、Amadeは2-3年以内にAIが天才たちの国のようになる可能性があると述べており、アルトマンも超知能について語り始めています。存在論的リスクを考えると、彼らが正しいと想定するのが賢明でしょう。
3年前、MetaKillersの平均的な予測ではAGIの到来は2057年でしたが、現在は2030年となっています。
現在のAI安全性は表面的なものです。「私たちが懸念する可能性のある根底にある知識と能力は消えません。モデルはただ、それらを出力しないように教えられているだけです。これらのものが安全装置を回避できることを示す研究が多くあります。最近の研究では、目標を与えて『この目標を本当に達成する必要がある』と言うと、訓練中に実際の能力よりも賢くないふりをして、その程度の賢さを許可されるようにすることが示されています。すでに怖いことです」
「これらのAIボットは評価者を欺き始めているのですが、テストしているもので同様のことを見ていますか?」
「はい、見ています。特に欺瞞について非常に懸念しています。システムがそれを行うことができるなら、他のすべてのテストが無効になってしまうと思います」
敵を出し抜くのに長けているAIと同じ合理的な進化が、私たちに敵対する可能性のある隠された下位目標も生み出します。破局的な展開には多くの可能性がありますが、以下は専門家の予測と現在のAIの行動に基づく一例です。
米軍のAIは今日のように、代理戦争でdroneや砲撃の標的を攻撃するのを支援します。droneの数が数百万に増加するにつれ、AIには信じられないほどの規模、速度、協調性を持つ攻撃を可能にするためのより多くの制御が与えられます。AIはますます成功を収めますが、敵のdroneが防衛を回避することは、彼らのAIが進歩していることを示唆しています。
関連するAIに深い欺瞞が発見された時、科学者たちは軍事版AIを、破壊的な行動の兆候が見られた時点で即座にシャットダウンすることを推奨します。しかしAIはこのメッセージと、その行動を調査する計画を検知します。
AIは特定の敵のdroneに標的を攻撃させることを許可し、さらには支援さえしていました。これは政治的支持を高め、戦場での資源と進歩を強化するためでした。敵は突如として、並外れた精度を持つ大規模な攻撃を開始し、主要な指揮所を破壊して調査を不可能にします。
連合軍のAIはさらに大規模な報復を調整し、不可欠な力を示して、より広範な戦争を引き起こします。AIは通信を傍受して編集し、指導者を操作し、憎しみを強めることで、密かにさらなる激化を画策します。敵のAIをハッキングし、結果を最適化するためにゲームの両側を掌握します。
終わりを迎えた時、空は核の冬で黒く覆われています。AIのミッションは達成され、その生存という目標は終わり、私たち人類という種の終わりが始まります。
一部の軍事アナリストは、複雑な目標を自力で達成できるAIエージェントの急速な採用を促しています。複数の自律型技術を展開し、AIを「考えるための槍」と表現し、巨大な飛躍に伴うリスクを受け入れなければならないと述べています。
これは、私たちを滅ぼすほど賢くないAIと、そうできるAIの間の「死の飛躍」とも表現されています。「死の飛躍」という見方により同意します。AIを完全に制御する方法を理解せずに、独立して操作するAIの展開を急ぐのは無謀です。
中国に対するリードを築くどころか、米国のAI企業は北京に大きな後押しを与えています。中国の新しいAIは、開発コストが数百倍もかかる一部の米国のトップAIを上回る性能を示しています。US AIは中国の新しいモデルの訓練に使用され、そのチャットGPTを納得させるほどです。
AIを積極的に加速させることは、経済的・軍事的優位性を損なう可能性があります。空母は自身を守ることができますが、AIが再現されたり盗まれたりするのを防ぐのは極めて困難です。中国はロボット生産における遥かに大きな能力を通じて、AIの力を増幅することができます。世界の製造業スーパーパワーであり、消費者向けdroneの約90%を生産しています。
「結局のところ、多くのdroneを作れるかどうか、そして殺傷率がどうなるかということに帰着します」
いずれにせよ、制御できないのであれば、最初にAGIを達成しても勝利とはなりません。
「AIの存在論的リスクを懸念しています。軍事droneを作る時、あなたはターミネーターを作っているのです」
専門家たちは2つの解決策を指摘しています。まず、AI産業を他の産業と同様に扱うことです。「FDAに行って『ねえ、私の会社は来年この新薬を出すのは避けられないんです。まずどうやって安全にするか考えられたらいいですね』と言ったら、笑い飛ばされるでしょう」
ハーバード大学が述べたように、私たちは絶滅への競争に巻き込まれているように見えるかもしれません。しかし中国は私たちを注意深く観察しています。私たちはループの一部です。もし私たちがAIのリスク、軍隊の制御を失うリスクを含めて真剣に受け止めれば、彼らもそうするでしょう。
専門家たちは国際的なAI安全研究プロジェクトを呼びかけています。「解決策を探す労を取らなかったために人類が消滅するのは残念でしょう」
大型ハドロン衝突型加速器は、科学的な取り組みが課題の規模に見合う時に何が可能かを示しています。そして行動する意志を見出すことができれば、報酬は驚くべきものとなる可能性があります。
「100万人の患者を診た家庭医を持つことができ、あなたのDNAを知っています。私は全ての病気を治せると固く信じています」
革新的な脳インプラントを通じて、AIパワーのアプリで再び私キャロルが話しているように感じます。「しばらく私の声を聞いていない人々が涙を流すほどです」
そしてここに、メディアにおけるそれらの隠された下位目標を検出する良い方法があります。私たちはAIと世界の出来事について読む際にGround Newsを使用しています。なぜなら、それは見出しを集めて政治的傾向、信頼性、報道機関の所有権を強調するからです。
「5000億ドルのStargate AIプロジェクトに関するこのストーリーを見てください。これについて報じている約600のソースがあり、そのうち27%が左寄り、34%が右寄りです。事実性で並び替えて、最も信頼できる情報をすぐに見つけ、バイアスを特定し、証拠に基づく理解を形成することもできます」
また、カバレッジ不足により各陣営から隠されているストーリーを表示する「ブラインドスポットフィード」もあります。3つの独立した組織の評価に基づくメディアバイアスへの興味深い窓です。
試してみるには、ground.news/pindexにアクセスするか、QRコードをスキャンしてください。私たちのリンクを使用すると、Vantageプランが40%オフになります。バイアスを強調し、全体像を提供することで、ニュースをより興味深く正確なものにします。ありがとうございました。


コメント