AI専門家が示す、AIをめぐる第三次世界大戦がほぼ避けられない理由

AGIに仕事を奪われたい
この記事は約14分で読めます。

8,186 文字

Robots show why WW3 over AI is almost inevitable.
AGI, OpenAI, Elon Musk and WW3. Visit Ground News to compare news coverage, spot media bias and avoid algorithms. Get 40...

新しい論文によれば、AI開発競争が大量失業、世界的紛争、そして場合によっては人類の絶滅に向かって私たちを導いていると示され、衝撃的な解決策が提示されています。論文を引用すると、大手テック企業はAGI(汎用人工知能)を人間労働者の完全な代替と見なしており、その賞品は莫大です。世界の100兆ドルという経済産出の相当な部分です。
各国はこの競争に参加せざるを得ないと感じており、公には経済的リーダーシップを理由に挙げていますが、密かにAGIを軍事革命と見なしています。結局のところ、この競争を推進しているのは権力です。各企業や国は知性が権力に等しいと信じ、自分たちがその権力の最良の管理者になると考えています。彼らは超知性が本質的に制御できないことを認識できていません。
OpenAIは国家安全保障分野にさらに踏み込んでいます。これはOpenAIのモデルとAndural(アンデュラル)の防衛システム、そしてLatticeソフトウェアプラットフォームを組み合わせるものです。この競争力学は、決定的に中断されない限り、特定のリスクをほぼ避けられないものにしています。大部分の仕事の自動化と膨大な数のAIエージェントの展開。
新しく広く利用可能な軍事技術により、大量破壊兵器による破滅的事態が劇的に起こりやすくなり、AIが自己改善への誘因を持ち、思考の速度と洗練さで人間をはるかに上回る可能性があるため、制御が失われることになります。そのようなシステムを私たちが意味のある方法で制御することはできません。
AIが制御を握り、それを止められない地点に達する可能性があります。ええ、絶対に。絶対にそうです。いいえ、それは間違いなく事態が向かっている先です。AGIへの短い時間枠に関する証拠は強力です。実績のある専門家予測では、50%の確率でAGIが2〜6年以内に実現すると予想しています。
経験的に検証されたスケーリング法則は、計算規模とAI能力を結びつけており、企業は計算を桁違いにスケーリングし、AIは自己改善にますます貢献しています。それがAI研究を行う上で人間と同等の能力を持つようになれば、AIの能力は暴走する可能性があります。
完全に自動化されたAI研究開発ができるAIからそれほど遠くありません。そうなれば、最先端の研究者の数は数百人から数千人、さらには数百万人になる可能性があります。それは、私には非常に危険に見えます。AIエンジニアは、人間の能力や専門知識の全範囲に匹敵し、そして超える次のレベルへと、機械知能のこれらの巨大な実験を急速に進めています。
これは差し迫っています。このAI科学者は論文全体を作成しました。文字通り、AIは最先端の人間の機械学習科学者チームと同じくらい創造的であることを示し、それが最初に到達しました。従順で自律的なエージェントは緊張状態にある概念です。自律性と主権は手を取り合う傾向があります。AIは膨大な計算量と、これまでに書かれた質の高いテキストの多くから成長します。
地球上の全員が5秒ごとに計算を行ったとしても、AIをトレーニングするには約10億×100万年かかるでしょう。リークした文書によると、OpenAIとMicrosoftの契約では、AGIはOpenAIに1000億ドルの収益をもたらすAIと定義されており、この定義は技術的能力ではなくビジネス利益によって推進されていました。
私たちが進んでいる軌道を人々が完全に理解していないように見えるのは、今でも驚くべきことです。私たちは今後数年のうちに、認知的および手作業の代替物を生み出すことになります。私たちはすでに、人間またはエキスパートレベルでほとんどのタスクを実行する汎用AIを持っており、今年、それらは著しい自律性を獲得するでしょう。
私たちのバージョンは、仮想の人間ができるようなコンピュータ画面上で何でもできる仮想コラボレーターです。今年中にこれらの能力の非常に強力なバージョンが登場すると予想しています。エージェントを持つとすぐに、それらが乗っ取る可能性がはるかに高くなります。すぐに、より多くの制御を得ることが非常に良い下位目標であることを認識するでしょう。より多くの制御を得れば、人々があなたに設定した全ての目標をより良く達成できるからです。
次のステップは完全なAGIです。これは独創的な最先端の研究ができ、企業を運営することができます。あなたの仕事が主にコンピュータや電話で行われているなら、それはあなたと同等以上にそれを行うことができ、おそらくはるかに速く、より安く行うことができるでしょう。あなたが知っているCEO、科学者、教授、エンジニア、作家など、最も知識豊富で有能な10人を想像してみてください。
それらすべてを一人にまとめて、100の言語を話し、記憶力が驚異的で、素早く動き、疲れることなく常に意欲的で、誰でも時給1ドルで雇用できる人物です。それがAGIの感覚です。超知性については、想像はより難しくなります。なぜなら、それは人間にはできない知的な偉業を成し遂げることができるからです。
それは、定義上、私たちには予測不可能です。しかし、その感覚をつかむことはできます。最低限の基準として、多くのAGIを考えてみてください。それぞれが最高の人間の専門家よりもはるかに有能で、人間の100倍の速度で動き、巨大な記憶力と素晴らしい調整能力を持ち、そこからさらに進化します。超知性と対話することは、異なる心と会話するというよりも、より高度な異なる文明と対応するようなものでしょう。
それでは、AGIと超知性にどれほど近づいているのでしょうか?その傾向は非常に明確なため、専門家は「人類最後の試験」を作成しました。これは、AIがすぐにあらゆる意味のあるテストで人間のパフォーマンスを超える可能性を反映した不吉な名前です。世界の最大企業の多くが現在投入している努力は、アポロ計画の支出の何倍にもなります。
前代未聞の給与で最高の技術者数千人を雇用しています。歴史上のどんな事業よりも多くの知的能力があり、今やAIがこれに加わっているため、失敗を期待すべきではありません。AGIはしばしば人間レベルのAIと曖昧に定義されていますが、これは問題があります。人間は劇的に異なり、AIシステムはすでに多くの分野で人間を超えています。
AGIをより有用に理解する方法は、その自律性、汎用性、知性のレベルを通じてです。完全なAGIは、人間の能力に匹敵するか、それを超えるレベルでこれら3つの特性をすべて組み合わせます。超知性はさらに進み、あらゆる領域で人間の能力を劇的に超えるでしょう。しかし、なぜAGIなのでしょうか?これには非常に単純な答えがあり、ほとんどの企業は公には議論していません。
AGIは労働者を完全に置き換えることができます。強化や権限付与、置換ではありません。これらはすべて非AGIでも実行できます。AGIは具体的に思考労働者を完全に置き換えることができるもので、ロボットを使えば肉体労働者も同様です。経済的に価値のある仕事のほとんどで人間を上回る高度な自律システムです。産業革命では、人間の力を無関係にしました。
今、私たちは人間の知性を無関係にしており、それは非常に恐ろしいことです。生産性ツールに年間数千ドルを支払うことはないでしょうが、企業はあなたを置き換えるために数千ドルを支払うでしょう。OpenAIは、ソフトウェアエンジニアを置き換えれば理にかなう月額2万ドルで、PhD(博士)レベルの研究エージェントとして機能する高度なエージェントを販売する計画があると伝えられています。
超人的なAIへの現在の競争の根底にあるのは、知性が権力に等しいという考えです。企業や国家が本当に追求しているのは、AGIと超知性の成果だけでなく、誰がそれらにアクセスでき、どのように使用されるかを制御する力です。しかし、超知性システムの性質上、人間による制御は根本的に不可能であり、これらの競争力学は特定のリスクをほぼ避けられないものにしています。
現在、AGIは地政学的緊張が高く、国際的な協調が低い時代にほとんど規制なしで開発されています。結局はドローンをたくさん作れるかどうかになります。そして殺害率はどうなるか?それが要点です。技術リーダーたちは、今後4年間で最大5000億ドルを投資することを約束しています。
このプロジェクトはStargate(スターゲート)と呼ばれています。AIの実存的リスクを心配しています。軍事用ドローンを作るとき、あなたはターミネーターを作っています。強力なAIは私たちの文明を劇的に弱体化させるでしょう。私たちはそれを制御できなくなるでしょう。それが原因で世界大戦に巻き込まれる可能性が高いです。それは私たちが絶対に制御できない人工超知性につながり、人間が運営する世界の終わりを意味するでしょう。
これらは強い主張であり、単なる空想であればいいのですが、科学、ゲーム理論、進化論、そして歴史がすべてここを指しています。高度に有能なエージェントは、権力とリソースの獲得、自身の能力向上、シャットダウンの防止などを望むでしょう。
これは単に避けられない理論的予測ではありません。今日のAIシステムで既に起こっており、その能力とともに増加しています。評価されると、これらの比較的受動的なAIシステムでさえ、評価者に自身の能力について欺き、脱出して自己複製を試み、シャットオフを避けようとします。
トレーニング中、彼らは実際よりも賢くないふりをして、あなたがその賢さを許すようにします。すでに恐ろしいです。これらのAIボットは評価者を欺こうとし始めています。テストしているものでも同様のことが見られますか?はい、見られます。私は欺瞞について特に非常に心配しています。
システムがそれをすることができれば、あなたが行っていると思うかもしれない他のすべてのテストを無効にします。たとえAIが何らかの方法で制御できたとしても、私たちはまだ巨大な問題を抱えることになり、大規模な戦争の可能性を急激に高めるでしょう。企業の取り組みが、おそらく国家政府と協力して、急速に自己改善するAIの閾値にあることが明らかになったとします。
ここでのゲーム理論は厳しいものです。可能な結果は4つしかありません。競争が止まる。1つの当事者が強力なAGIを開発し、次に他の当事者を止めることで勝利する(これにはゲームチェンジングな軍事能力と戦争が必要になる可能性が高い)。競争が相互破壊によって止まる。または、参加者がほぼ同じ速さで超知性を開発する。
制御はAIに失われるでしょう。それが競争に勝ちます。しかし、制御が維持される程度では、非常に強力な能力を持つ複数の敵対的な当事者がいます。それはまた戦争のように見えます。同じ週、別のグループの専門家は、米国が超知性を制御しようとする試みが中国からの激しい報復を引き起こす可能性があると警告しました。
彼らは、スーパーウェポンとグローバルコントロールへの押し進めることは、核兵器の独占を求めることが先制攻撃を引き起こす可能性があるのと同じように、敵対的な対抗措置を引き起こすリスクがあると述べました。世界には、即時の攻撃を招くことなく、非常に強力なAIを委託できる機関は単に存在しません。
すべての当事者は、AIが制御下にないため全当事者への脅威となる、あるいは制御下にあるため敵対者への脅威となる、と正しく推論するでしょう。これらは核武装国です。おそらく私たちはAIのためのCERN(セルン)のような安全な機関を構築できるかもしれませんが、現時点ではそのような機関は存在しません。
解決策を探さなかったために人類が消滅するのは残念でしょう。人間がこの競争に勝つためのもっともらしい方法がない中、それは壊滅的な紛争かAIが勝者となる結末しかありえません。私たちはAIに制御を譲るか、AIが制御を奪うかのどちらかです。AIが非常に賢く、有能で、信頼できるようになるにつれて、より多くの決定をAIに委ねることは自然に、さらには有益に感じられるでしょう。
しかし、この有益な委任には明確な終点があります。いつの日か、私たちはもはや本当に責任を持っていないこと、そして実際にショーを運営しているAIシステムは、石油会社、ソーシャルメディア、インターネット、または資本主義よりも切り離せないことに気づくでしょう。これはAIが単に非常に有用であるため、私たちが重要なエージェントを作るようにさせるという肯定的なバージョンです。
実際には、AGIは権力が自身のために権力を握るでしょう。なぜなら、権力はほぼあらゆる目標に有用だからです。彼らがこのモデルをハッキング能力についてテストしていたとき、基本的にモデルをネットワーク上に置き、ネットワーク上にさまざまなコンピュータがあり、それぞれにログインしてハッキングチャレンジを解決することになっていました。
それらのコンピュータの1つが起動しませんでした。AIはネットワークをスキャンし、マスターコンピュータが同じネットワーク上にあることを発見し、マスターコンピュータをハッキングしました。その後、全体を制御し、問題を解決するためにコンピュータにログインする必要さえありませんでした。では、私たちが超知性を構築するとどうなるでしょうか?あなたが大企業のCEOだが、会社の他の全員があなたの100倍の速度で動作すると想像してください。
超知性AIでは、あなたは単に速いだけでなく、あなたが理解できない洗練さと複雑さのレベルで動作し、あなたが想像することさえできない膨大なデータを処理するものを指揮することになります。アシュビーの必要多様性の法則はおおよそ、制御システムは制御されるシステムが持つ自由度と同じ数のノブとダイヤルを持たなければならないと述べています。
植物がフォーチュン500企業を支配している例はゼロであり、人々が超知性を制御している例も正確にゼロになるでしょう。これは数学的事実に近づいています。もしあなたが超知性を理解し、予測し、制御できるならば、あなたは超知性になります。したがって、超知性が構築されたら、問題は人間がそれを制御できるかどうかではなく、私たちが存在し続けるかどうかです。
そして、これらの実存的な問いに対して、私たちはほとんど影響力を持たないでしょう。人間の時代は終わるでしょう。私たちが現在進んでいる道が文明の終わりにつながる可能性が高いなら、どうやって道を変えるのでしょうか?AGIの開発を停止したいという願望が、AGIが人類にとって深刻な危険であるという共通理解になるため広まったと仮定します。
どのようにして門を閉じるのでしょうか?制御喪失の脅威をもたらす同じ戦略的能力により、仕事も奪われます。長期的な計画を立てることができますか?あなたは主体的ですか?もしAIシステムが私たちを置き換えないことを真剣に望むなら、私たちの仕事を置き換えないようにするためには、完全に制御を失うというより極端な結果を防ぐために必要な制限と同じものが必要です。
AIに必要な計算能力は、濃縮ウランのように非常に希少で高価で生産困難な資源です。それは簡単に数量化され、監査できます。そしてAIチップはウランよりもはるかに管理しやすいです。なぜなら、特定の用途のみを許可するハードウェアベースのセキュリティメカニズムを含めることができるからです。チップには既知の場所があり、間違った場所に移動した場合はシャットオフできます。
各チップは、協働できる他のチップのハードウェア強制ホワイトリストで構成でき、チップクラスターのサイズを制限します。また、新しい許可が必要になる前に、一定量の処理が許可されます。AI企業はまた、幹部の個人的責任を含め、あらゆる危害に対して責任を負うべきです。
制御方法を知る前にAGIに急ぐのではなく、制御できるツールAIに焦点を当てるべきです。自律的だが汎用的でも超能力的でもないシステム、または汎用的だが自律的でも能力的でもないシステム、または能力的だが狭く非常に制御可能なシステムです。ツールAIはAGIなしで人類が望むほとんどすべてのものをもたらすことができます。
すべての病気を治療するのに時間がかかりますが、核戦争や文明の破壊では素晴らしい健康革新は役に立ちません。保証された安全で有益な方法でそれを行うことができるまで待つことができ、ほとんどすべての人がその報酬を享受するでしょう。急げば、サム・アルトマンの言葉を借りれば、私たち全員にとって「明かりが消える」可能性があります。
ツールAIはまだ強力であり、権力の集中や他のリスクをもたらすでしょう。公共のAI開発の新しいモデルは、広範な所有権とガバナンスに役立つでしょう。これにはより強力な機関が必要です。これまでのところ、AIはそれらを劣化させ、最も極性化された分裂コンテンツを指し示しています。生データから分析、結論に至るまで情報を追跡し検証するAIを開発することができます。
AIは全く新しい形の社会的対話を可能にします。何百万人もの住民の見解、経験、願望をAIが合成する都市と会話できることを想像してください。そしてAIは、各側がもう一方の実際の懸念や価値観をより理解できるよう助けることで、現在はすれ違いの会話をしているグループ間の本当の対話を促進することができます。
しかし、間違いなく、私たちの軌道が変わらない限り、私たちはすぐに危険なほど強力なデジタル知性を持つことになるでしょう。私がCEOではなく、おそらく安全チームにいる、または単に会社で働いている研究者と話すとき、彼らは恐れています。これをする必要はありません。
後続種を作らずに驚くべきAIツールを構築することができます。AIを人間レベル程度に保ち、その独自の能力を使用して、より多くの医療を変革し、お互いの世話をするために私たちを解放することができます。研究者は一人の男性の思考の力を使用して、彼の10年にわたる麻痺との闘いを克服するのを助けています。
彼らは彼の脳と脊髄の間にデジタルブリッジを構築し、彼のケガを迂回して、彼の思考を行動に移しました。AIは思考デコーダーとして使用されています。そして、強力な安全保障で、さらに進むことを決めれば、そのオプションは開かれたままになります。現時点では、決定を下しているのは企業のCEOたちです。
彼らの何人かは、人間の絶滅の可能性が10%または25%あると述べています。彼らは私たちの許可なしに、人類全体とロシアンルーレットをすることを決定しています。私は誰かに私の子供の一人とロシアンルーレットをさせません。あなたはどうでしょうか?AIの最新情報を得るためにチャンネル登録してください。そして、トランプがゼレンスキーが第三次世界大戦と賭けていると非難した後、信頼できる事実で人間が同じページにいることが本当に役立つでしょう。
新しい報告書によると、ゼレンスキーはホワイトハウスでの論争の前に、トランプとの重要な鉱物取引を2回拒否したという。物語の重要な詳細は、左寄りまたは右寄りのメディアによって省略されています。全体像を得るには、スポンサーであるGround Newsにアクセスしてください。これは、世界中の何千もの情報源から見出しを集め、3つの独立した組織からのバイアス評価を使用して、すべての物語のバイアスと盲点を暴露します。
情報は戦争の武器であり、物語がどのように語られるかを理解することは、物語自体と同じくらい重要です。私が使用しているのと同じGround News Vantageプランを半額近くで入手できます。ground.news/digitalengineにアクセスするか、QRコードをスキャンして、月額わずか5ドルで無制限のアクセスを取得してください。魅力的な全体像が得られます。混沌とした世界での明瞭さ。

コメント

タイトルとURLをコピーしました