2030年までにAIは世界を完全に変える – 元OpenAI社員の予測

AGI・ASI
この記事は約26分で読めます。

この動画は、OpenAIの元従業員レオポルド・アシェンブレナーが発表したエッセイ「状況認識」について解説したものである。同エッセイでは、2027年までに汎用人工知能(AGI)が実現し、2030年までに人工超知能(ASI)に到達するという大胆な予測が展開されている。また、AI開発競争がもたらす地政学的影響、エネルギー需要の急増、安全性への懸念、そして最終的には国家安全保障プロジェクトとしての「マンハッタン計画2.0」の必要性についても論じられている。

ИИ полностью изменит мир к 2030 - Предсказания экс-сотрудника OpenAl
В этом видео мы разбираем эссе Леопольда Ашенбреннера — бывшего сотрудника OpenAl (разработчика ChatGPT). В своём эссе А...

超知能到来後の世界予測

超知能の到来後の時期は、人類史上最も不安定で緊張に満ち、危険で手に負えない時期の一つとなるでしょう。そして今世紀末までに、私たちはおそらくその震源地にいることになるでしょう。

2005年、科学者で未来学者のレイモンド・カーツワイルが、ある種のヒット作となった本を出版しました。それは「特異点は近い:人間が生物学を超越するとき」と呼ばれるものです。この著作でカーツワイルは、今後数十年間のテクノロジーと大きな医学的ブレークスルーについて、数々の大胆な予測を行いました。

約20年が経過した今、これらの予測の多くが正確で高い精度で実現したことが分かります。他の予測は議論の余地があったり、間違っていたりするものもあります。そして2045年の技術的特異点の到来のような一部の予測については、まだ確認も反証もできずにいます。

2024年6月18日、カーツワイルは自身のベストセラーの続編を出版しました。「特異点はより近い:AIと融合する時」という本で、70歳の科学者は自身の予測を修正し、研究の新たな結果を共有しています。

誇張ではなく、多くの人々が文字通り何年もの間、この本の出版を待ち望んでいました。しかし、出版のわずか数週間前に予期せぬ出来事が起こりました。レオポルド・アシェンブレナーという人物が、現在の10年間についての自身のエッセイを発表したのです。

このエッセイは、OpenAI(あのChatGPTの開発者)の元従業員によって発表されなければ、おそらく注目されずに終わっていたでしょう。このエッセイは「状況認識」と呼ばれ、今日私たちはそれを分析していきます。

私の名前はアレクサンドルです。テクノロジーとビジネスのチャンネルをご覧いただいています。それでは始めましょう。

レオポルド・アシェンブレナーとは何者か

まず最初に、レオポルド・アシェンブレナーが何者なのかを理解することを提案します。自身のウェブサイトとLinkedInで、レオポルドは次のように自己紹介しています:

OpenAIのスーパーアライメントチームで働いていました。19歳でコロンビア大学を卒業。オックスフォード・グローバル優先研究所で経済成長に関する研究を行いました。

レオポルドがOpenAIで働いていたと書いているのは偶然ではありません。現在彼は元従業員です。2024年4月、アシェンブレナーが情報漏洩の疑いで解雇されたという情報が出ました。しかし、この詳細は公表されていません。

おそらく漏洩などなく、これは多くの従業員が会社を去ることになった政治的なゲームだったのかもしれません。特にイリヤ・サツケヴァーのようにです。

エッセイ「状況認識:来たる10年」について

実際には、これは一つのエッセイではなく、一つの作品にまとめられた4つのエッセイです。エッセイ自体は非常に大部で165ページあり、注意深く読むには少なくとも数時間かかります。

このレビューでは、技術的・政治的詳細を省き、レオポルドが近い将来のテクノロジーとその世界への影響をどのように見ているかを理解できる、最も興味深い引用のみを残しました。

序論

レオポルドは次の文で始めています:

「私は以前OpenAIで働いていましたが、これはすべて公開情報、私自身のアイデア、この分野の一般的知識、またはサイエンスフィクションの憶測に基づいています。」

レオポルドがOpenAIについて秘密情報を公開するつもりがないことは明らかですが、それでも彼のエッセイでは、少なくとも会社内に漂っているであろう精神を明かしています。これは、OpenAIの技術責任者であるミラ・ムラティが様々なメディアで定期的に行うインタビューなど、彼の元同僚たちの発言から導き出せる結論です。

GPT-4からAGIへ:アメリカの危機

第一部のエッセイは「GPT-4からAGIへ」と呼ばれ、AI競争によってアメリカで高まっている危機について述べています。

「この1年間、サンフランシスコでの会話は、100億ドルの計算クラスターから1000億ドルのクラスター、そして1兆ドルのクラスターへと移行しました。6ヶ月ごとに、取締役会の会議議題にもう一つゼロが追加されます。」

ここで彼が話しているのは、AIの訓練と動作が行われるデータセンターについてです。大まかに言えば、現在AIが動作している巨大なグラフィックカードのクラスターのことです。

「舞台裏では、今世紀末まで利用可能な全ての電力契約、購入可能な全ての変圧器を獲得するための激しい戦いが繰り広げられています。今世紀末までに、アメリカの電力生産は数十パーセント増加するでしょう。ペンシルベニアのシェール採掘場からネバダの太陽光発電所まで、数億のグラフィックプロセッサが動作することになるでしょう。」

「運が良ければ、私たち(アメリカ)は中国共産党との全面的な競争に突入するでしょう。運が悪ければ、全面戦争が始まるでしょう。」

前述したように、レオポルドはAIの発展と直接関連する政治と超大国の競争にかなりの注意を払っています。

AI技術の進歩予測

それでは、レオポルドのAI自体に対するビジョンに移りましょう。彼は次のように書いています:

「2027年までに、チャットボットの代わりに、エージェント、同僚により似たものを手にするでしょう。」

ここで彼がエージェントという言葉で何を意味しているかは、以下で説明しています:

「GPT-4は多くの人々の仕事のかなりの部分を実行するのに十分な理解力を持っていますが、これはたった5分前に現れた優秀な新入社員のようなものです。彼は関連する文脈を持っておらず、会社の文書や履歴を読んでおらず、チームメンバーと話し合ったり、会社の内部コードベースを理解するのに時間を費やしたりしていません。」

「優秀な新入社員は到着から5分後にはそれほど有用ではありませんが、1ヶ月後には非常に有用になります。現在のモデルは短いタスクしか実行できません。質問をすれば答えを返しますが、これは極めて限定的です。」

「人々が行う最も有用な認知作業は、単に5分ではなく、数時間、数日、数週間、または数ヶ月を要します。複雑な問題についてたった5分間思考できる科学者は、いかなる科学的ブレークスルーも成し遂げることができません。」

現在、ChatGPTは隔離されたボックスに座っている人のようで、テキストメッセージを送ることができるだけです。つまり、ChatGPTや他のチャットボットにアクセスすると、メッセージを送信して応答を受け取るだけです。それ自体では何も行いません。

例えば、コードの一部を生成する必要がある場合、リクエストを送信して応答(そのコード)を受け取り、それをコンパイラに送信して作業することができます。または、広告テキストを作成する必要がある場合、リクエストを行い、モデルがそれを返し、コピーして使用します。モデル自体はあなたのためにコピー、ペースト、実行することはできません。少なくとも今のところは。

「しかし、私たちはモデルが人間と同じようにコンピューターを使用できるようにするでしょう。これは、Zoomミーティングへの参加、オンライン調査の実施、他の人への電子メール送信、文書の読み取り、アプリケーションや開発ツールの使用などを意味します。」

現在はモデルとテキストで通信するだけですが、すぐに彼らはあなたのコンピューターやスマートフォンにアクセスし、直接対話できるようになります。つまり、タスクを設定するだけで、モデルがそれを実行します。

「私は、リモート従業員によく似たもの、つまり新しい従業員としてチームに参加するエージェントを得ることを期待しています。彼らはあなたやあなたの同僚とSlackで通信し、ソフトウェアを使用し、データリクエストを送信します。大規模プロジェクトの場合、これは人が数週間離れてプロジェクトを独立して完了するときのようなものかもしれません。」

技術進歩の軌跡

さらにレオポルドは、私たちがすでに達成した進歩と近い将来に達成できる進歩について語っています:

「GPT-2からGPT-4まで、私たちは就学前児童レベルから優秀な高校生レベルまでの道のりを歩みました。数個の関連文を苦労して出力することから、高校レベルの試験に合格し、プログラミングの有用なアシスタントになることまで。」

「これはおそらく、博士号取得者や特定分野の最高の専門家を上回るモデルにつながるでしょう。」

ここで彼は初めてAGI(汎用人工知能)について予測します。簡単に説明すると、AGIとは汎用人工知能のことです。つまり、平均的な人間のレベルでタスクを実行するAIです。普通の人(アインシュタインのような天才でもなく、特別に愚かでもない人)ができることすべて、コンピューターで学習できることすべてです。これが大体AGIのレベルです。つまり、ほぼすべての分野で非常に優秀なスペシャリストです。

「私たちは2027年までにAGIへの道筋にいます。そのようなAIシステムは、事実上すべての認知タスクを自動化できるでしょう。考えてみてください:リモートで実行できるすべてのタスクです。」

簡単に言えば、もしあなたが雇用主で、Zoomで通話し、Telegramなどで通信し、タスクを割り当てて実行してもらうリモート従業員がいる場合、AGIはまさにこれらすべてを行うことができ、デジタル専門職で働くリモート従業員(プログラマー、マーケッター、コンテンツクリエーターなど)を置き換えることができます。

彼は2027年までにAGIの出現を予測しています。しかし、その後はどうなるのでしょうか?

AGIから超知能へ:知能爆発

「AIの進歩は人間レベルで止まることはありません。AIの自動化研究により、アルゴリズム進歩の10年間を1年未満に短縮できる可能性があります。」

ここで説明したいのは、現在、AIの開発と発展は人間の専門家(エンジニア、プログラマーなど)が行っているということです。もしそのような専門家をAGI(汎用人工知能)で置き換えることができれば、この作業の一部を彼らに委任できます。

ここで大きな利点を得ることができます。なぜなら、コンピューターはより速く動作し、1時間、1日に普通の人間よりもはるかに多くの操作を実行できるからです。彼らは休息を必要とせず、病気休暇も取りません。ただ働き続けます。

このプロセスを最適化すれば、コンピューターがAI開発に従事し、つまりAIがAIの開発に従事することになり、AI開発の加速につながります。

「私たちは数百万のコピーを実行でき、すぐに通常の人間の10倍の速度で自動化AI研究を行えるようになります。」

これは私が言ったことについてです:普通の人間の何倍、何十倍も速く働く仮想AI研究エンジニアが現れ、その人間の仕事を実行し、AI開発に従事する仮想エンジニアが現れ、はるかにはるかに高速に働きます。

「今世紀末までに私たちが持つであろうAIシステムは、想像を絶するほど強力になるでしょう。もちろん、彼らは量的に超人的になるでしょう。今世紀末までに数億のグラフィックプロセッサーのフリートで、数十億のプロセッサーの文明を管理でき、人間よりも桁違いに速く思考できるようになります。」

「しかし、より重要なのは、想像するのは困難ですが、彼らは質的に超人的になることです。人間が何十年も行き詰まるような極めて複雑な科学技術的問題が、彼らには明白に見えるでしょう。」

ここでは、コンピューターが何らかの作業をより速く実行できるだけでなく、はるかに効率的かつ優れて実行できることについて話しています。普通の人間が3、4、5、10年間取り組むかもしれないタスクが、文字通り数日で実行される可能性があります。なぜなら、AIの能力は一人の個人や一つのチームの能力よりもはるかに広いからです。

「私たちは超知能を獲得し、多くの分野での研究開発に数十億のエージェントを適用します。」

つまり、AIだけでなく、医学、新素材や導体の探索、物流の最適化、その他多くのタスクで働く多数の仮想専門家を得ることになります。以前は限られた数の人々が働いていた分野で、今度は同じことをより速く効率的に行う膨大な数の仮想従業員に置き換えられます。

3つの主要発展方向

さらに彼は、近い将来に発展する3つの主要方向について語っています:

ロボット工学問題の解決

「工場は人間が管理するものから、人間の物理労働を使用するAIが管理するものへと移行し、すぐに完全にロボットの群れによって管理されるようになります。」

近い将来、工場はAIの助けを借りて自動化されるが、そこには人間が働き続け、しばらくしてからこれらの人々は人間よりも速く効率的に働くロボットに置き換えられると彼は言っています。

産業・経済爆発

「極めて加速された技術進歩と、すべての人間労働を自動化する能力の組み合わせにより、経済成長を大幅に加速できる可能性があります。」

仮想従業員やロボットは病気にならず、燃え尽きることもなく、はるかに速い操作を実行できるため、経済成長の加速につながります。商品をより速く生産でき、より多く生産でき、これらの商品をより実用的で効率的で信頼性の高いものにできます。これすべてが経済成長を大幅に加速させます。

または、より速く実行される医学研究により、人々に必要な重篤な疾患の治療薬が市場により早く登場することになります。

決定的で圧倒的な軍事的優位性

「無人機の群れとロボット軍は大きな意味を持つでしょうが、これは始まりに過ぎません。まったく新しいタイプの兵器の登場を期待すべきです。」

彼はエッセイで、現在私たちが想像もできないような兵器の種類が現れる可能性について何度か言及しています。レーザー兵器や、AIの助けを借りて開発される生物兵器など、軍事の規則を大きく変えるものです。

「知能爆発と超知能の権力掌握直後の期間は、人類史上最も不安定で緊張に満ち、危険で手に負えない時期の一つとなるでしょう。そして私たちはその震源地にいることになります。」

最も重要なことは、彼がこの説明は次の10年間ではなく、現在の10年間、つまり彼の多くの予測が2030年までの期間に関するものだと述べていることです。

技術資本の成長加速

エッセイの第三部は4つの個別セクションに分かれており、この概要では一つの部分にまとめました。

「AI収益が急速に成長するにつれて、何兆ドルものお金がグラフィックカード、データセンター、電力増強に向かうでしょう。今世紀末までに、アメリカの電力生産を10%増加させることを含む産業動員は激しいものになるでしょう。」

「ザッカーバーグは35万台のNVIDIA H100を購入しました。Amazonは原子力発電所近くの1ギガワットの電力を持つデータセンターキャンパスを購入しました。噂によると、クウェートでは1ギガワットの電力と140万H100相当のクラスターが建設中です。」

「メディアの報道によると、噂ではMicrosoftとOpenAIが2028年に稼働予定の1000億ドルのクラスターに取り組んでいるとのことです。コストは国際宇宙ステーションに匹敵します。」

現在、AI開発への巨大な投資と、エネルギー資源をめぐる闘争、グラフィックカードをめぐる闘争が進行中であることについて話しています。この競争には、アメリカと中国だけでなく、ロシア、サウジアラビア、クウェート、特に中東の多くの国々も参加しています。

「世界中で、ホワイトカラーには年間数十兆ドルの給与が支払われています。ホワイトカラーや知的労働の少なくとも一部を自動化するAIリモートワーカーは、1兆ドルのクラスターで購入できる可能性があります。」

これは、企業がリモートマーケッター、プログラマー、広告担当者など、リモートワークを行う人々に支払っていたお金を支払う必要がなくなることを意味します。なぜなら、はるかに安価な仮想従業員がその作業を実行できるからです。このようにして、これらの企業は生きている従業員ではなく、リモートワークにAI機能を提供する企業に支払うことで、巨額のお金を節約できます。

「2027年までに年間1兆ドルのAI総投資は、歴史上最大の資本投資の一つとなりますが、前例がないわけではありません。」

さらに彼は、アメリカの他の国家プログラムへの投資との比較を提供しています:

「資金調達のピーク時、マンハッタン計画とアポロ計画はGDPの0.4%、つまり年間1000億ドル(現在の価値)に達しました。驚くべきことに、年間1兆ドルでは、AI投資はGDPの約3%を構成します。1996年から2001年の期間、テレコム企業は現在のドルに換算して約1兆ドルをインターネットインフラの構築に投資しました。」

彼は、原子爆弾を作成するマンハッタン計画や、アメリカ人が月に着陸したアポロ宇宙計画など、以前にもそのような投資があったことについて語っています。しかし、現在のAI投資ははるかに大きい可能性があります。彼は1996年から2001年のわずか5年間でインターネット開発に投資された1兆ドルの例を挙げています。現在、私たちはある程度これらの投資の結果を観察できます。これらのおかげでインターネットがより集約的に発展し始めました。

「おそらく供給側からの最大の単一制約は電力でしょう。すでにより短期的な規模で、電力は拘束的な制約となっています。利用可能な自由電力容量はそれほど多くなく、エネルギー契約は通常長期間締結されます。」

簡単に言えば、AI開発には非常に多くのエネルギーが必要であり、現在これらのエネルギー資源をめぐる闘争が進行中です。AIで働きたい人、訓練や動作のための大きなスーパークラスターを構築したい人たちは、エネルギー契約の獲得を積極的に争ったり、独自の発電所を建設したりしています。

さらに彼は、アメリカの電力生成に関する統計と、2030年までに生じる可能性のあるニーズを提供しています:

「アメリカの総電力生産は、過去10年間でわずか5%しか成長していません。1兆ドルの100ギガワットクラスター一つだけで、6年間でアメリカの現在の電力生産の20%が必要になります。大規模な生産能力と合わせて、需要は数倍高くなるでしょう。」

アメリカで生産される電力量が過去10年間でわずか5%しか増加していないにもかかわらず、今後数年間でこの量が20%増加する必要があると彼は見ています。これがAIに従事する企業のニーズとなるからです。

さらに彼は、多くの人がグラフィックカードの供給に制限があると考えており、グラフィックカードがなければAI開発競争に参加できないと思っているが、電力こそが主要な制限要因であり、近いうちに多くの企業にとって、AI訓練のためのグラフィックカードではなく、まさに電力が不足する危機が訪れる可能性があると考えています。

「チップは通常、人々がAI供給制約について考えるときに頭に浮かぶものですが、電力よりも制約が少ない可能性があります。世界のAIチップ生産は、TSMCの先端生産のかなり小さな割合、おそらく10%未満にすぎません。」

彼はエッセイで、TSMCなどのすべての主要チップサプライヤーがAI用チップに賭けをしたわけではないことを詳しく語っています。例えば、現在TSMCは彼のデータによると、総量の10%のみがAI用チップで、残りの90%はAIではなく、通常の古典的計算を実行するためのチップです。

「2030年までのAIチップの総需要は、現在のTSMCの先端論理チップ生産量の数倍になるでしょう。AI専用に、TSMCは過去5年間で倍増しました。AIチップ需要を満たすには、少なくとも2倍のペースで拡張を加速する必要があるでしょう。」

簡単に言えば、彼は2030年までに現在古典的計算(AIに関係のない計算で、家電製品や携帯電話、その他の電子機器で単純に動作するもの)用に生産されているのと同じ数のAIチップが生産されると述べています。

AI開発に関連するリスク

さらに彼は、このようなAIの集約的開発に関連するリスクについて語っています:

「国家間競争に加えて、モデルの重みを確保することも、AI災害を防ぐために決定的な重要性があります。悪意のある行為者、例えばテロリストや無法国家が単純にモデルを盗み、あらゆる安全レベルを回避して好きなことをできるなら、私たちのすべての予防措置は無駄です。」

さらに彼は、間もなく私たちよりもはるかに賢いAIモデルが現れ、まさにそのためにそれらを制御することがはるかに困難になると述べています:

「今世紀末までに、私たちは数十億の超人的な能力を持つAIエージェントを動かすことになります。超人的なAIエージェントは極めて複雑で創造的な行動が可能になります。私たちには彼らに従う希望がありません。私たちは複数の博士号を持つ専門家を指導しようとする小学一年生のようになります。」

要するに、私たちはもはやAIの作業を完全に制御できるほど賢くないということです。

「本質的に、私たちは信頼の委譲という問題に直面しています。知的爆発の終わりまでに、私たちの数十億の超知能が何をしているかを理解する希望は残されていません。彼らが子供に説明することを決めるかもしれないことを除いて。」

「そして私たちには、これらのシステムに対して『嘘をつくな』『法律に従え』『サーバーから逃げようとするな』といった基本的な副次的制約さえも確実に保証する技術的能力がまだありません。」

ここで彼は再び知的爆発について語っています。つまり、私たちが話したばかりの仮想従業員の膨大な数を得ることを意味し、これらの従業員の作業を制御することがますます困難になります。

「基本的な技術的整合問題は単純です:どうすれば私たちより賢いAIシステムを制御できるのでしょうか?」

ここで私が説明するのは、整合(アライメント)とはまさにAIの作業を制御する技術、つまりAIの利益が私たちの利益に対応するように設定することを意味します。

「例えば、自らが発明した新しいプログラミング言語で数百万行のコードを生成する超人的なAIシステムを想像してください。もし人間の評価者にこのコードに何らかのセキュリティバックドアが含まれているかと尋ねたら、彼は単に知らないでしょう。」

ここで彼はまさにこの整合問題を示す図を提供しています。現在、私たちにはコードを受け取り、その動作を確認し、「はい、このコードは安全です。私たちはそれで作業できます」と言える人間の専門家プログラマーがいます。これは、現在AIが最大でも私たちのレベルにあるため可能です。つまり、私たちはまだお互いを理解できます。

しかし、すぐにすべてが変わる可能性があります。AIシステムが私たちよりもはるかに賢くなり、おそらく私たちには理解できない言語で通信するようになると、彼らが私たちに与える結果が安全かどうか、彼らが行うことや提案することが安全かどうかを確認できなくなります。

「私たちよりもはるかに賢いAIシステムの信頼できる制御は、未解決の技術的問題です。これは解決可能な問題ですが、急速な知的爆発の間にすべてが非常に簡単に軌道から外れる可能性があります。このプロセスの管理は極めて緊張に満ちたものになるでしょう。失敗は簡単に災害につながる可能性があります。」

AIが原子力発電所の動作を制御したり、鉄道輸送を管理したり、航空輸送のディスパッチングに従事したりする可能性があることを付け加えることができます。私たちはこれらの問題で彼らを最大限に信頼し始めるでしょう。もし何らかの障害が発生したり、AIが私たちが実際には共有しない何らかの独自の判断で行動したりすれば、これは非常に深刻な結果につながる可能性があります。例えば、原子力発電所での事故や飛行機の衝突などです。

さらにレオポルドは、AI開発に従事する主要な研究所が安全性に十分な注意を払わず、この安全性を維持し、この方向に進むために十分なリソースを割り当てていないと述べています:

「現在のところ、いずれも適切な安全性を確保するためにコストのかかる妥協を行う特別な準備を示していません。デフォルトでは、私たちはおそらく知的爆発に直面し、人々が何に巻き込まれているかを理解する前に、いくつかの段階を経るでしょう。ここで私たちは運に頼りすぎています。」

つまり、彼は研究所とその指導者たちが、何らかの成果、成功、そしてこれらの成功の可能な限り速い収益化を追求して、単純に安全性を無視して、すべてを成り行きに任せていると述べています。

権力の集中とAIの危険性

その後、彼はAIが期待通りに動作しないため、つまり私たちが期待する原則に従わないために危険である可能性があるだけでなく、逆に非常によく動作するために危険である可能性があり、悪意のある人々や権力の手に渡ると、これは不満や異議を抑圧する非常に深刻なツールになり得ると述べています:

「超知能の力を持つ独裁者は、私たちがかつて見たことのない集中した権力を持つでしょう。他国に自分の意志を押し付ける能力に加えて、彼は国内で自分の統治を強化できます。AIに制御される数百万の法執行ロボットが人口を監視できます。大規模な監視が強化されます。独裁者に忠実なAIが、各市民を個別に異議について評価できます。そして高度で、ほぼ完璧な嘘発見システムがあらゆる不忠を発見できます。」

つまり、これは現在の権力のために働く一種の電子社会評価システムであり、どのような代替権力(より悪いものでも良いものでも)の到来のあらゆる可能性を遮断します。そのような国を管理するのは、AIリソースへのアクセスを持つ者のみであり、他の誰も単純にそこに近づけません。

プロジェクトへの道:マンハッタン計画2.0

エッセイの第四部は「プロジェクトへの道」と題されています。すぐに言うと、プロジェクトとは彼がマンハッタン計画を意味しています。これは第二次世界大戦中に原子爆弾が開発されたアメリカの有名な国家プロジェクトです。

このプロジェクトは戦時中に実施され、国にとって非常にコストがかかり、超機密で、膨大な数の組織と人々が関わりました。ある意味で、このプロジェクトはアメリカ人の大きな誇りです。まさにそのため、彼はこのプロジェクトと類似点を描いているのですが、それだけではありません。

コロナウイルスパンデミックとの類似

最初に彼はCOVID-19パンデミックとの類似を描いています:

「私の記憶には、2020年2月末から3月中旬にかけての出来事の転換が刻まれています。2月最後の週と3月最初の日々、私は完全に絶望していました。私たちが指数的上昇にあることは明らかに思えました。COVID疫病がまもなく国を覆い、病院での崩壊は避けられませんでした。ほとんど誰もこれを真剣に受け取っていませんでした。それでも、わずか数週間で全国が封鎖されました。」

彼はこれらの類似を偶然に描いているわけではありません。AIはすでにここにあり、すでに近くにあり、すでに何らかの特定の機能を実行していると述べています。しかし、同時に、ほとんどの人々は単純にこれに気づいていないか、これについて知らないか、すぐに過ぎ去ってすべてが元の場所に戻る別のハイプとして片付けています。

さらに彼は、それでもこれらのことが目立つようになってきていると述べています:

「AI分野での次の数年間は、コロナウイルスと同様に感じられるでしょう。私たちは現在、ゲームの中盤にいます。2023年はすでに野生のシフトでした。AGIは、あなたがそれと関連付けることを決めないであろう副次的なトピックから、アメリカ上院の重要な公聴会や世界指導者サミットのトピックに変わりました。」

「2025-2026年頃、私は次の本当にショッキングな変化のステップを期待しています。変化は大手技術企業に年間1000億ドル以上の収益をもたらし、博士号取得者を単純な問題解決で上回るでしょう。」

「2028年までに、私たちは1000億ドル以上のクラスターで訓練されたモデル、本格的なAIエージェント、仮想リモートワーカーを持ち、ソフトウェア開発やその他の知的作業の広範な自動化が始まるでしょう。毎年、加速は驚異的になるでしょう。」

「2027年頃、ワシントンの雰囲気は暗くなるでしょう。人々は何が起こっているかを直感的に感じ始めるでしょう。彼らは恐れるでしょう。ペンタゴンのホールから議会のクローズドブリーフィングまで、皆の心にある明白な質問が響くでしょう:『AGIマンハッタン計画が必要か?』」

「最初はゆっくりと、その後すぐに、すべてが明らかになります。これは起こっています。状況は野生になります。これは原子爆弾の発明以来、アメリカの国家安全保障にとって最も重要な挑戦です。何らかの形で、国家安全保障国家が非常に積極的に関与するでしょう。プロジェクトが必要になります。実際、唯一のもっともらしい答えです。」

彼の言葉では、AI開発の主要研究所がAGIにほぼ到達したとき、このプロジェクトはアメリカ国家安全保障庁に引き継がれます。どのような可能性とリスクがもたらされるかを理解し、彼らはAGI開発を一種の秘密で非常に高強度の国有化に変えます。

「AI研究所の研究者が軍事や他の誰かに雇われるという国有化は可能ですが、私はより丁寧な組織の関係を期待します。国防省との関係は、国防省とBoingやLockheed Martinとの関係のようになるかもしれません。しかし、2028年末までに、プロジェクトが開始されます。」

「主要なAGI研究グループ、数百人の研究者が安全な場所に移転します。1兆ドルのクラスターが記録的な速度で建設されます。プロジェクトは2030年代初頭まで続くでしょう。」

「2030年代初頭までに、アメリカの全兵器庫はおそらく時代遅れになるでしょう。単なる近代化ではなく、大規模な交換について話すことになります。兵器が新しくなることは明らかです。AGI開発は、インターネットよりも核兵器に似たカテゴリーに分類されることが明らかになります。確かに、それは二重使用ですが、核技術も民間応用のための二重使用でした。民間応用の時が来るでしょうが、AGI最終段階の霧の中で、良くも悪くも、国家安全保障が主要テーマになるでしょう。」

「最終的に、ここでの私の主要な主張は記述的性質のものです。私たちがそれを好むかどうかに関係なく、超知能はサイエンスフィクションのスタートアップのようには見えず、ある意味で主に国家安全保障の分野に焦点を当てることになります。」

レオポルドは、実際のAGIに近づく時が来ると、このプロジェクトが商業企業から引き継がれ、国家安全保障プロジェクトになると考えています。おそらく、OpenAI、Meta、Anthropicなどの商業企業の同じ従業員が参加するでしょうが、おそらく彼らはアメリカ政府との密接な連携でこれを行うでしょう。なぜなら、前述のように、AGIは非常に大きな可能性であると同時に、非常に非常に大きなリスクでもあるからです。したがって、そのようなプロジェクトを単純に注意なしに放置することはできません。

結論:最終的思考

このエッセイのエピローグは「結論的思考」と題され、彼が全エッセイの下に線を引く場所で、おそらく少し装飾的ですが、それでも彼の全作品のトーンを設定しています。彼が何を書いたか見てみましょう:

「2027-2028年までに最終段階が始まります。2028-2029年までに知的爆発が始まります。2030年までに私たちは勝利するでしょう。」

前述のように、彼は2027年までに私たちがAGI(平均的な人間の知能とほぼ匹敵する汎用人工知能)に到達すると予測しています。しかし、これは非常に迅速にASI(人間の知能の数百倍、おそらく数千倍の能力を持つ超知能)の達成につながります。

「今世紀末までに、私たちは超知能を作り出すでしょう。」

再度思い出させますが、彼は現在の10年間、つまり最大で2030年について話していると述べています。つまり、文字通り今後5-6年以内に、彼の予測では私たちは超知能ASIに到達します。

「まさにこのことがこのシリーズの大部分でした。つまり、私が話す大多数の人々にとって、サイエンスフィクションでは、まさにこの瞬間にスクリーンが黒くなります。」

つまり、彼は2030年以降の何かを予測することは一般的に不可能で、少なくとも愚かだと述べています。なぜなら、すべてが非常に急速かつ予期せぬ方法で変化するため、2030年以降を予測することは実質的に可能だが無意味だからです。

「しかし、2030年代以降の十年間は、少なくとも同じくらい出来事に満ちたものになるでしょう。今世紀末までに、世界は完全に認識できないほど変貌するでしょう。新しい世界秩序が創造されるでしょう。」

ここで彼は、アメリカにはプロジェクトが必要になると述べているのは偶然ではありません。なぜなら、彼のエッセイの大部分は単なる技術競争ではなく、政治競争に捧げられているからです。そして彼は、最初にASIへのアクセスを得た者が、基本的に私たちの文明の管理の先頭に立つことになると考えています。

さらに彼は次のように述べています:

「現在、世界にはおそらく数百人の人々がいて、彼らは私たちに降りかかろうとしているものを認識し、出来事がどれほど狂気じみたものになり得るかを理解し、状況認識を持っています。これらは偉大で高貴な人々ですが、彼らも単なる人間です。間もなくAIが世界を統治するでしょうが、私たちには最後のロデオが待っています。」

「2023年はAIの覚醒の年となりました。舞台裏では、技術資本の最も驚異的な成長加速が始まりました。過負荷に備えてください。」

このようにレオポルド・アシェンブレナーのエッセイは、少し楽観的でありながら適度に暗鬱で、彼のアイデアの一部はサイエンスフィクション的で、現実から乖離しているように見えるかもしれません。彼が書いていることが近い将来、さらには近い数十年間に起こることはありそうにないと思えるかもしれません。

しかし、AI分野の多くの主要専門家でさえ、現在私たちが達成し、今日手で触れることができる進歩が少し恐ろしく、多くの人がこの進歩の達成を2030年や2050年以降にずっと期待していたと述べていることを指摘したいと思います。

それでも、現在2024年に、私たちはすでにマシンとほぼ人間のように会話することができ、前述のように、多くの人がすでに恐れ始めています。したがって、このエッセイのすべてではないにしても、非常に多くのことが実際に実現する可能性は十分にあります。

しかし、間もなく私たち自身がすべてを見ることになります。レオポルド・アシェンブレナーの予言の実現まで、6年足らずしか残されていません。

レオポルド・アシェンブレナーのアイデアについてどう思いますか?コメントに書いてください。彼の予測は本当に実現する可能性があるのでしょうか、それとも私たちには全く違う未来が待っているのでしょうか?

私はアレクサンドルでした。皆さん、さようなら。

コメント

タイトルとURLをコピーしました