「AGIへの道(そしてその先)」#1 — AIのタイムラインが加速している

AGIに仕事を奪われたい
この記事は約59分で読めます。

35,247 文字

Ep.# 141: Road to AGI (and Beyond) #1 — The AI Timeline is Accelerating
The future of AI is arriving faster than most are ready for. In this kickoff episode of the Road to AGI (and Beyond), Pa...

テクノロジーの世界では、AIの目標は人間の可能性を置き換えるのではなく、解き放つことであるべきです。しかし、そのような結果を追求するためには、私たちは積極的かつ意図的に行動する必要があります。「人工知能ショー」からの特別シリーズ「AGIへの道(そしてその先)」へようこそ。私はホストのポール・レアー、スマートXとマーケティングAIインスティテュートの創設者兼CEOです。
人工汎用知能(AGI)は長らく主要なAI研究所の目標でしたが、私たちは実際にどれだけ近づいているのでしょうか?どのようなブレークスルーがその道筋を形作り、AGIを追求し、最終的に達成することにはどのようなリスクと責任が伴うのでしょうか?
このシリーズでの私の目標は、次に何が起こるのか、それが何を意味するのか、そして私たちに何ができるのかを見通すこと、あるいは少なくとも準備すべき可能性のある結果を検討することです。主要な専門家へのインタビューを通じて、このシリーズでは、よりスマートで一般的な能力を持つモデルがビジネス、経済、労働力、教育システム、そして社会にどのような影響を与えるかを掘り下げます。未来は未知です。次に何が起こるかを一緒に探っていきましょう。
人工知能ショーのエピソード141、そして「AGIへの道(そしてその先)」シリーズの第1回へようこそ。私はホストのポール・レアーです。このシリーズの初回では、始まりから出発し、次に何が来るのかの基礎を築いていきたいと思います。
長年の忠実なリスナーの方々は、2024年3月初旬のエピソード86で、私たちがそれまで報じられていなかったサム・アルトマンによるAGI(人工汎用知能)に関する引用を共有したことを覚えているかもしれません。その引用はアダム・ブロットマンとアンディ・サックから来ました。彼らは近刊の著書「AI First」の第1章でアルトマンにインタビューしています。
ブロットマンはスターバックスの元チーフデジタルオフィサーで、コーヒー大手のモバイル決済とロイヤルティプログラムの開発に重要な役割を果たしました。一方、サックは伝説的なテクノロジービジョナリーであり、マイクロソフトCEOのサティア・ナデラの元アドバイザーです。彼らの話は2023年10月のサムとのインタビューから始まります。これはサムがオープンAIから解雇され、その後再雇用される1ヶ月前のことでした。
そのミーティングの中で、サムは何度もAGIについて言及しました。彼らが「AGIと言うとき、あなたは何を意味していますか?」と質問したところ、サムは「それは公正な質問です。私が言いたいのは、AIが自力で新しい科学的ブレークスルーを達成できるようになる時点です」と答えました。
章はさらに続きます。ブロットマンとサックは「なるほど、それはかなり驚くべきことですね。正確に何を意味するのかはわかりませんが、AGIはマーケターや企業を構築するための広告キャンペーンなどを作成しようとする私たちにとって何を意味するのでしょうか?」と尋ねました。
それに対してサムは「ああ、それについては、今日マーケターがエージェンシー、戦略家、クリエイティブプロフェッショナルに頼っていることの95%が、AIによって簡単に、ほぼ即座に、そしてほとんどコストをかけずに処理されるということを意味します。AIはおそらく、結果を予測し最適化するために、実際または合成の顧客フォーカスグループに対してクリエイティブをテストすることができるでしょう。繰り返しますが、すべて無料で、即座に、そしてほぼ完璧に。画像、動画、キャンペーンのアイデア、全く問題ありません」と答えました。
アダムとアンディ(著者たち)はAGIの概念については初心者だったため、この時点では言葉を失ったと言っています。彼らは「AGIはいつ現実になると思いますか?」と尋ねました。サムは「5年程度です。もう少し長くなるかもしれませんが、いつ正確に、そしてそれが社会にとって何を意味するのか、誰も正確には知りません」と答えました。それがインタビューの終わりでした。
私たちはこのことをエピソード86で共有し、その引用はあちこちに広まり、ある程度バイラルになりました。多くのフィードバックを受け取り、多くの質問が寄せられました。AGIが数年後に現れて基本的に全員の仕事を奪ってしまうという懸念を持つ人も多くいました。
翌週、私はマイアミへの月曜日の朝の飛行機に乗っていました。マイクと私は毎週月曜日の朝に収録をしています。飛行中に、これについてもっと話し合う必要があると気づき、「不完全なAIタイムライン」と呼んだものを作成しました。それは議論の出発点に過ぎませんでした。
マイアミに到着してホテルの部屋に入り、マイクとの通話に参加したとき、「このフライト中に考えたことを共有したい」と言いました。エピソード87の冒頭で私が言ったのは、「未来予測の話は好きではない。予測をしようとするのは得意ではないし、これらのAIラボ内で起こっていることについて何かすごい内部知識を持っているふりもしません。正直なところ、彼ら自身も18〜24ヶ月後に自分たちのモデルで何が起こるかを実際には知らないと確信しています。次の12ヶ月で何ができると思うかについてはかなり良い概念を持っていると思いますが、これらのラボで起こっていることとリーダーたちが言っていることを解釈して、物語の流れをより理解し、行動を始めることが重要だと思います」
エピソード87の前の週、私はGoogle DeepMindのCEOであるデミス・ハサビス、MetaのチーフAIサイエンティストであるヤン・ルカン、サム・アルトマン、そして他の多くの人々とのポッドキャストエピソードを聞いていました。彼らはみなこのAGI概念とタイムラインが加速しているという考えについて話していました。
それで、それらのインタビューを他の最近のレポートや記事、インフレクションのムスタファ・スレイマン(その後マイクロソフトAIのCEOになります)、アンスロピックのダリオ・アモデイ、当時オープンAIにいたイリヤ・スツケバー(その後、独自の安全な超知能会社を立ち上げます)、DeepMindの共同創設者の一人であるシェーン・レッグなど、他の多くのAIリーダーとのインタビューの文脈で考え始めました。
過去70年以上を振り返ると、多くの人がAIは過去数年間に出現したと考えていますが、実際には人間のような汎用知能を追求するというこの考えは1950年代から、つまり70年以上にわたって理論化されてきました。これらの研究者たちは、機械に思考、推論、理解、創造、そしてデジタルおよび物理的な世界で行動する能力を与えることができるという信念に動かされていました。
しかし、進展はしばしば遅く、「AIの冬」と呼ばれる時期がありました。2011年頃にはこのディープラーニングという考えが実際に機能するかもしれないという突破口が見え始め、そこから全てが拡大していきました。それが2022年11月のChatGPTの登場につながり、生成AIが社会に浸透し始めました。
私自身は2011年からAIの研究を始めました。それはIBM Watsonがジェパディ!で勝利したことがきっかけでした。当時、私はマーケティングエージェンシーを所有していて、このようなテクノロジーを自分のエージェンシーに適用できるか、クライアントキャンペーンの戦略をより効果的に開発し、キャンペーンをより効果的に実行するのに役立てることができるかを考えていました。
2011年当時、人工知能について話していたのは、研究者自身やテクノロジストなど、その分野の人々だけでした。初期の頃の最も難しいことの1つは、人工知能の定義に辿り着くことでした。長年のポッドキャストリスナーは、私の好きな人工知能の定義が「機械をスマートにする科学」だということを知っています。これは実はデミス・ハサビスから来たもので、彼がローリング・ストーン誌とのインタビューで言ったものです。
私は長い間この分野をフォローしてきました。トップAI研究者、研究所、起業家からのあらゆるインタビュー、記事、ブログ投稿、研究レポートを聞き、読んできました。最初にAIについて書いたのは2014年の著書「The Marketing Performance Blueprint」で、マーケティング戦略とキャンペーン、そしてパフォーマンスを推進するマーケティングインテリジェンスエンジンを構築するというアイデアを理論化しました。
2016年にMarketing AI Instituteを設立し、2021年に自分のエージェンシーを売却してAIに集中しました。2021年の春までに、私たちは転換点に到達しつつあると確信していたからです。ChatGPTがすぐ近くにあるとは知りませんでしたが、これらのラボが言語生成と理解に取り組んでおり、その時点ですでに多くの進展があることは知っていました。
実はケイド・メッツの著書「Genius Makers」が私にとっての本当の転換点となりました。この本を読んで、2011年以降のディープラーニング運動の中で何が起こったのかを繋げ始め、主要ラボによるAGIの追求、そして当時までにそれが企業内でなぜ予想したほど採用されていなかったのかが理解できるようになりました。すべてが理解できるようになり、家族と春休みに散歩している時に、エージェンシーを売却し、AIの物語を解明することに専念することを決めました。
2023年初頭までに、トップAIラボからのAGIに関する口調と姿勢が変わってきていることに気づきました。彼らはもはやAGIを10年以上先の可能性として話すのではなく、3〜5年以内のAGI達成に向けた明確な道筋があるという自信を示すようになりました。これは2026年から2028年の範囲に当たります。私の意見では、これはとても短い期間です。
私はこれらのラボがAGIを追求し、達成しようとしていることを確信するようになりましたが、周りを見回してもそれが何を意味するのか、もし彼らが正しければビジネスや経済、教育システムにとってどのような可能性があるのかについて話し合う人はいませんでした。
2023年から2024年にかけて、彼らはこのことについてより積極的に発言するようになりました。これらのリーダーたちがどのようにこれについて話しているのかをいくつか強調したいと思います。
イーロン・マスクはX AIを設立しました。これは彼自身の研究所を設立しようとする試みです。(歴史をさかのぼると)イーロン・マスクとサム・アルトマンは他の研究者たちとともにオープンAIを共同設立しましたが、2019年頃に決裂し、現在イーロンはサムとオープンAIを営利企業になろうとしたとして訴えています。イーロンは独自のAI研究所であるX AIを設立しました。
イーロンは「X AIの最大の目標は、宇宙を理解しようとするという大きな目的を持った良いAGIを構築すること」だと記録しています。
マーク・ザッカーバーグとMetaはメタバースからAIに焦点を切り替えました。MetaとFacebookは10年以上にわたってAIの主要なプレイヤーでしたが、現在のように完全にそれに焦点を当てていたわけではありません。彼らはメタバースを実現するために約1兆円を費やしましたが、2023年から2024年初頭にかけて、ザッカーバーグはもっと積極的にAIに進出する必要があると認識しました。
ザッカーバーグは「私たちが構築したい製品を構築するためには、汎用知能のために構築する必要があるという見方に至りました」と述べています。
サティヤ・ナデラは昨年CNBCで「私たちのミッションは、この惑星上のすべての人とすべての組織がより多くを達成できるように力を与えることです。私たちはテック業界で最高のパートナーシップを持っていると思います(オープンAIを指しています)。私たちが一緒にAGIを構築することを楽しみにしています」と述べました。
Google DeepMindは彼らのAboutページで「今後数年間、AIそして最終的には人工汎用知能は、歴史上最大の変革の一つを推進する可能性があります」と述べています。彼らは明示的にAGIを構築することが彼らのミッションだとは述べていませんが、「AIを責任を持って構築し、人類に利益をもたらす」ことが彼らの使命だと述べています。しかし、間違いなく彼らの目標はAGIを構築することです。
DeepMindのCEOであり共同創設者であるデミス・ハサビスは、これが全体の焦点であり、知性の問題を解決し、そして他のすべてを解決することが彼の人生のミッションであると何度も述べています。彼はAGIを、世界で最も困難な問題を解決するための道として見ています。
ハサビスは、これが電気の利用のように時代を画する技術になり、人間の生活の非常に基本的な部分を変えると信じています。
彼らはみなこれについて考えていることがわかります。多くの場合、それが彼らのミッションです。近年の問題は、定義が非常に不確かになっていることです。彼らがAGIをどのように定義しているのかわからず、定義を変え続けています。それは移動する標的のようになっています。
いくつかの定義を見ていきましょう。オープンAIはこれを何度も変更し、進化させ続けています。彼らのサイトのページの一つ「AGIとその先の計画」では、「一般的に人間よりも賢いAIシステム」と述べています。
Google DeepMindの「AGIのレベル」と題された論文では、AGIを「ほとんどのタスクにおいて少なくとも人間と同じくらい能力がある」と定義しています。
デミス・ハサビスは複数の定義を持っていますが、おおよそ似ています。ニューヨークタイムズでの一例では、「人間ができるほとんどの認知タスクを行うことができる」と述べ、また別の最近のインタビューでは「人間が持つすべての認知能力を示すことができるシステム」と述べています。
Google Cloudには、AGIに特化したページがあります。Google CloudはAGIを「人間が理解または学習できるどんな知的タスクも実行する能力を持つ機械の仮説的な知能」と定義しています。それは「人間の脳の認知能力を模倣することを目指すAIのタイプ」です。
そのページでは続けて、「前述のコア特性に加えて、AIシステムはまた、他のタイプのAIと区別する特定の主要な特性を持っています」と述べています。その一つが「一般化能力」です。AGIは、あるドメインで学んだ知識やスキルを別のドメインに転送でき、これにより新しい未知の状況に効果的に適応できます。
ここでGoogle Cloudの定義について少し説明を加えます。歴史的に、私たちは「ナローAI」を持っていました。画像を生成したり、理解したり、音声を生成したり、テキストを作成したり、チェスをプレイしたりするAIです。特定のことを行うために訓練されたAIを持っていました。
AGIが約束するのは、スーパーヒューマンレベルでチェスをプレイすることを学んだ同じAIが、ポケモンやスーパーマリオといった他のゲームに切り替えることができるということです。他のゲーム、チェッカー、ウノなどをプレイすることもできます。なぜなら、それは実際に知識を一般化し、他のドメインに適用できるからです。
これが人間の仕組みです。人間は非常に迅速に、あるゲームから次のゲームへと移行する方法を学び、それらの領域でかなりの能力をすぐに発達させることができます。従来、AIはそのようには機能していません。したがって、一般性は人工汎用知能を理解する上で本当に重要な概念です。私たちはドメインを横断して広がる一般的に可能な認知能力を求めています。
Google Cloudの概要に戻ると、2番目の部分は「常識知識」です。AGIは「事実、関係、社会的規範を含む、世界に関する膨大な知識のリポジトリを持ち、この共通の理解に基づいて推論し、意思決定できる」と述べています。
「AGIの追求」について、Google Cloudは「コンピュータサイエンス、神経科学、認知心理学などの分野間の学際的な協力を必要とする。これらの分野の進歩は、AGIの理解と開発を継続的に形作っている。現在、AGIは主に概念であり、研究者やエンジニアが取り組んでいる目標である」と続けています。
これらすべての定義を読み、何年もの間この分野を研究した結果、私は何が合理的な定義だと思うか考えてきました。私が行き着いたのは、「ほとんどの認知タスクにおいて平均的な人間と同等かそれ以上のパフォーマンスを示す一般的に能力のあるAIシステム」というものです。
この定義を少し掘り下げてみましょう。「一般的に能力がある」と「平均的な人間」という二つの重要なフレーズがあります。一般性の部分は既に議論した通り、複数のドメインにわたって学習し、パフォーマンスを発揮できる必要があるということです。重要なのは、AIリーダーたちの定義からしばしば欠けているのは、人間の能力のレベルが何を指しているのかということです。PhD級の超頭脳を持つ人間について言っているのか、それとも平均的な人間なのでしょうか?
私がAGIの影響について考え、自分のビジネスの計画を立てたり、経済的影響を計画したり、子供たちがどこの学校に行くか、何を勉強するかを考えたりするとき、現実を考えようとしています。現実は、ほとんどのビジネスは平均的な労働者で構成されているということです。仕事をこなすために必要なことをする人々です。彼らは常に才能に満ちているわけではなく、最高の中の最高、上位1%や上位10%で満たされているわけではありません。
AGIやそれに近いものの影響を考えるとき、私の考えでは、通常の人間がする仕事ができるようになればいいのです。そして、もし普通の人間が平均的な仕事をするなら、私たちはもっとずっと早く心配すべきことがあります。
もしイーロン・マスクの「最も賢い人間よりも賢いAI」という定義の場合、それは全く違うレベルで、到達するまでに時間がかかります。しかし、あなたのビジネス、あなたのチームを見て、「ここに私たちのAプレイヤー、Bプレイヤー、Cプレイヤーがいる」とランク付けした場合、基本的な疑問は「いつモデルがBプレイヤーレベルになるか」ということです。そして、正直なところ、それは現時点ですでに多くのタスクでそのレベルに達しています。
それらを積み重ね、マーケティングや営業、サービス、会計、オペレーション、HR、財務、法務など、すべての分野で少なくとも平均的な人間レベルの単一モデルを考え始めると、ビジネスや社会でこれを管理することが非常に複雑になる可能性があることが見えてきます。
イーロン・マスクの定義に戻ると、彼はAGIについて質問されたとき、「最も賢い人間よりも賢い」と定義し、「おそらく来年、2年以内だと思う」と言いました。テスラとイーロン・マスクを知っている人なら、マスクはタイムラインを劇的に誇張する傾向があることを知っています。彼は2016年頃から完全自動運転を約束してきました。彼は通常、何かが技術的に可能だということでは正しいですが、タイムラインについては非常に積極的だと言えるでしょう。
彼の定義で注目したいのは、「最も賢い人間よりも賢い」というこの考えです。それはAGIを超えた「Beyond」の部分へとつながります。このシリーズのタイトルは「AGIへの道(そしてその先)」ですが、AGIを超えたものは何でしょうか?それはすでにかなり重要ですが、AGIを超えたものは「人工超知能」または「ASI」です。
2024年5月にGoogle DeepMindから発表された「AGIのレベル:AGIへの道のりの進捗を操作する」というタイトルの論文があります。この報告は2023年9月に書かれたものです。当時、GPT-4は世界で最も強力なモデルであり、6ヶ月経っていました。
共著者の一人であるシェーン・レッグは先に述べたDeepMindの共同創設者であり、2002年頃に「AGI」という用語を作ったとも言われています。この論文は、著名なAI研究者や組織からの9つのAGI定義の例を検討し、それらの強みと限界を反映することから始まります。彼らは私が先ほど試みたことと同じことをしているのです——AGIとは何かについて合意できるでしょうか?そうすれば、それを測定し、いつそこに到達するかを知ることができます。
著者によれば、「AGIの概念は哲学的議論の対象から、近い将来に実用的な関連性を持つものへと成長している。一部の専門家は、『AGIの火花』がすでに最新世代の大規模言語モデルに存在すると信じている」とあります。2023年秋から2024年春の話です。一部の研究者たちは、GPT-4のような大規模言語モデルの初期形態に既にAGIの火花があると信じていました。
論文は続けて、「一部は約10年以内にAIが広く人間を上回ると予測し、一部は現在のLLMがAGIだと主張している」と述べています。
Google DeepMindチームは、AGIまたはモデルとその前駆体の能力と行動を分類するためのフレームワークを提案しました。このフレームワークは、パフォーマンス、一般性、自律性に基づいたAGIのレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道のりの進捗を測定するための共通言語を提供することを目的としています。
彼らの考えでは、パフォーマンスはAIシステムの能力の深さを指し、特定のタスクに対する人間レベルのパフォーマンスとの比較を指します。一般性は、AIの能力の幅、またはAIシステムが目標パフォーマンスの閾値に達するタスクの範囲を指します。
彼らのレベルは次の通りです:レベル0は「AIなし」で、従来のソフトウェアを指します。レベル1は「出現中」で、「未熟な人間と同等かやや優れている」と分類されています。レベル2は「有能」で、「熟練した成人の少なくとも50パーセンタイル」に達しています。
ですから、たとえばChatGPTがマーケティング、販売、サービス、オペレーション、HR、財務、法務、IT管理などすべてを単一のモデルで行うことができ、それらすべてを熟練した成人の50パーセンタイルでできれば、彼らはそれを今やAGIの一形態と呼んでいます。彼らはそれを「有能なAGI」と呼ぶでしょう。
これが重要な概念です——バイナリではなく、スペクトルなのです。「AGIである」か「AGIでない」ではなく、これはAGIの一形態、これは初期の形態、それはスペクトル上にあるという考え方なのです。
AIモデルが、ビジネス内、知識労働内のほとんどの認知タスクにおいて、平均的な熟練大人と同等かそれ以上になったとき、社会が対処する準備ができていないAGIの一点に到達していると、レベル2の次はレベル3「専門家」で、彼らの分類では「熟練した成人の少なくとも90パーセンタイル」を指します。レベル4は「巨匠」で「熟練した成人の少なくとも99パーセンタイル」、そしてレベル5は「超人的」で「100%の人間より優れている」つまり、世界で最も賢い人間を集め、基本的にどんな認知タスクでもそれらすべてを上回るということです。
ここに超知能を見出すことになります。言い換えれば、Googleのジェミニ、ChatGPT、Anthropicのクロードを取り、あらゆる分野の最も賢い人間と比較し、単一のモデルがこれまで生きた最も賢い人間全員をあらゆる分野で上回るということです。これは考えるとかなり奇妙なことですが、当ポッドキャストを定期的に聴いている方は、エピソード129で超知能という考えについて約20分間話し合ったことを覚えているでしょう。
AIラボはAGIが近いと確信しているだけでなく、彼らの言動や著述を見ると、ほとんどが超知能も手の届く範囲にあると考えているようです。その例をいくつか見てみましょう。
レオ・レオポルト・アッシェンブルンナーからの「状況認識」という研究報告または一連の記事があります。これはエピソード102で話し合いました(2024年6月12日)。彼は、数百人のAIインサイダーの一人として見ているすべての兆候から、「本当の意味での超知能は2020年代末までに実現し、2027年までのAGIは驚くほど現実的である」と主張しています。
彼は「AIの進歩は人間レベルで止まることはなく、何億ものAGIがAI研究を自動化し、アルゴリズムの進歩の10年分を1年に圧縮する可能性がある」と続けています。彼の世界では、単一年で5桁の改善があり、私たちは急速に人間レベルから著しく超人的なAIシステムへと移行します。超知能の力と危険は劇的なものになるでしょう。
2024年6月19日、イリヤ・スツケバーによる「安全な超知能」というPPC組織が設立されました。彼はオープンAIの共同創設者の一人であり、チーフサイエンティストでした。また、おそらく世界トップ3、あるいは世界最高のAI研究者の一人と考えられています。彼は超知能への直線的な道を進む企業を設立し、超知能を達成するまで、製品や収益を全く意図していません。彼らは3月初めに300億ドルの評価額で20億ドルの資金調達を確保しました。
サム・アルトマンによる「知性の時代」という記事もありました(2024年9月23日)。彼はこう書いています:「人類の歴史を見る一つの狭い方法があります。何千年もの科学的発見と技術進歩の積み重ねの後、私たちは砂を溶かし、不純物を加え、コンピュータチップとして極めて小さなスケールで驚くべき精度で配置し、エネルギーを通過させ、ますます能力のある人工知能を作成できるシステムを開発しました。」
彼は続けて「これはこれまでの歴史全体で最も重要な事実かもしれません。数千日以内に超知能が実現する可能性があります。もっと時間がかかるかもしれませんが、私たちはそこに到達すると確信しています。3つの言葉で、次の飛躍的な繁栄の入口にどのようにして到達したのか:ディープラーニングが機能しました。15の言葉で言えば、ディープラーニングが機能し、スケールで予測通りに改善し、私たちはますます多くのリソースをそれに捧げました。それだけです。人類は、あらゆるデータの分布、または実際にはあらゆるデータの分布を生み出す基礎となるルールを、驚くべき精度で真に学習できるアルゴリズムを発見しました。コンピュートとデータが多ければ多いほど、人々が難しい問題を解決するのを助けるのがより良くなります。これについて考える時間をどれだけ費やしても、これがどれほど重要なことか、私は本当に内面化することができません。」
2025年1月3日、オープンAIでエージェント安全性を研究しているスティーブン・マクラーニンからのツイートについて報告しました。彼はこうツイートしています:「超知能を作成する方法を知らなかった頃、AIの研究をしていた時が懐かしいです。」
サム・アルトマンは2025年1月5日に「反省」という記事で再び登場します。彼は「私たちは今、伝統的に理解されてきたようにAGIを構築する方法を知っていると確信しています。2025年には、最初のAIエージェントが『労働力に加わり』、企業のアウトプットを実質的に変える可能性があると信じています。優れたツールを人々の手に反復的に置くことが、広く分散した素晴らしい結果につながると引き続き信じています。本当の意味での超知能へと目を向け始めています。現在の製品を愛していますが、私たちは超知能を持つ素晴らしい未来のためにここにいます。超知能ツールは、私たち自身の能力を超えて科学的発見とイノベーションを大幅に加速し、それによって豊かさと繁栄を大幅に増加させることができます。」
では、AGIとその先について、オープンAIはどのように定義しているのでしょうか?2024年7月、ブルームバーグが最初に「人工知能の段階」について報告しました。これはオープンAIの内部的な考え方でした。これは実際にオープンAIがこのように考えていることが確認されています。
彼らの世界では、レベル1は「チャットボット」または会話言語を持つAIで、これは2022年11月のChatGPTで実現しました。レベル2は「推論者」で人間レベルの問題解決を行います。レベル3は「エージェント」で行動を取ることができるシステムです。レベル4は「イノベーター」で発明を支援できるAIです。レベル5は「組織」でPPC組織の仕事ができるAIです。
現在、私たちは2022年秋にレベル1を手に入れました。2024年9月にオープンAIのO1モデルから始まる推論モデルが紹介されました。今では主要なラボから半ダースほどのモデルがあり、誰もがそれらにベル込んでいます。つい昨日、Google GeminiのGemini 2.5 Proが発表されました。これは推論または思考モデルです。そして、これらは推論能力を持っているため、私たちはより賢いエージェントを作ることができるようになり、それは迅速にイノベーターへとつながるはずです。これはデミス・ハサビスがAGIを達成したと考える段階で、真のイノベーション、つまり独自の科学的ブレークスルーの創造が行われます。そして最終的にレベル5の「組織」に到達します。これはAGIの後、超知能の前に来る可能性があり、基本的にAIが自律的な組織として機能し、目標を与えるだけでそれが自ら全てを運営するという奇妙な概念です。
モデルはより賢く、より一般的に能力を持つようになっており、AIリーダーたちは道筋が明確だという自信を増しています。彼らは皆、AGIを解き放つための同じ潜在的な変数を追求しているようです。すべてのラボは一般的な考えを持っており、AGIとその先に到達するために1つか2つの主要なブレークスルーが必要だと話すことがよくありますが、彼らは皆、同じ基本的なアイデアを追求しているようです。
しかし、NVIDIAチップのようなコンピュータチップやコンピュート向けチップの不足があり、また同時にすべてを試すことを妨げるエネルギーの不足があります。彼らは既に持っているモデルにサービスを提供する必要があり、新しいモデルを訓練し、次に必要なブレークスルーを解き放つための研究方向を見つけるための実験を実行する必要があります。
いくつかの可能性を強調しましょう。GoogleやAnthropic、OpenAI、Cohere、Mistral、xAI、Metaなどは、すべてのAI研究者という非常に賢い人々を抱えています。NVIDIAチップをトレーニングランや実験に使用する有限の能力があります。彼らは一般的にこれらの可能性を検討します:

エージェント性 – これらのものに行動を取る能力を与えること
コンピュータ利用 – あなたのデバイス、画面上のアプリケーションやコンテンツを見て使用する能力
コンテキストウィンドウ – コンテキストウィンドウの拡大、つまり50のPDFを与えてその中のすべてを知り、検索して思い出すことができるように
継続的学習 – これらのものは忘れます。10スレッド前に話したことを覚えていないことがあります
感情知能
メモリ
マルチモダリティ
推論
再帰的自己改善 – これらのものが自分自身を改善する
視覚、音声
世界モデル – 周囲の世界を理解し、物理学を理解する

これらのいずれかが次のブレークスルーへの鍵となる可能性があり、おそらく彼らが知っている他のものもあります。彼らはこれらすべてを認識しており、どれに賭けるかを決める必要があります。
一部のラボは数十億ドルを使って、最大かつ最も賢い、最も一般的に能力のあるモデルを構築し続けています。特にOpenAI、Google、Meta、xAI、Anthropicです。彼らはNVIDIAから数十万個のチップを購入し、著作権のある書籍など、権利を持っているデータや持っていないデータを取り込み、これらの巨大なモデルを訓練しようとしています。そのようにして、Gemini 4.5やGemini 2.5、GPT-4.5などへと進化していきます。ただひたすらより大きなモデルを構築し続けるのです。
他のアプローチとしては、Cohere、Mistral、Ryder、そして大手ラボも含め、アルゴリズム技術、強化学習、よりきめ細かいデータ、特定分野で訓練された独自データなどを通じて、より小さく効率的なモデルを構築しようとする小規模なプロジェクトがあります。最大かつ最も一般的に能力のあるモデルを構築する取り組みがある一方で、基本的にデバイス上で実行できる小型で効率的なモデルを構築する取り組みもあります。
ポッドキャストのエピソード140で述べたように、これはすべて騒音や誇大広告ではなく、新興トレンドの姿なのです。すべての異なるリーダー、異なるAIラボから似たようなスレッドが見え、聞こえています。これらのラボ間を行き来するトップAI研究者たちは、すべてを見て聞いています。彼らはサンフランシスコで同じパーティーに行き、常に互いに話し合っています。彼らはすべてのラボで同じことを見ています。
それらを一つにまとめ始めると、彼らが全員間違っているか、またはAGIが来るということ、そしてそれはビジネス界や経済、教育システム、社会が準備しているよりも速く来ることに気づきます。それが私の信念であり、このシリーズの目的は、彼らが正しいと考え始め、2〜3年以内に世界が私たちの準備していない非常に劇的な方法で変わり始めることを考慮し始める必要があるということです。
私はただ座って待つよりも、彼らが間違っているかもしれない、私が間違っているかもしれない、2年でそこに到達しないかもしれないということを受け入れたいと思います。たぶん5年かもしれませんし、7年かもしれませんし、決して到達しないかもしれません。しかし確かに、可能性は十分に高く、私たち自身、私たちの企業、私たちの産業、私たちの教育システムへの影響を考慮し始めるべきであるように思えます。
2022年11月のChatGPTの登場を思い出すと、私たちはそのようなものが来ることを知っていました。2022年春に出版された「The Marketing Artificial Intelligence」という私たちの本には、「人間のように書けるようになったとき機械にどうなるか」という節がありました。当時、私たちは既にGPT-3レベルにあり、これが解き放たれることを知っていました。それがChatGPTという名前になるとは知らなかったですが、兆候は明らかでした。サム・アルトマンは2021年3月に「すべてのためのムーアの法則」という投稿を書き、思考し、推論し、理解し、創造できるモデルが来ることを私たちに伝えていました。彼らは既に自分たちのラボでそれらを見ていたのです。
にもかかわらず、ほとんどのビジネスリーダーは何もしておらず、このようなものが来ることについて全く知識がありませんでした。そして今日、AGIについて私がそう感じています。現在のAIの能力を理解していないビジネスリーダーがまだたくさんいます。AGIが登場したときに何が起こるかを考えるどころではありません。私は、2年後、3年後、5年後に人々がその地点に到達し、何も行動せず、全く何の緊急対応計画もなかったという状況を望んでいません。
それが私の目標です – 次に何が起こるかを説明しようとすることです。それが「AIタイムライン バージョン2」へとつながります。2024年3月のエピソード87で、私は「不完全なAIタイムライン」と呼んだものを示しました。その前提は、実際は私にはわからないし、これらのAIラボの誰もが実際に何が起こるかわかっていないと確信していますが、彼らはそれについて十分に話し、十分に読み、見て、研究報告を見ることで、彼らが取り組んでいることを推測できるというものでした。
私はこのタイムラインで、彼らが言っていること、彼らが何が起こると信じているか、私たちは今どこにいるのか、次にこれらのモデルで何が起こるのか、そして最も重要なのは、準備するために何ができるかということをまとめようとしています。
私はこれについて「AGIジャーナル」を維持しています。マイクと私は毎週のポッドキャストで約40の記事、ポッドキャストインタビュー、研究報告、ツイート、企業やAIラボとの私的な会話、自分自身の観察、プレゼンテーション、コースなど、すべてのAI関連トピックを毎週キュレーションしています。AGIに関連するものは別のジャーナルに保存しています。基本的に何が起こっているか、人々が何を言っているかを追跡し、いつでもそこに戻って全体像を把握しようとしています。
それが今日やったことです – 昨年3月以降のジャーナルを振り返り、彼らが何を言っているかをまとめてみました。ここから、過去12ヶ月のAGIのジャーナリングを通じて明らかになってきたことを説明し、その視覚的な表現を作成してリンクドインアカウントで共有し、それが完成したらショーノートに入れます。今から数日の間に公開される予定です。
過去12ヶ月で明らかになったこと – 私にとっての重要な点は、タイムラインが加速しているということです。昨年予測したことの多くは非常に真実のままですが、タイムラインを見直したとき、完全に間違っていたと言えるようなものは何もありませんでした。ただ、多くの新しいことが出現し、タイムラインを進化させ、AGIが私が元々予想していたよりも早く来ると確信させたのです。
いくつかの例を挙げてコンテキストを加えましょう。「DeepMind: The Podcast」という素晴らしいポッドキャストシリーズがあります。ハナ・フライ教授によるもので、彼女はGoogle DeepMindの全員に内部アクセスを持っています。シーズン3のエピソード1(2024年8月)でデミス・ハサビスは次のように述べています:「AGIやポストAGIで何が起こるかについて、まだ過小評価されているか、おそらく過小評価されていると思います。人々はそれがどれほど巨大になるか、したがってその責任がどれほど大きいかを理解していないように感じます。」
2025年3月10日(つい2週間前)、Google DeepMindの共同創設者シェーン・レッグはツイートで「AGIはまもなく科学から政治、セキュリティから経済、そしてそれ以上の世界に影響を与えるでしょう。しかし、これらの影響についての私たちの理解はまだ非常に初期段階です」と述べました。
これは家庭でフォローしていない人々にとって非常に情報価値があります – これらのラボは何が起こるかについて全く分かっていません。彼らはそれについて非常に率直です。彼らがこれを解決するとは思わないでください。彼らはあなたの産業で何が起こるか、あなたの仕事に何が起こるかを考えることを自分たちの責任とは考えていません。彼らは可能な限り最もスマートな技術を構築することに焦点を当てており、この研究をしたい人々と協力しますが、あなたの仕事にこれがどのような影響を与えるかを教えに来ることはありません。彼らはただそれを構築し、私たちに解決させるでしょう。
アンスロピックの共同創設者兼CEOであるダリオ・アモデイは、2024年11月のアレックス・フリードマンとのポッドキャストインタビューで次のように述べています:「私たちが開発している新しいモデルのいくつか、他の企業から出てきた推論モデルは、博士号やプロフェッショナルレベルと呼べるものに達し始めています。2024年9月にリリースされたOpenAIのO1のようなモデルから、大学院レベルの数学、物理学、生物学で同様のことを見てきました。」
「スキルの点でこれを単純に外挿すると、数年以内にこれらのモデルは人間の最高のプロフェッショナルレベルを超えるようになると思います」と彼は言います。Google DeepMindのレベルに戻ると、彼らはそのPhDレベルやそれ以上について話しており、最も賢い人間について話しています。
人工汎用知能または彼が好む「強力なAI」を達成するタイムラインについて尋ねられたとき、彼は発生する可能性のある変数に基づいてヘッジしましたが、「これらの能力が増加している率をただ大まかに見ると、2026年か2027年までにそこに到達すると考えさせられます」と言いました。2026年は来年です。彼はこれらのすべてにおいて博士レベルの人間よりも賢いAIについて1〜2年のタイムラインを設定しています。
オープンAIは最近(3月初め頃)「安全性とアラインメントについての考え方」という記事を発表しました。その投稿では「AIがより強力になるにつれ、賭け金はより高くなります。ポストAGIの世界がどのように見えるかを正確に予測することは難しいです。世界は今日の世界よりも、今日が1500年代よりも異なる可能性が高いですが、AGIの変革的な影響は数年内に始まると予想しています」と述べています。
彼らは何が意味するのかを解明するつもりはなく、ただそれが500年前とは異なるだろうと言っているだけです。
今年初めには「超知能戦略」というダン・ヘンドリックス(AIセーフティセンターのディレクターであり、イーロン・マスクのxAIとScale AIのアドバイザー)、Scale AIのCEO兼創設者であるアレクサンダー・ワン、そして元GoogleのCEO兼執行会長であるエリック・シュミットによるレポートもありました。
冒頭の段落でこれら3人の著者は「超知能、つまりほぼすべての認知タスクにおいて人間よりもはるかに優れたAIは、現在AI研究者によって予想されています。かつて国々が生存を確保するために核戦略を発展させたように、今や私たちは変革的な変化の新しい時代をナビゲートするための一貫した超知能戦略が必要です」と述べています。
2025年3月4日、ニューヨークタイムズの意見筆者であり「エズラ・クラインショー」のホストであるエズラ・クラインは、バイデン政権のAI特別顧問であったベン・ブキャナンにインタビューしました。クラインはエピソードとニューヨークタイムズの意見記事をこう始めています:「ここ数ヶ月、私はこの奇妙な経験をしています。AIラボから、政府から、次々と人々が私のところに来て『これは本当に起ころうとしています。私たちは人工汎用知能を手に入れようとしています』と言っています。」
「彼らが意味するのは、コンピュータの背後で人間が行うことができることを基本的に何でもできる、変革的な人工知能を作り出す道を歩んでいると長い間信じていたということです。開発に5〜15年かかると思っていましたが、今では2〜3年で来ると信じています。」
彼は続けて「これが来ないと自分に言い聞かせているなら、本当にそれを疑う必要があると思います。これはWeb 3ではありません。これはベイパーウェアではありません。私たちが話している多くのことは既にここにあります。私たちは人類の歴史において、これまで経験したことのないような時代の境目にいると思います。そして私たちは準備ができていません。一部には準備することがどういう意味かが明確でないからです。これがどのように見えるか、どのように感じるかはわかりません。労働市場がどのように反応するかわかりません。どの国が最初にそこに到達するかわかりません。戦争にとって何を意味するかわかりません。平和にとって何を意味するかわかりません。そして世界で取り上げるべき他にもたくさんのことがありますが、この時代の人類の歴史を振り返ったとき、AIが重要だったものになる可能性が高いと思います。」
最後に、ニューヨークタイムズのテクノロジーコラムニストであり「ハードフォーク」ポッドキャストの共同ホストであるケビン・ルースが最近「強力なAIが来ている。私たちは準備ができていない」という記事を発表しました。
彼はこう始めています:「人工知能についていくつか信じていることがあります。過去数年間でAIシステムが数学、コーディング、医療診断など多くの分野で人間を上回り始めていると信じています。そして毎日良くなっています。非常に近い将来、おそらく2026年か2027年、あるいは今年にも、1つ以上のAI企業が、通常『人間ができるほぼすべての認知タスクを行える汎用AIシステム』と定義されるAGIを作成したと主張するでしょう。」
彼は続けて「AGIが発表されると、定義に関する議論や『本物の』AGIと見なされるかどうかについての議論があるでしょうが、これらはほとんど重要ではないでしょう。なぜなら、人間レベルの知能に対する私たちの独占権を失い、非常に強力なAIシステムを持つ世界へと移行しているという広範な点は真実だからです。」
ケビンの記事を読んだとき(全文をお勧めします、ショーノートにリンクを入れます)、私はツイートしました:「彼が言っていることすべてに100%同意します」。彼が記事で書いていることすべてに完全に同意し、それはポッドキャストで私たちが言ってきた多くのことを反映しています。
では、AIタイムラインについて考えると、5つの異なるコンポーネントを順番に説明したいと思います。視覚的に理解できるようにスライドも数日以内に用意します。
最初は「大規模言語モデル(LLM)の進歩」です。昨年のタイムラインでは2024年から2025年にかけてと予測し、それは続いています。LLMの進歩には、精度、コンテキストウィンドウ、意思決定、感情知能、記憶、マルチモーダル、パーソナライゼーション、プランニング、検索、ツール使用、推論における継続的な進歩と潜在的な飛躍が含まれます。先ほど述べたように、これらの異なる変数はラボが次の段階を解明しようとして追求しているものです。すべてが継続しており、進展が見られます。昨日、Gemini 2.5 Proが発表され、基本的にすべてのリーダーボードでトップに躍り出ました。
昨年のタイムラインには含まれていなかった新しい点として、フロンティアモデルの商品化があります。独自データの所有、製品化、および配布が重要な差別化要因となっています。昨年初めの大きな疑問は、OpenAIのGPT-4モデルがどれだけその優位性を維持できるかということでした。彼らが最初に出てきて、約2年間はそれが支配的なモデルでした。
疑問は「OpenAIには何か秘密のソースがあり、常に他のモデルよりも優れているのだろうか?」というものでした。しかし、私たちが学んだのは、そうではないということです。かつては12〜18ヶ月のリードタイムを持てましたが、今では3ヶ月、最大でも6ヶ月のようです。リーダーボードは今や週単位で変化しています。大手ラボはしばしばステルス名でモデルをテストし、リーダーボードの上位に新しいモデルが出現し、突然Googleが「ああ、それは我々の2.5 Proモデルでした」と発表するようなことがあります。
これらのモデルは3ヶ月ごとに互いを追い越しています。差別化要因となる要素は、データ、モデルの製品化能力(OpenAIが製品化を通じて今年おそらく1000億円以上の収益を上げているように)、そして配信能力(Googleは10億人以上のユーザーを持つ7つのプラットフォームを持っています)です。最高のモデルと同等のモデルを持ち、70億人があなたの技術を使っているなら、それはかなり優れた配信能力です。
今年新しく加わったもう一つの点は、伝統的なスケーリング法則です。これが大きな謎でした – より多くのデータを与え、より多くのNVIDIAチップを購入し、より大きなデータセンターを構築し、より多くのエネルギーを接続すれば、よりスマートなモデルを継続的に構築できるのか?昨年秋の時点で、それらはまだ機能していますが、その法則は減速しています。以前と同じレベルの改善は得られていませんが、大手ラボはそれでも伝統的なスケーリング法則への取り組みを続けています。
2024年秋に起こり、今年のタイムラインで新しくなったのは、テスト時コンピュート(思考スケーリング法則)が出現し、加速していることです。これは推論時、つまりツールを使用するとき(例えばGoogle Geminiに入力すると、彼らはその応答を生成するためにパワーを使用します)、モデルが考える時間をかけると(システム2思考と呼ばれるもの)、実際により賢く、より正確になることが分かったということです。伝統的なスケーリング法則とテスト時コンピュートスケーリング法則の両方があり、後者は加速しています。
今年のタイムラインで新しい点は、モデル評価です。これらのモデルの良さを判断する方法として、純粋なIQテストよりも実用的なアプリケーションとユースケースに焦点を当て始めています。従来、これらのモデルがリリースされると、数学、生物学、その他の複雑なタスクにどれだけ優れているかが測定されていましたが、それらは私たちの日常業務には影響しないため、一般的には気にしません。最近見られ始めているのは、弁護士の仕事やマーケターの仕事にどのような影響を与えるかなど、より実用的な評価です。彼らはこれを行う方法を見つけ始めており、より多くの産業や協会がこれを採用し、自分たちの業界内の仕事に評価を適用し始めるでしょう。
価値あるユースケースとビジネスの急速な拡大も続いています。生成AIの広範な採用は、幻滅のポケットがあるにもかかわらず、複数年の曲線を続けています。私は毎日スタートラインに立っている企業と会っています。もしあなたがこれを聞いてこれがすべて狂気だと思っていて、とても遅れていると思っても、そんなことはありません。ほとんどの企業はまだこれをどうするか理解しようとしている段階です。
私の意見では、まだ広範な採用段階にはありません。より多くの企業がテストを始め、理解しようとしている広範なパイロットフェーズにある可能性はありますが、これを解決し、拡大し、変化管理と内部教育を行い、するべきことをすべて行っている段階ではありません。それはまだ広範囲では起こっていません。
特定の業界でAIによる解雇の話が今年出てくるでしょうが、広範囲ではないと思います。メディアによって誇張されるでしょうが、多くのテック企業はAIによる解雇を他の理由に隠していると思います。実際には静かなAI解雇が起きていて、人々はそれを認めていないと思いますが、今年末までには認め始めるでしょう。
より前向きな点として、いくつかの新しいAIの役割が出現するでしょう。AI Ops、チーフAIオフィサー、AIトレーナーなどを見始めるでしょう。私たちは現在採用中で、実際にすべての職務記述書にAIエージェント管理を組み込んでいます。基本的に「あなたの仕事の一部は、エージェントが何ができるかを理解し、特に能力が向上し続けるにつれて、それらを仕事に組み込んでより効率的に、生産的に、創造的に、革新的になる方法を見つけることです」というものです。
私はAI統合の責任が双方向であることを望んでいます。CEOとして組織全体またはチーム全体で何かを行う機会が見えたときにそれを押し下げたいと思いますが、実際に仕事をしている実務者からアイデアが上がってきてほしいと思います。新しい仕事の方法や新しいツールについてテーブルに持ち込む自由を持ってほしいのです。
大規模言語モデルは進化し続けるでしょう。従来、それらはテキストを入力し、テキストを出力するものでした。画像生成をしたい場合は、別のモデルに行かなければなりませんでした。同じモデルには組み込まれていませんでした。従来の大規模言語モデルは基本的にテキストチャットボットを動かしていました。
重要なのは、これらの言語モデルは常に次に来るものの基盤だったということです。AIラボは記事やメール、計画、広告コピー、ソーシャルメディア投稿、財務報告書を書くツールを構築することを目指していませんでした。彼らは言語理解と生成を解決しようとしました。それが一般知能を解き放つ鍵だと考えたからです。常にこれらの言語モデルは次に来るものの基盤に過ぎませんでした。
私がよく言うのは、「これは人類史上最も単純なAI形態である」ということです。毎日あなたは人類史上最も単純なAI形態を使って作業しています。昨日、GoogleからGemini 2.5 Pro、OpenAIから4.0画像生成が2時間以内に発表され、どちらも現在世界最高レベルのようです。それが昨日起こったばかりです。毎日誰かが前線を押し進めるような何かをするでしょう。
それがタイムラインの第二フェーズであるマルチモーダルAI爆発(2025-2026)につながります。元々テキストのみだった言語モデルが、テキスト以上のことをするために根本から構築されるようになっています。複数のモダリティ – 画像、ビデオ、音声、コード – これがGeminiモデルの構築方法です。複数のモダリティで訓練され、複数のモダリティを出力できるようになっています。
モデル間を行き来する必要はありません。このモデルと対話するだけで、それは異なるモダリティ上に構築された根本的なシステムです。テキストからビデオへの能力の急速な改善が見られるでしょう。プロンプトを入力するとビデオが出力されます。現在、この分野には多くのプレイヤーがいます。Google DeepMindのV2などが素晴らしい例です。デモビデオを見てください、素晴らしいです。OpenAIのSoraで遊ぶこともできます。Runway MLなど他にも多くのプレイヤーがいます。
しかし、これらには制限があります。一つは、これらを行うには非常に計算集約的です。歴史的にフレーム間で一貫性を保つことができません。例えば、ビデオで人物から始めても、7秒ほどで突然その人物は始めと違って見えることがあります。その制御を維持できません。出力の長さも制限されていて、7秒や10秒ほどでその能力を失い始めます。リアリズム、レンダリング時間… これらはすべて解決される予定の欠点です。その多くはコンピューティングパワーと、それを行うコストに関連していますが、大きな進歩が見られるでしょう。
音声技術の継続的な進歩により、声がより人間らしく、自然で、正確で、カスタマイズ可能になります。AI生成の画像、ビデオ、声は現実と区別がつかなくなるでしょう。昨日発表されたばかりの新しい4.0画像生成モデルで遊んでみてください。私自身はまだテストする時間がありませんでしたが、Xでの人々のスレッドを見て、それは素晴らしいものです。
基本的にOpenAIはガードレールを外しています。歴史的に、これらのAIラボはこれらの誤用に意識的であろうとしてきましたが、私たちはAIのその段階を終えつつあります。彼らは基本的にこれらを出して「はい、あなたが有害や不快と考えるかもしれないことをするでしょう、それを使わないでください」と言っています。フィルターとガードレールを取り除き、伝統的にこれらのラボが抑えてきたモデルの真の力を人々に使わせています。
現実と区別がつかないようにすることは、社会がこれに準備ができていないため、あらゆる種類の問題を引き起こすでしょう。人々は画像やビデオが現実のように見え、感じるように生成できることをほとんど認識していません。そして、それは混乱を引き起こすでしょう。
フロンティアモデル、つまり訓練実行に数十億を費やしているこれらのラボは、10から100倍強力なモデルを作るでしょう。元のスケーリング法則に従い続けますが、より小さく、より速く、より効率的なモデルもおそらくはるかに普及するでしょう。
モデルは世界観のような要素を開発し、実際に理解するようになるでしょう。例としてGoogleのプロジェクトAstraを使用したり、ChatGPTで音声をクリックし、ビデオをクリックすると周囲の世界を見ることができます。Apple Intelligenceの視覚的知能も使用できます。AIが世界を見て、理論的には実際にそれを理解し始める初期形態を見始めています。世界の物理学を理解する、などです。
それがどのように発生するかは確かではなく、それが実際に物理学を理解しているかどうかについては意見が分かれていますが、合成データやシミュレーションなどを通じてこの周辺で多くの取り組みがなされています。
マルチモーダルAI爆発フェーズについて私が疑問に思うもう一つのことは、音声がどれほど支配的なインターフェースになるかということです。世代的なことかもしれませんが、人々が本当にAIやデバイスと音声だけで対話し始めるシナリオが見えます。常に彼らと話し、返ってくる答えが答えであり、Googleで検索するのではなく、この情報を提供することを信頼しているAIと話すだけです。
AIエージェント爆発は2025年から2027年のタイムライン上の次のフェーズです。エージェントは本当に奇妙な分野です。ポッドキャストを定期的に聴いている方は、私のこの話題についてのソープボックスを聞いたことがあるでしょう。テック企業の多くが何もかもAIエージェントとしてブランド化し始め、その用語を堕落させたように感じます。それは何がエージェントなのかという非常に曖昧なものになりました。
私の考え方を紹介し、AIエージェント爆発のコンポーネントについて説明します。伝統的な自動化では、機械やソフトウェアが我々の指示通りに動作するルールを設定できます。これは永遠に存在していました。ルールを書けば、それは指示通りに正確に動作します。それは決定論的であり、指示に従うだけです。
理論上、AIエージェントと自動化、つまり行動を取る能力がある場合、それらは部分的に確率論的です。つまり、時には自分で物事を解決し、ただ指示に従うだけではありません。AIエージェントは行動を取ることができるAIシステムと考えており、さまざまなレベルの自律性、ツール使用、記憶を持つことができます。それらはバイナリではなく、これらのさまざまな変数のスペクトル上に存在します。
2024年の問題は、すべてのテック企業がこれらを自律的なもので、あなたの仕事をするだろうというように話し始めたことで、人々はパニックになり、それが何を意味するのか理解していません。私はこれをテスラと非常に似ていると考えています。テスラは完全自動運転があると言っていますが、かっこ内に「監視付き」と書いています。現時点では、まだステアリングホイール(ハンドル)が必要であり、いつでもそのステアリングホイールを制御できる人間が必要です。テスラは自律的ではなく、ある状況では自律性のスペクトル上にありますが、まだ人間によって監視される必要があります。
常に疑問となるのは、人間の役割は何かということです。車の場合はドライバーは何をするのか、マーケティングや営業、カスタマーサクセスシステムで働くAIエージェントの場合は人間の役割は何か?人間はそれが脱線しないようにするためにそこにいるのか?人間は週に一度それをチェックするのか?それとも人間はそれが行うことすべてを承認するのか?ここでのポイントは、それらはこの明確な定義ではなく、スペクトル上に存在するということです。
2025年、行動を取ることができるAIエージェントは主要テック企業によって大々的に宣伝されますが、市場では正確に何であるか、どのように動作するか、どのような影響を与えるかについての混乱が残ります。現在のAIエージェントは、計画、統合、管理するために多くの手作業を必要とすることが多いです。
しかし、OpenAIやGoogleのDeep Researchツールなど、この半自律エージェントの強力な初期形態があります。これらのツールを使用していない場合は試してみてください。素晴らしいです。これらのAIエージェントがどのように採用と価値を推進できるかを理解し始めることができます。研究を行うというこの狭いインスタンスでそれらを適用されたのを見ると、他のことを行うように構築されたときを想像し始めることができます。
企業内での採用は遅いと思いますが、それは主に1つには広告されているように機能しないということ、さらに重要なのはプライバシーとセキュリティリスクです。特にコンピュータ使用という考えに関連しています。2024年秋、Anthropicはコンピュータ使用のプレビューを最初に市場に出しました。これはOpenAIが2016年頃から取り組んでいたものであり、Googleも現在Chromeでこのバージョンを持っています。
これによりAIがキーボードとマウスを引き継いで、コンピュータでタスクを実行することができます。これを行うには、画面上のすべてを見て、理論的にはその大部分を記憶します。Microsoftがこれを行っていた方法は、画面のスクリーンショットを1.5〜3秒ごとに撮り、それらのスクリーンショットを検索して物を見つけるというものでした。それはあなたのデバイス上のコンテンツとアプリケーションを見て、記憶し、相互作用することができます。仕事用コンピュータかもしれませんし、電話かもしれません。
CEOとして言えることは、従業員がコンピュータ使用でエージェントを持ち、一日中画面上のすべてを見ている可能性があるという考えは不安です。プライバシーとセキュリティリスクに関する大きな疑問があります。大企業の大きな法務チームやITチームはさらに大きな懸念を持っていると想像できます。それは大きな問題であり、企業内でのAIエージェントの採用を遅らせると思います。
もう一つ考えられるのは、エージェントは最初は垂直および使用ケースによって主に狭くなるということです。先ほど述べたDeep Researchは素晴らしい例で、素晴らしい製品ですが、その能力は研究に特化しています。しかし、時間の経過とともに、より一般的で水平的になっていくと思います。私ができることを何でもできるAIエージェントが単にあると思います。特定のタスクで訓練されているわけではなく、単に私の仕事をするということです。そこで物事は本当に奇妙になります。
それが組織がチャートやチームにAIエージェントを組み込み始めることにつながります。2024年11月にNVIDIAのCEO兼創設者であるジェンセン・フアンの引用を共有しました:「これらのAIワーカーは理解し(AIエージェントを指しています)、計画し、行動を起こすことができます。我々はそれらをAIエージェントと呼んでいます。デジタル従業員と同様に、それらを訓練し、あなたの会社に迎え入れ、あなたの会社について教え、特定のスキルのためにそれらを訓練し、訓練が終わった後に評価し、求められた仕事を確実に実行するようにガードレールを設け、そしてもちろん運用し、配備します。」
言い換えれば、人間はこれらすべての場所でループ内にいます。AIエージェントについて聞くとき、1年後に誰もの仕事がなくなり、エージェントがそれを行うと想定しないでください。そうではありません。自律性の初期形態が見られるでしょうが、それは非常に狭く、おそらくそれらを行うように高度に訓練されるでしょう。しかし、知識労働におけるこれらからの混乱がどのように見えるかを見始める、または少なくとも可視性を得るでしょう。それはより具体的で測定可能になり始めるでしょう。
次のフェーズは、ロボティクス爆発、特に人型ロボットです(2026-2030)。知識労働者に直接影響する重要なものではないため、これにはあまり時間を費やさないでしょうが、この分野への大きな投資があり、過去12ヶ月で多くのブレークスルーがありました。
OpenAIはロボティクスに戻ってきています。彼らはそこから始まりました。OpenAIの初期の頃に取り組んでいたことの一つでした。TeslaのOptimusは時間の経過とともに車よりもTeslaの最大の収益チャネルになるかもしれません。Figureは主要プレイヤーの一つです。Amazon、Google、NVIDIA、Boston Dynamics、中国のUntryは最近驚くべきデモンストレーションを行いました。
ハードウェア側で大きな進歩が見られています。これらはその能力において人間のようになっています。しかし、本当のブレークスルーは、マルチモーダル言語モデルが脳として組み込まれたことでした。基本的に、テキスト、画像、ビデオ、音声のすべての能力がロボットに組み込まれ、世界を見て理解し、人々や物体と相互作用できるようになりました。それが本当のブレークスルーです。
最初に商業用ロボットの狭いアプリケーションがあり、その後、観察や強化学習を通じて迅速に多様なスキルを発達させることができるより一般的なロボットが登場すると思います。つまり、彼らは人間が行うことを見て、それをどのように行うか学んだり、基本的に「良くやった」「良くやらなかった」というような報酬関数でこれらのスキルを特別に訓練されたりします。
おそらく2028年から2030年頃に、より広範な商業アプリケーションが始まり、多くの産業に実際に影響を与え始めるでしょう。そして、時間が経つにつれて、次の10年間に、あなたが実際にリースまたは購入できる汎用消費者ロボットの可能性があり、年間2万ドルまたは月200ドルで家の周りにロボットを置くことができるかもしれません。それはエリート層の贅沢品として始まり、最終的に製造コストが下がるにつれて、急速に大衆市場のものになるでしょう。そしてそのとき、ブルーカラーの仕事への影響が本当に見られ始めます。
私は他の人ほどこれについて楽観的ではありません。この分野に積極的に投資機会を探しており、誰が主要なプレイヤーになるかを注目していますが、これらが実際に私たちの生活にどれだけ早く影響を与えるかについては、現在多くの誇張があると思います。
ジェンセン・フアンは「ロボティクスにとってのChatGPT瞬間が今から10年以内に来ると確信しています。人型ロボットはその素晴らしさで皆を驚かせるでしょう」と2025年1月に言いました。イーロン・マスクは最近、Teslaが今年5,000台のOptimus人型ロボットを製造することを目指していると言いました。1月のCESで、彼はTeslaのOptimus人型ロボットの野心的なビジョンを共有し、3年以内にTeslaが50万台の人型ロボットを生産すると予測し、生産規模は毎年大幅に増加すると述べました。彼は世界中で数百億のロボットを持つ未来を描きました。
数日前、彼はSpaceX(彼の会社の一つ)のStarship(主要なロケット)が来年末に火星に向けて出発する予定だと述べました。彼は火星にロケットを着陸させ、TeslaのOptimusボットを火星に送りたいと考えており、それがうまくいけば2029年に人間を送りたいと考えています。そして今日、Teslaは他のロボティクス企業と共に議会で Optimusをデモンストレーションしています。ロボティクスシンポジウムが開かれているようです。
人型ロボットについて多く聞くようになるでしょうが、それを「注目するべきだが、おそらく今日のAIエージェントのように思われるほど進んでいない」というカテゴリーに入れておくべきでしょう。
タイムラインの最後の要素はAGIの出現です(2027-2030)。昨年は2028年からと予測していましたが、1年前倒しました。AGIが出現すると、新しい科学が可能になります。それはもはや既存の人間の知識から点を繋げて単に単語について予測するだけではなく、実際に新しいことを発見します。トレーニングデータにないもの、またはトレーニングデータで学習しなかったものであり、自分自身のアイデアや仮説、薬、数学の問題の解決策などを開発し始めます。化学、生物学、数学、そしてビジネスにも実際に影響を与え始めます。
これが起こり始めると、ビジネスが実際に何であるかの完全なリセットが始まります。私は、今後数年のうちに、1〜10人の10億ドル企業について聞くだろうと思います。それは実際に今年起きるかもしれません。大部分が自律的な企業として機能するAIエージェントクラスターまたはハイブの考えについて聞くでしょう。これが起こると、経済の健全性と成長をどのように測定するかを真に再考し始める必要があります。
私は経済学者がこれを今すぐ行うべきだと強く信じていますが、誰も行っていることを知りません。もし誰かにこれが0%のチャンスではなく、おそらく10%でもなく、たぶん20〜30%のチャンスでこの考えが10年の終わりまでに実現すると言ったら、それは計画すべきことであり、可能性として考慮すべきことのように思えます。
これが起こると、広範な労働力の混乱、仕事の置き換えがはるかに可能性が高くなるため、ビジネスを再考し、教育を本当に奇妙な方法で再考し、人間の目的を再考する必要があります。私たちの多くは仕事を目的に割り当てています。仕事は私たちが行うことの非常に重要な部分です。家族、友人、コミュニティ、信仰など、私たちが誰であるかを定義するすべてのものがありますが、仕事もその一部です。それは充実感を与え、価値があると感じさせ、社会に貢献していると感じさせます。もし突然それが方程式の一部でなくなったり、以前ほど重要でなくなったりしたら、それは大きな問題です。
AGIについて考えるとき、私が真実だと知っていることは、モデルが急速にスマートになっているということであり、その結果、私たちは次に何が来るかに備えるためにもっと多くのことをすべきだと信じています。もしこのAIタイムラインが方向性さえも真実であれば、たとえ数年ずれていたとしても、方向性が真実であれば、私たちは準備ができていません。
これを準備するとき、元のものに戻って「何が変わったのか」と考え、昨年3月から変わったいくつかのことを強調したいと思います。

多くの主要AI研究者がラボを切り替え、自分たちのAI企業を立ち上げました。これは常に起こっていることで、研究者たちは頻繁に移動しています。それは非常に競争が激しく、研究者たちは自分のラボを去り、自分の会社を立ち上げます。例えばノーム・シャザーは、Googleが彼の会社Character.AIを25億ドルで取得しました。ムスタファ・スレイマンはDeepMindを去り、Inflectionを立ち上げ、Microsoftに取得されてAIを運営しています。メタにいたノーラン・ブラウンはOpenAIでの推論モデルの開発の主要プレイヤーです。彼らは常に移動しています。イーロン・マスクは自分の安全な超知能企業を立ち上げました。これにより、常に景観が変わります。
昨年秋から今年1月にかけて起こったもう一つの大きな要因は、アメリカ合衆国の新政権です。新しい大統領がおり、彼らはこれらのことについて非常に異なる見解を持っています。エネルギー投資は急増し、データセンターやインフラストラクチャーの構築に必要な投資が行われます。規制の大幅な削減、イノベーションを推進し、これらのラボに自由にやらせるという点でより自由市場的です。AI分野での合併・買収が増加すると思われ、すでに起こり始めています。彼らは負けたくないのです。これを中国や他との間のAI優位性をめぐる戦争と見なし、勝利する意図を持っています。彼らは、AGIに最初に到達する主要AIラボ、人々が民主的価値を持つことが重要だと考えています。
そして、その中で、中国のラボがApp Storeでトップにジャンプして何かを作成し、米国ベースのラボの方向性を変えた、または少なくとも米国ラボが行っていたよりも効率的に何かを行ったため、その方向性を加速させたDeepSeekの瞬間がありました。
過去12ヶ月で変わったことは、テスト時コンピュートスケーリング法則、思考法則であり、これは現在どこからでも出てきている推論と思考モデルにつながりました。
自律性のマーケティングは誤解を招き、混乱しているにもかかわらず、AIエージェントへの大きな焦点がありました。
コンピュータ使用がデビューしました。
AGIが近いというAIリーダーたちの口調と自信は、昨年の夏から絶対的に高まりました。

これにより、AGIのタイムラインが前倒しされたと思います。エグゼクティブAIニュースレターでも述べましたが、現在、AIラボが1〜2年以内にAGIを達成したと主張する可能性は50%以上あると思います。彼らが実際に達成したかどうか、私たちがそれに同意するかどうかはわかりませんが、それは起こると思います。
また、AIの進歩を加速させるものと減速させるものについて、そしてあなたがどのように準備できるか、どのようなステップを取れるかについてカバーしたいと思います。
AIの進歩を加速させるもの:

中国のDeepSeekで見られたような継続的なアルゴリズムのブレークスルー
クリーンエネルギーの豊富さ(風力、太陽光、核融合など)
コンピュート効率のブレークスルー
知能のコストが急速に低下
エネルギーのブレークスルー(特に核融合)
大規模な政府の資金提供
ネットワークとデータセキュリティの強化
新しいスケーリング法則
インフラ投資
より多くのコンピュート能力
量子コンピューティングなどの他の科学的ブレークスルー

AIの進歩を減速させるもの:

AIコンピュート供給チェーンの崩壊
AIに起因する壊滅的な出来事
チップの不足
エネルギーの不足
モデルが人間の価値観、意図、目標、利益と一致しない
法律や価値観に違反する人間による誤用
企業での価値創造の欠如
トレーニングデータへのアクセスと既存モデルの合法性に影響を与える画期的なIP訴訟
制限的な法律と規制
社会の反乱
スケーリング法則の予期せぬ崩壊
壊滅的なリスクによるモデル進歩の自発的または非自発的な停止

では、これすべてについてどうすればいいでしょうか?これは多いかもしれません。もしかしたらこれを一旦停止して一日離れて戻ってきたかもしれませんし、3回目を聞いてすべてを処理しようとしているかもしれません。私自身もこれをすべてまとめて、ただ現れて話し始めました。私自身はまだこれの多くを内面化していません。これが多いことは理解しています。
いくつかできることを紹介します:

AIリテラシーは私たちの子供たち、同僚、自分自身、ビジネス、コミュニティのために誰もができる最も重要なことです。人々はこれらを理解する必要があります。テック企業は加速し続け、よりスマートで、より一般的に能力のあるテクノロジーを構築し続け、AGIとその先を追求するでしょう。私たちはそれが私たち、私たちの企業、私たちのキャリアにとって何を意味するのかを理解する必要があります。
1月下旬にAIリテラシープロジェクトを発表しました。ailiteracy.proで詳細を確認できます。これは教育をアクセス可能でパーソナライズされたものにすることで、個人と組織が仕事の未来に備えるのを支援するために設計されています。私たちは意図的に多くの無料リソースを提供しています。毎月無料のイントロクラスをZoomで行い、無料のスケーリングAIクラスを毎月行い、ニュースレター、ブループリントなどすべてが無料です。
組織内でAI評議会を構築してください。AI評議会がまだない場合は手を挙げて一つ始めてください。近い将来のパイロット、スケーリング生成AI、ポリシー、責任あるAI原則、採用だけでなく適応性にも焦点を当ててください。これらのものがよりスマートになり、タイムラインが加速し続けるにつれて、どのように進化するか考えてください。変更管理を考えてください。これは単にツールを導入し、テクノロジーとして考えるだけでなく、人の問題であり、プロセスの問題であり、ビジネス構造の問題です。それには変更管理と計画が必要です。
AI影響評価は自分自身に対して行うことができます。Jobs GPTを使用してください。smarter.aiに行き、ツールをクリックするとJobs GPTがあります。これはあなたの現在の役割を評価するのに役立ちます。職種タイトルを入力するだけで、その仕事がAIにどれだけ露出しているかを評価します。
ビジネスレベルでは、プロジェクトとユースケースを導くAIロードマップの構築を考えてください。常に適応する必要がありますが、テクノロジーの採用、プロセス、ワークフロー、キャンペーンへの統合、あなたの才能、テクノロジー、戦略を見ています。これは重要であり、ロードマップを作りながら他のことも同時に行うことができます。
エピソード140で話したような「AGIホライズンズチーム」の考えを取り入れてください。最もAI先進的な企業、最も革新的な企業、最も準備された企業は、一部の内部専門家や外部アドバイザーを含む小さなチームを結成し、タイムラインが方向的に真実だとしたら、私たちのビジネス、業界、社会、採用方法、人材開発にとって何を意味するのかを考え始めるでしょう。
私たちは緊急対応計画を立て、可能な未来のシナリオを構築し、これらのことについて考え始める必要があるとき来ていると本当に思います。これは10年先のことではなく、もしこれらの人々が正しければ、これが起こり始めるのは1〜2年先です。スイッチを入れるとAGIのすべてが変わるわけではありません。自分のビジネスを考えて、生成AIの統合にどれだけ時間がかかっているか考えてください。2年半経ってもまだChatGPTを何に使うか理解していない企業もあります。AGIが登場して、すべての業界が混乱し、みんなが家に帰るわけではありません。それが到着してからも時間がかかりますが、待っていたくはないでしょう。
AGIホライズンズチームという考えを追求し、AGIに向けた進歩を監視し、潜在的な脅威と機会を評価することをお勧めします。

最後に言いたいのは、一緒にAIのストーリーを探求することです。私はこれがどこに行くのか分かりません。おそらく考える時間と精神的能力をあまりにも多く使って(多すぎるかもしれません)、シナリオを示すことに最善を尽くしているだけです。
私の希望は、これを出して、会話がすべての人をどこに連れて行くかを見ることです。私がやっていることをやろうとしないでください。フルタイムの仕事を持つほとんどの人は、これのすべてを追いかけることはできません。それが毎週火曜日に私たちがあなたを助けることであり、重要なことをあなたに伝えることを願っています。
あなたに言いたいのは、スレッドを選んでください。非常に興味深いと思う部分、非常に好奇心をそそる、または情熱を掻き立てる部分を見つけてください。それはあなたの専門知識、職業に関連しているかもしれません。トピックを1つか2つ選んで、それらに本当に深く入ってください。例えばエネルギーや政府の規制、SEOへの応用など、何であれ、それらのスレッドを選び、その分野の専門家になってください。
最近、Googleクラウドとチームを組んでマーケティングAI産業評議会を形成しました。マーケティング業界にとって次に何が来るかを見ようとしています。これらのモデルが継続的により賢く、より一般的に能力を持つようになるという方向性にある程度の真実を仮定すると、それはマーケティングにとって何を意味するのか?仕事、代理店、ブランド、消費者行動にどのように影響するのか?
自分の業界で同様のことをすることをお勧めします。他の人々と一緒に集まり、協会と一緒に集まり、今後数年を見て、あなたの業界がどのように変わるかを考えようとするAI評議会を形成してください。自分の会社内でこれを行うこともできますが、コミュニティレベル、業界レベルでこれを行おうとしてください。それらの種類の会話が必要だと思うからです。
このシリーズの計画は、私が毎回1時間40分話すのではなく、関連分野やトピックの専門家にインタビューすることです。AIモデルの進歩、サイバーセキュリティ、経済、教育、エネルギーとインフラ、ビジネスの未来、教育の未来、仕事の未来、特に仕事、政府の法律と規制、科学的ブレークスルー、社会的影響、そしてサプライチェーンなどの主要分野に焦点を当てています。
これらすべてから学ぶことがあり、より大きな全体像を理解するのに役立つと思います。他の分野もあるかもしれませんが、数週間のうちに今後のセッションを発表し始めることを願っています。現在、これらの分野の専門家とのインタビューをスケジュールし、追求しています。
いくつかの締めくくりの考えを述べさせてください。AGIの定義は異なるでしょう。それがいつ達成されたかを知る方法は明確ではありませんが、私の主な考えは、そこに到達するかどうかは重要ではないということです。AGIが到着したことに私たちが決して同意しなくても、モデルはよりスマートになり続け、より一般的に能力を持つようになることを私たちは知っています。スケーリング法則を見て、それを見ることができます。そしてそれだけで、次の数年間でAGIに到達するかどうかにかかわらず、ビジネス、経済、社会を完全に変革するでしょう。
AGIの可能性に備えるだけで、私たちがAGIと呼ぶかどうかにかかわらず、よりスマートなモデルに対処するためのより良い立場に立てるでしょう。しかし、私たちがAGIに進むにつれて、ビジネスで考慮し、準備すべきいくつかの避けられない影響があります。
業界に関係なく、すべてのビジネスは、消費者、顧客の行動の変化、同じ仕事をするのに必要な人が少なくなる可能性について考えてください。その結果何をするのか?新しい役割を見つけ、再教育し、スキルアップするのか、または実際に労働力を削減することを選ぶのか?前者を選ぶことを願います。
産業全体でのタスクの自動化は続きます。特にこれらのモデル企業にとって、独自データと配信は差別化要因としてプレミアムがつくでしょう。より多くの商品やサービスを生産する能力が増加し、競争の増加、あなたのビジネスが混乱する可能性、または他のビジネスを混乱させる可能性があります。生産性と効率の向上、創造性とイノベーションの向上(私たちが能力を拡張するためにそれらを使うことを選ぶなら)、収益性の向上、仕事の創出が確実にあります。
小規模ビジネスの復興があり、多くの人を必要とせず、非常に革新的で、最初からAIネイティブを構築できる何百万もの小規模ビジネスを作成できると思います。それが仕事の置き換えを相殺する可能性があります。仕事の置き換えが起こると思いますし、それは異なる業界でさまざまなレベルで起こると思います。まだ何かできることがあると思います。
モデルがよりスマートになるにつれて、重要な質問に対する答えを積極的に追求する必要があります。例えば:次世代モデルはあなた、あなたのチーム、あなたの会社にどのように影響するのか?モデルの進歩はクリエイティブな仕事や創造性にどのように影響するのか?消費者の情報消費と購買行動はどのように変化するのか?消費者の変化は検索、広告、出版などにどのように影響するのか?組織でのAIの責任ある使用をどのように確保するのか?著作権とIP問題はビジネスと生成AIツールの使用にどのように影響するのか?戦略、予算、テクノロジースタック、環境、教育システム、あなたのような組織にどのように影響するのか?仕事はどのように変わるのか?そして、私が非常に興味を持って探索したいもの、時に理解していると思い、他の時には理解していないもの:何が独自に人間的なものとして残るのか?
これらはこのシリーズの一部として探索する予定のいくつかの質問です。私たちにはビジネスモデルを再考し、キャリアパスを再発明し、可能なことを再定義する機会と必要性があります。あなたにはリードする機会があると思います。
私は未来について楽観的であるべきだと深く信じています。AIの使用において責任を持ち、人間中心であることを選択すれば、それは豊かで素晴らしいものになり得ます。AIの目標は人間の可能性を置き換えるのではなく、解き放つことであるべきですが、その結果を追求するためには、積極的かつ意図的である必要があります。まだ時間があると思います。まだそのような結果を得られない終着点にはいないと思います。
私たちには選択肢があると信じています。未来をより知的でより人間的なものにすることを選択できます。このエピソードとこのシリーズの残りの部分が、あなたを準備し、行動を起こすよう鼓舞する役割を果たすことを願っています。
この最初のエピソードとこの旅の一部になってくれてありがとう。そしてあなたの旅の一部になることを許してくれてありがとう。「AGIへの道(そしてその先)」にご参加いただきありがとうございました。人工汎用知能のブレークスルー、課題、可能性を探る中で、会話はまだ始まったばかりです。AIの未来は私たちが想像できるよりも速く展開しています。このシリーズがあなたが情報を得て、準備するのに役立つことを願っています。より多くの洞察、リソース、議論については、smarter.aiを訪問し、人工知能ショーを購読してください。次回まで、好奇心を持ち続け、AIを探求してください。

コメント

タイトルとURLをコピーしました