本動画は、機械学習研究者であるNathan LambertとSebastian RashkaがLex Fridmanのポッドキャストに出演し、AGIへの道のりについて現実的な視点から語った4時間半に及ぶ対談の要点をまとめたものである。彼らは、事前学習・強化学習・推論時間スケーリングという3つの主要なスケーリング則がまだ機能している一方で、明白な成果はほぼ出尽くしており、次のブレークスルーが何かは誰にも分からないと指摘する。AGIに向けた一つの万能システムという夢は衰退しつつあり、代わりに強力だが専門化されたツールの集合が現れつつある。AIモデルの能力は「ジャギー」(でこぼこ)であり、一部のタスクでは超人的だが他では不得意という不均一な進化を続けている。家庭用ヒューマノイドロボットについては、継続学習と安全性の問題から研究者たちは懐疑的であり、実用化には予想以上の時間がかかるとの見解を示している。100年後の未来については、専門化されたロボットの普及、脳コンピュータインターフェースの可能性、そして人間の関与が依然として必要であることが議論された。

AI開発の現状:3つのスケーリング則とその限界
Lex Fridmanが公開した4時間半にも及ぶポッドキャストエピソードについてお話ししたいと思います。彼は機械学習研究者のNathan LambertとSebastian Rashkaという、実際に毎日これらのモデルを構築し、作業している2人と対談しました。正直に言うと、このエピソードの大部分では、私が部分的にしか理解できないほど技術的な詳細に深く踏み込んでいました。しかし全体を視聴した後、本当に際立っていた瞬間がいくつかありました。
派手だったからではなく、驚くほど地に足がついていたからです。この対話は本当に誇大宣伝ではありませんでした。トップAIラボのCEOが「来年AGIに到達する」と言っているようなものではありませんでした。実際にどこまで来ているのかについて、はるかに率直で正直な見方でした。それでは、私が最も興味深いと感じた瞬間と、それがAGIが実際にどれだけ近いかについて何を教えてくれるのかをご紹介します。早速見ていきましょう。
タイムラインやロボット、あるいは数十年後の世界がどうなっているかについて話す前に、このエピソードで彼らが最初に行うのは、現在のAIの実際の状態を明らかにすることです。彼らは、ここ数年で私たちが目にしてきたほぼすべてを推進してきた3つの大きなスケーリング則について話しています。事前学習、強化学習、そして比較的新しい推論時間スケーリングです。聞いてみてください。
今は3つの軸があります。従来のスケーリング則は事前学習について語られていて、これはモデルがどれだけ大きいか、データセットがどれだけ大きいかということです。それから強化学習のスケーリングがあります。これは、この試行錯誤学習をどれだけ長く続けられるかということです。これについてはもっと定義して話します。そして、この推論時間計算というのは、特定の問題に対してモデルがより多くのトークンを生成することを許可するというものです。
私はこれらすべてがまだ本当に機能している点について強気ですが、低い位置にある果実はほとんど取られてしまいました。特にこの1年間で、検証可能な報酬を用いた強化学習、つまりRLVRと、推論時間スケーリングにおいてです。推論時間スケーリングは、これらのモデルの使用感が非常に異なって感じられる理由です。以前は最初のトークンをすぐに取得できましたが、今では答えの最初の単語を出す前に、数秒、数分、あるいは数時間かけてこれらの隠された思考を生成します。
これがすべて推論時間スケーリングに関するもので、モデルの能力変化という点で素晴らしいステップ関数のようなものです。これによってツール使用のようなものが可能になり、私たちが話していたはるかに優れたソフトウェアエンジニアリングが可能になりました。そして、可能になったと言うとき、これはほぼ完全に、検証可能な報酬を用いた強化学習トレーニングがモデルにこれらのスキルを非常に簡単に習得させたという事実の下流にあります。つまり、モデルが学習できるようにしたのです。
推論プロセスを見ると、モデルが多くのトークンを生成しているとき、よくやっているのは、ツールを試して、返ってきたものを見て、別のAPIを試して、返ってきたものを見て、それが問題を解決するかどうかを確認することです。だから、モデルをトレーニングすると、モデルは非常に迅速にこれを行うことを学習します。そして最終的に、それがこの種の一般的な基盤を与え、モデルがリポジトリ内でCLIコマンドを非常にうまく使用し、gitを処理し、物事を移動して整理したり、より多くの情報を見つけるために検索したりできるようになります。
もし1年前にこの椅子に座っていたら、モデルがこれをやっているとは本当に思っていなかったようなことです。これは今年起こったことで、AIの使用方法についての考え方を完全に変えました。私はこれは非常に魔法のようだと思います。これは本当に興味深い進化で、非常に多くの価値をアンロックしますが、このようなものをアンロックする次の道が何になるかは明確ではありません。
継続学習については後で触れますが、AIの特定の分野で多くの話題がありますが、次のステップ関数が本当にいつ来るかは誰にも分かりません。
この部分は本当に際立っていました。なぜなら、結論はスケーリングが死んだということではないからです。明白な勝利のほとんどはすでに消えてしまったということです。事前学習はまだ機能しています。強化学習もまだ機能しています。推論時間スケーリングも機能しています。そしてこれらはすべて連携して機能しています。しかし、欠けているのは次のステップ関数です。突然軌道を変えるもの、新しいパラダイムです。そして不快な真実は、その次のものが何であるか誰も知らないということです。しかし、確実に言えることは、誰もがそれを見つけ出そうと全力で取り組んでいるということです。
シリコンバレーの労働文化と競争の激しさ
スタートアップでは、それはプレッシャーだと思います。やり遂げなければならないという感じです。人々が時間をかけることは本当に重要ですが、それは本当に難しいです。なぜなら、常に成果を出し続けなければならないからです。私はスタートアップにいたことがあって、良い時間を過ごしましたが、永遠にできるかどうかは分かりません。興味深いペースです。そして、冒頭で話したように、これらのモデルは互いに飛び越えあっていて、競合他社と比較して次のステップを踏もうと常に試みています。本当に容赦ないです。今は。
この飛び越え合う性質と複数のプレーヤーがいることは、実は言語モデリングプロセスの過小評価されている推進力だと思います。競争は人々に非常に深く根付いていて、これらの企業は意図的に非常に強い文化を作り出しています。Anthropicは文化的に非常に献身的で組織化されていることで知られています。つまり、私たちは彼らからほとんど何も聞かないし、Anthropicの全員が非常に一致団結しているように見えます。超タイトな文化の中にいて、この競争的なダイナミクスがあるというのは、一生懸命働いて、より良いものを作り出すものについて話しているようなものです。
しかし、それは人的資本の犠牲の上に成り立っています。これは長く続けられるものではなく、人々は確実に燃え尽きています。私自身、これについて投稿を書きました。燃え尽き症候群について、私自身も特にマネージャーとしてモデルトレーニングをしようとしながら、これを行ったり来たりしています。これは狂った仕事です。
Patrick McGeeによる『Apple in China』という本では、Apple のエンジニアたちが中国でサプライチェーンを構築するためにどれだけ懸命に働いたかについて語られていました。彼らには結婚を救うプログラムがあったと彼は言いました。そして彼はポッドキャストで、このレベルの懸命な働きで人々が亡くなったと言いました。だから、これは人間の犠牲に基づいて進歩を生み出すための完璧な環境だと思います。人間の犠牲は大量にあるでしょう。
人間の犠牲というのは、私たちがこれで始めた996です。人々は本当に必死に働いています。
シリコンバレーの文化、特にこのAIブームの間の文化について、いくつかの洞察がありました。彼らは996労働週間を採用していて、文字通り最先端を進めようとして自分たちを殺しています。しかし、もし全員がこれほど懸命に働いているなら、なぜ私たちはまだそこに到達していないのでしょうか。
AI能力の「ジャギー」な性質と超人的コーダーの実現可能性
私が属する陣営は、AIはいわゆるジャギー(でこぼこ)だというものです。あるものには優れていて、あるものには本当に悪いということです。自動化されたソフトウェアエンジニアに近づいているとき、モデルが優れているのは、従来のMLシステムとフロントエンドで、モデルは優れていますが、分散MLではモデルは実際にはかなり悪いです。なぜなら、大規模な分散学習を行うことに関するトレーニングデータが非常に少ないからです。これは私たちがすでに見ているもので、これは単に増幅されるだけだと思います。そして、これらのトレードオフではより混乱しています。AI研究がどのように機能するかなどがあります。
つまり、基本的に超人的なコーダーはほぼ達成不可能だと考えているということですか。つまり、ジャギーな性質のために、能力にギャップが常にあるということですか。完全性を何かに割り当てることだと思いますが、モデルは一部のタイプのコードで超人的であり、それは続くと思います。人々は創造的なので、この信じられない能力を利用して、モデルの弱点を埋めて非常に速く動き、それは常にこの種のダンスのようなものになるでしょう。
人間がモデルができないことを可能にしていて、最高のAI研究者は、この超能力を可能にすることができる人たちです。そして、これは私たちがすでに見ているものと一致していると思います。ウェブサイトを構築するためのClaude Codeのようなものを考えてみてください。数時間で美しいウェブサイトを立ち上げたり、データ分析を行ったりできます。
そして、これらのことでどんどん良くなり続けるとは思いませんが、途中でいくつかの新しいコードスキルなどを習得するでしょう。そして、ビッグテックで起こっていることとリンクしているのは、このAI 2027レポートのようなもので、これはシンギュラリティのアイデアに傾倒しています。一方、研究は混沌としていて社会的で、AIモデルが処理できない方法でデータに大きく依存していると私は思います。
しかし、今日私たちが持っているものは本当に強力で、これらのテクノロジー企業はすべて、数百億ドルの投資でこれに集団的に賛同しています。だから、私たちは今よりもはるかに明るいバージョンのChatGPTを手に入れることになります。すでに持っているClaude Codeのはるかに良いバージョンを。
それがどこに向かっているのかを予測するのは難しいと思います。しかし、その未来の明るい明瞭さこそが、世界で最も強力な人々の一部がこれほど多くのお金を投入している理由です。そして、私たちは実際により良いバージョンのChatGPTが何であるかを知らないが、AI研究を自動化できるかというような小さな違いだと思います。少なくともこの時間枠では、おそらくそうではないと言えるでしょう。ビッグテックがAI研究のシンギュラリティを可能にする自動化されたAI研究者を手に入れるよりもはるかに速く、1000億ドルを費やすつもりです。
それであなたの予測は何だと思いますか。これが有用なマイルストーンだとしても、私たちは10年以上先にいるということですか。ソフトウェア側ではそれよりも短いと思いますが、研究のようなものではそれよりも長いと思います。
ここで彼らは率直に正直になり始めます。これらのシステムは確かに良くなりますが、不均一でジャギーな方法で良くなります。つまり、ある日目覚めたら、単一のクリーンで完全に汎用的なAIシステムがあるということにはならないのです。そして、それは彼らが次に取り組む質問に直接つながります。私たちはプラトーに到達しようとしているのでしょうか。見てみましょう。
AIの進歩は停滞するのか:汎用システムという夢の終焉
可能性があるかどうか、そして確実に可能であると言うべきですが、どれくらいありそうかというのが問題です。基本的に今年プラトーに達しようとしているのか。システムの能力という点ではなく、システムの能力が人間の文明にとって実際に何を意味するかという点でです。
コーディング面では、本当に素敵なウェブサイトが構築されるでしょう。非常に良いオートコンプリート、コードベースを理解してデバッグを助けるかもしれない非常に良い方法、でも本当にコーディング面での非常に良いヘルパーです。研究数学者が数学をするのを助けることができます。買い物を助けることができます。助けることができます。それは良いヘルパーです。ステロイドを使ったクリッピーです。他に何があるでしょうか。良い教育ツールになるかもしれませんし、そういったすべてのことですが、コンピュータ使用は解決するのが非常に難しいことが判明しています。
だから、私は試みています。すべてのこれらの領域で冷笑的なケースをフレーム化しようとしています。本当に大きな経済的影響がない領域です。これらのシステムをあらゆるレベルでトレーニングするのにどれだけコストがかかるかが分かります。事前トレーニングと推論の両方で、推論がどれだけコストがかかるか、推論、これらすべてです。それは可能でしょうか、そしてそれはどれくらいありそうだと思いますか。
モデルを見ると、改善すべき明白なことがたくさんあり、これらのモデルをトレーニングしてこの技術を行うには長い時間がかかります。私たちが持っているアイデアで、探しているベンチマークやパフォーマンスが何であれ、実際に飽和させるには複数年かかるでしょう。それは非常に狭いニッチに役立つかもしれません。平均的なChatGPTの8億人のユーザーはこれから多くの利益を得られないかもしれませんが、異なることでより良くなることで、異なる集団に役立つでしょう。
まあ、今皆が追いかけているのは、皆に役立つ汎用システムです。だから、それがプラトーになる可能性があるということですよね。
その夢は実際に死にかけていると思います。あなたが専門化されたモデルについて話したように、マルチモーダルはしばしばビデオ生成のような全く異なるものです。
その夢が死にかけているというのは大きな声明です。なぜなら、死んでいるかどうか分からないからです。実際のフロンティアラボの人々に聞いたら、まだそれを追いかけていますよね。
彼らはまだ次のモデルを出そうと急いでいると思います。それは前のものよりもずっと良くなるでしょう。前のものは相対的な用語ですが、前のものよりも良くなるでしょう。そして、彼らが遅くなるとは思えません。ただ、利益がモデルをスケーリングするだけでなく、より多くのものを通じて作られたり感じられたりすると思います。
だから、多くのテクノロジーがより良いモデルをそこに置くだけという感じで、より良いモデル、より良いモデルという感じです。そして今、人々はより良いモデルと同時に、その周りのすべてを改善しようとしています。コンテキストや推論スケーリングのエンジニアリングなどです。大きなラボはまだそれを続けるでしょうし、今では小さなラボもそれに追いつくでしょう。なぜなら、今では彼らはより多くの人を雇っていて、LLMに取り組む人が増えるからです。
それは円のようなもので、それらもより生産的にして、増幅されます。増幅されるのが予想できることだと思いますが、パラダイムシフトのような変化ではないと思います。それが真実だとは思いませんが、すべてが増幅され、増幅され、増幅されるだけです。そしてそれが長い間続くのが見えます。
彼らが基本的に言っているのは、プラトーに達していないということです。進歩はまだ起こっています。スケーリング則はまだ非常によく機能していますが、それは人々が慣れているAGIの物語よりもはるかに混沌としていて、はるかにスムーズではない方法で起こっているということです。突然人間よりもすべてをうまくやる単一の万能システムの代わりに、私たちが実際に手に入れているのは、少なくとも予見可能な将来の間、人間が最大限に活用するために必要とする、非常に強力で非常に専門化されたツールの成長するコレクションです。
プロアクティブなAIアシスタントと社会的影響
さて、未来について言えば、これらの次のクリップはすべて次に何が来るかについてです。あなたにプロンプトを出すモデルから始めます。これをチェックしてください。
すべてのAIインターフェースは、人間に入力を求めるように設定されています。Claude Codeについてたくさん話しましたが、これは質問へのフィードバックを求めます。計画や希望について十分な仕様がない場合、質問をし始めます。あなたはどちらが好きですか。メモリについて話しましたが、これはチャット間で保存されます。最初の実装はちょっと奇妙で、チャットで私の犬の名前を言ったりします。私は、これについて微妙になる必要はないと思います。気にしません。
でも、現れているものは、ChatGPTにはパルス機能があります。これは、見たり話したりする何かへのリンクを含む、キュレーションされた数段落のようなものです。そして人々は、言語モデルがあなたに質問をする方法について話しています。これは非常に、おそらくうまくいくと思います。言語モデルは、あなたが医者の予約があったことを知っているようなものです。ねえ、その後どう感じていますか、というような感じです。
再び人間がこれに非常に影響を受けやすい領域に入り、多くの社会的変化が来ます。でも、彼らはモデルに関与させる実験をしています。パルス機能を本当に好きな人もいて、これはチャットを処理し、自動的に情報を検索して、ChatGPTアプリに入れます。だから、多くのことが来ています。
私は以前その機能を使ったことがありますが、いつも申し訳なく感じます。なぜなら、毎日それをやっているのに、私はほとんどチェックしていないからです。私が見てもいないものにどれだけのお金が、つまりコンピュートが燃やされているのか。
世界には多くのアイドルコンピュートもあるので、あまり悪く感じないでください。
研究者の一人であるNathanは、実際にこれが人間にとって非常に危険である可能性があることを認めています。つまり、あなたの人生を理解し、あなたのことを覚えていて、あなたを助けようとするプロアクティブなAIアシスタントを持つというアイデアは、理論的には素晴らしいように聞こえますが、再び、ソーシャルメディアで何が起こったかを見てください。
私たちをつなぎ、情報を提供し、おそらく私たちの生活を改善することになっていたものが、すぐに私たちの習慣、感情、脆弱性を最悪の方法で捕食するものになりました。だから、インセンティブが何であるかに本当に依存することになるでしょう。あなたの個人的なAIアシスタントは本当にあなたに奉仕しているのでしょうか、それともそれを作成した会社に奉仕しているのでしょうか。これが現実になるにつれて、考えるべきことです。
ロボット工学における課題:継続学習と安全性
さて、その懸念は、AIが実際に画面を離れて物理世界に入ると、さらに増幅されるだけです。なぜなら、ソフトウェアでのミスは一つのことですが、エンボディードAIについて話しているとき、それはまったく別の話だからです。実際の家で実際の人々と一緒に実際のロボットが動き回っているとき、失敗への許容度は基本的にゼロに落ちます。
だからこそ、ヒューマノイドロボットに関するすべての誇大宣伝にもかかわらず、このエピソードの研究者たちは実際に家庭でのAIロボットのアイデアに非常に弱気です。ハードウェアが印象的でないからではなく、解決するのがはるかに難しい何か、継続学習と安全性のためです。これをチェックしてください。
それは本質的に継続学習の問題にも関連しています。LLMでは、文法を修正したり、コードを書いたりするなど、誰もがやらなければならないことがたくさんあるので、ユーザーのために何かを学習する必要はありません。それはより制約されています。だから、モデルをそのために準備できます。しかし、現実世界のためにロボットを準備するのはより困難です。
つまり、ロボット基盤モデルという基盤モデルはありますが、物をつかむことのような特定のことを学習できます。でも、再び、すべての人の家が異なると思います。本当に異なります。そして、それがロボットが現場で学習しなければならない場所だと思います。そして、それが今のボトルネックだと思います。その場でカスタマイズする方法です。
ロボット工学の人々やほとんど誰も話していないことの重要性を過小評価することはできないと思います。それは安全性です。学習について話しているすべての興味深い複雑さ、すべての失敗モード、LLMについて話してきたすべてのこと、時々興味深い方法で失敗することもあります。そのすべてはLLM空間では楽しいゲームです。
ロボット空間では、何百万分、何十億もの相互作用にわたって人々の家で、本当にほとんど失敗することは許されません。現実世界に配置されたエンボディードシステムを持つとき、LLM空間だけで考えているときには考えもしなかった非常に多くの問題を解決しなければなりません。
私は家庭内での学習されたロボットの消費者購入については非常に弱気です。自動運転車については非常に強気ですし、ロボットによる自動化についても非常に強気です。例えば、Amazonがロボットファーストで設計した全く新しい配送センターを構築したような場合です。AIが自動化と大規模製造を可能にすることについてAI界隈で多くの興奮があります。
そして、ロボットがそれを行う道はより合理的だと思います。人間が想定できるが望まない反復的なタスクを行うように設計され最適化されたものです。それから、私ははるかにはるかに、でもそれはおそらく人々が予測するよりもはるかに長くかかるでしょう。
AIシンギュラリティから、大規模なAIの優位性があるため米国で大規模製造を拡大できるというこの飛躍は、多くの政治的およびその他の困難な問題によって悩まされているものです。
正直に言うと、聞くのはつらいものがありました。特に私にとっては。皆さんご存知のように、私はヒューマノイドロボットの大ファンです。つまり、どうして好きにならないことがあるでしょうか。それは文字通り、私たちを豊かな未来に連れて行くことができる唯一のものです。
しかし、研究者たちがこれほど慎重である理由も理解しています。AIが物理世界に移動すると、ルールは完全に変わり、ミスは容赦ありません。そして、私たちはすでに自動運転車でこれを見てきました。自律システムが統計的に全体的により安全であっても、何かがうまくいかなくなった瞬間、公共の信頼は崩壊します。
人々はこれらのシステムを平均で評価するのではありません。外れ値で評価します。だから一部の人々が飛行機に乗るのを恐れるのもそのためです。だから、研究の観点からすると、今家庭内のヒューマノイドロボットに弱気であることは理にかなっていると思います。それが最終的に起こらないからではなく、エラーへの許容度が基本的にゼロで、現実世界は無限に混乱しているからです。
彼らは基本的に、これが大規模に可能になる前に、継続学習、つまりその場での学習を解決しなければならないと言っています。正直に言うと、これは私のタイムラインを少し長くしました、嘘をつきません。
100年後の未来:ロボット、脳コンピュータインターフェース、人間のエージェンシー
さて、最後に、この最後のクリップでは、Lexは彼らにすべてをズームアウトして、次の100年について考えるように頼みました。はい、次の100年です。私は彼らがこの質問に一般的に答えようとするとは期待していませんでしたが、実際に答えました。これをチェックしてください。
今から100年後に私たちが旅をしたとして、今すぐそこに移動したら、何が違うと思いますか。世界はどう違って見えると思いますか。まず第一に、人間がいると思いますか。ロボットがいたるところを歩き回っていると思いますか。
特定のタスクのための専門化されたロボットは確実にいると思います。
ヒューマノイドの形ですか。
半分ヒューマノイドかもしれません。様子を見ましょう。特定のものについては、はい、環境に適しているので、ヒューマノイドロボットがいるでしょうが、特定のタスクについては、意味があるかもしれません。想像するのが難しいのは、デバイスとどう相互作用するか、人間がデバイスで何をするかです。
つまり、携帯電話ではないでしょう。ラップトップでもないでしょう。インプラントになるのでしょうか。
つまり、脳コンピュータインターフェースでなければならないと思います。100年後には、今見ている進歩を考えると、そうでなければならないと思います。
一方で、現実とどう相互作用するかが完全に変わらない限り。他方で、車について考えると、車は100年以上前のものですよね。そしてそれはまだ同じインターフェースです。私たちは車を何か他のものに置き換えていません。ただ車を良くしただけで、それはまだステアリングホイールです。それはまだ車輪です。
私たちはまだ物理的なコンピュートのブロックを持ち歩くと思います。なぜなら、人々はプライベートのようなものを持つ能力を望んでいるからです。携帯電話ほど関わらないかもしれませんが、あなたのものであるプライベート情報を持つことができる何か、残りのインターネットとのインターフェースとして、それはまだ存在すると思います。iPhoneのようには見えないかもしれませんし、はるかに使われないかもしれませんが、人々がものを持ち歩くことを私はまだ期待しています。
なぜスマートフォンがプライベートの体現だと思うのですか。カメラが付いています。
あなたのためのプライベート、暗号化されたメッセージ、暗号化された写真、あなたの人生が何であるか。つまり、脳マシンインターフェースについてどれだけ楽観的かという質問だと思います。あなたのカレンダー全体がクラウドに保存されるのでしょうか。
脳マシンインターフェースを通じてカレンダーのようなものを提示する、視覚的に処理できるすべての情報を処理することについて考えるのは難しいです。
見ることなく知るということについて考えるのは難しいです。あなたのメールの受信箱を。
コンピュータに信号を送って、あなたのメールの受信箱を知るような。それはどのような感じでしょうか。それは人間の脳が非視覚的に注入されて扱えるものでしょうか。それらの変換がどのように起こるか正確には分かりません。なぜなら、人間は100年では変わらないからです。
エージェンシーとコミュニティは人々が実際に望んでいるものだと思います。
地域コミュニティ。
だから、あなたが近くにいる人々と一緒に物事ができること、あなたの人生に意味を帰属させたり記述したりできること、物事ができることです。100年でないとしても、人間の生物学がそれらから離れて変化しているとは思いません。私たちが議論できる時間スケールでは。そして、UBIはエージェンシーを解決しないと思います。
大規模な富を期待していますし、それが広がって平均的な生活が100年で非常に異なって見えることを望んでいますが、それはまだ100年で起こることがたくさんあります。開発プロセスの初期段階にある国について考えると、コンピューティングとインターネットへのアクセスを得るために、すべてのインフラストラクチャを構築し、ある国の富を別の国と共有する政策を持つことは、それはそれは、100年でそれがすべて起こっているのを見るのは楽観的な見方だと思います。彼らがまだ独立した実体であり、単に力によって何らかの国際秩序に吸収されるだけでない間に。
だから、スケーリングはまだ機能しています。モデルはより良くなっています。ツールは狂気じみて強力になっています。しかし、何でもすべてができる単一の超強力なAIシステムというこのアイデアは、おそらく現実的ではありません。それは、特定のタスクのために連携するかもしれないし、しないかもしれない多くの超知的な専門化されたシステムのようなものになるでしょう。
そして最終的に、人間は常にループの中にいるでしょう。BCIの領域に入り始めたとしてもです。さて、私は必ずしもこのすべてに同意するとは言っていませんが、これは確かに私たちが通常見慣れているものよりも地に足がついたインタビューでした。それで、皆さんがどう思うか教えてください。深い塹壕にいる実際の研究者から聞くことは、リフレッシュのように感じましたか。AIの現状についてのあなたの見方を変えましたか。タイムラインを変えましたか。コメントで教えてください。
また、視聴していただきありがとうございます。皆さんがこの要約を役に立つと感じてくれたことを願っています。もしそうなら、ぜひいいねを押して、このような動画のためにチャンネル登録してください。いつものように、次の動画でお会いしましょう。


コメント