本動画は、神経科学者Adam Marblestoneが脳と人工知能の根本的な違いについて語るインタビューである。人間の脳は現代のLLMよりも遥かに少ないデータで学習できるが、その秘密は何か。Marblestoneは、AIの分野が見落としてきた重要な要素として、進化が脳に組み込んだ複雑な報酬関数と損失関数の役割を指摘する。進化は単純な「次のトークンを予測する」といった汎用的な学習目標ではなく、発達段階ごとに異なる脳領域に対して極めて具体的な学習カリキュラムを用意した可能性がある。さらに、皮質が持つ「全方向推論」能力、つまりあらゆる変数の組み合わせから他の変数を予測できる柔軟性が、人間の汎化能力の鍵となっている。Steve Byrnesの理論を引用しながら、Marblestoneは脳を「学習サブシステム」と「操舵サブシステム」に分け、進化がいかにして高度な欲求や意図を本能的な反応と結びつけるかを説明する。この議論は、現代のAIが見落としている可能性のある重要な設計原理を浮き彫りにし、真の汎用人工知能実現への新たな視点を提供する。

- 脳はどうやってそれを実現しているのか
- 現代AIの枠組みで考える脳の学習
- 皮質の六層構造と全方向推論
- 進化が高次の欲求をエンコードする方法
- 学習サブシステムと操舵サブシステム
- 償却推論について
- ヒト科の脳の急速な進化
- 強化学習と報酬関数
- 生物学的ハードウェアとコンピューティングハードウェア
- 脳における細胞レベルの変化とアルゴリズム
- 知能における注意と学習の方向性
- 脳のアルゴリズムを理解するための概念的語彙
- コネクトームと脳の理解
- 研究のタイムラインと実用性
- コネクトームの定義とアプローチ
- ヒトゲノムプロジェクトからの教訓
- 行動クローニングと脳データの活用
- Leanと形式数学証明の自動化
- 意識と経験についての疑問
- 継続的学習とメモリ
- パラメータと活性化の区別
- 研究への投資
脳はどうやってそれを実現しているのか
私がずっと抱えている大きな100万ドルの疑問、そしてAI研究者たちとのインタビューを通じて答えを得ようとしてきた問いがあります。それは、脳はどうやってそれを実現しているのか、ということです。
私たちはLLMに遥かに大量のデータを投入していますが、それでも人間が持つ能力全体のほんの一部しか実現できていません。一体何が起きているのでしょうか。
これは1000兆ドルの問題、あるいはそれくらいの価値がある問いかもしれません。科学において最も重要な問いだという主張もできるでしょう。私自身、答えを知っているとは言いません。また、多くの優秀な人々がどれだけ考えても、必ずしも答えが出るとも思っていません。
私の全体的なメタレベルの見解としては、神経科学の分野自体をエンパワーする必要があるということです。つまり、神経科学を技術的にもその他の面でも、より強力な分野にして、実際にこのような問いを解き明かせるようにする必要があるのです。
現代AIの枠組みで考える脳の学習
おそらく現代のAI、ニューラルネット、ディープラーニングという枠組みでこれを考えると、いくつかの重要な構成要素があります。まずアーキテクチャがあります。そして、何層持つかといったハイパーパラメータや、そのアーキテクチャの特性があります。
学習アルゴリズム自体もあります。どうやって訓練するのか。バックプロパゲーションなのか、勾配降下法なのか、それとも別の何かなのか。どのように初期化されるのか。システムの学習部分を取り上げると、それでも重みの初期化が必要かもしれません。
そしてコスト関数もあります。システムは何を行うように訓練されているのか。報酬信号とは何か。損失関数や教師信号とは何か。
この枠組みの中での私個人の直感としては、この分野が見落としてきたのは、これらの非常に特定的な損失関数、非常に特定的なコスト関数の役割だということです。
機械学習は数学的にシンプルな損失関数を好む傾向があります。次のトークンを予測する、交差エントロピー、こういったシンプルなコンピュータサイエンティストの損失関数です。
私が思うに、進化は実際には損失関数に多くの複雑性を組み込んだ可能性があります。発達の異なる段階で異なる領域に対してオンになる、多くの異なる損失関数です。基本的には多くのPythonコード、つまり脳の異なる部分が学習する必要があることに対する特定のカリキュラムを生成しているのです。
進化は何が成功して何が失敗したかを何度も見てきたので、進化は学習カリキュラムの知識をエンコードできたのです。
機械学習の枠組みで言えば、おそらく後で戻ってこれについて話すこともできますが、脳の損失関数はどこから来るのでしょうか。異なる損失関数は学習効率の違いにつながるのでしょうか。
人々は皮質には普遍的な人間の学習アルゴリズム、人間が持つ特別なソースがあると言います。それは一体何なのでしょうか。これは巨大な問いで、私たちは答えを知りません。
皮質の六層構造と全方向推論
皮質には、このような六層構造があるモデルを見たことがあります。層というのは、ニューラルネットの層とは少し違う意味での層です。
皮質のどの場所でも、シートの層を進むにつれて六つの物理的な組織層があります。そしてこれらの領域が互いに接続し合い、それがよりネットワークの層に近いものになります。
私が見たバージョンの一つは、単純にバックプロパゲーションをどう近似するかを説明しようとするものでした。そのためのコスト関数は何なのか。
もしバックプロパゲーションのようなものだと言おうとするなら、ネットワークは何をするように求められているのでしょうか。次のトークン予測にバックプロパゲーションをしているのか、それとも画像分類にバックプロパゲーションをしているのか、あるいは何をしているのか。誰も知りません。
しかし一つの考え方、一つの可能性としては、これは信じられないほど汎用的な予測エンジンだということです。
つまり、皮質のどの領域も、単に予測しようとしているのです。基本的には、見ている変数のあらゆる部分集合を、他のあらゆる部分集合から予測することを学習できるか、ということです。全方向推論、あるいは全方向予測です。
一方、LLMはコンテキストウィンドウ内のすべてを見て、非常に特定の条件付き確率を計算します。つまり、過去数千の事柄すべてが与えられたとき、次のトークンの確率は何かということです。
しかし大規模言語モデルにとって、「the quick brown fox 空白 空白 the lazy dog」と言って、前方向だけでなく中間を埋めるというのは奇妙なことでしょう。もちろん、コンテキストウィンドウやすべてのこの創発的なレベルでそういったことをする方法を学習できますが、ネイティブには次のトークンを予測しているだけです。
もし皮質がネイティブに、どの皮質領域も、入力のあらゆる部分集合のパターンを、他の欠けている部分集合が与えられたときに予測できるように作られているとしたらどうでしょうか。
これは「確率的AI」に少し近いものです。ちなみに、私が言っていることの多くは、Yann LeCunが言うことと非常に似ています。彼はエネルギーベースモデルにとても興味を持っていて、そのようなものはすべての変数の同時分布のようなものです。
変数のあらゆる組み合わせの尤度や非尤度とは何か。いくつかの変数を固定して、確実にこれらの変数はこれらの状態にあると言った場合、例えば確率的サンプリングで計算できます。これらが固定されている条件下で、そしてこれらはモデル内の変数の任意の部分集合である可能性がありますが、他のあらゆる部分集合が何をするかを予測し、この部分集合を固定した条件下で他の部分集合からサンプリングできるでしょうか。
そして全く異なる部分集合を選んで、その部分集合からサンプリングすることもできます。つまり全方向推論です。皮質の一部には、視覚から聴覚を予測する連合野があるかもしれません。
脳のより生得的な部分が何をしようとしているかを予測する領域があるかもしれません。なぜなら、覚えておいてください、この全体は爬虫類の脳と爬虫類の体の上に乗っているようなものだからです。
そしてそれも予測する価値のあるものなのです。あなたはただこれを見るかあれを見るかを予測しているだけではありません。この筋肉が緊張しようとしているのか。笑うという反射を起こそうとしているのか。
心拍数が上がろうとしているのか。この本能的な行動を活性化させようとしているのか。
より高次の理解に基づいて。例えば、誰かが背中にクモがいると言ったことを、文字通り目の前にクモを見ていたら活性化するであろう爬虫類の部分とマッチングさせることができます。
二つを関連付けることを学習するので、誰かから「背中にクモがいるよ」と聞くだけでも。さて、これに戻りましょう。
進化が高次の欲求をエンコードする方法
これは部分的にSteve Byrnesの理論と関係があります。最近私が夢中になっているものです。
あなたのポッドキャストでIlyaが「進化が高次の欲求や意図をどのようにエンコードするかについて、良い理論を知らない」と言っていました。これは脳が使うであろう損失関数やコスト関数についてのこれらすべての疑問と深く結びついていると思います。
そしてこれは本当に深遠な問いですよね。例えば、私があなたのポッドキャストで間違ったことを言って恥ずかしい思いをするとしましょう。なぜなら、Yann LeCunが聞いていて、「それは私の理論じゃない。エネルギーベースモデルの説明が本当に下手だ」と言うことを想像しているからです。
それは私の中で生得的な恥ずかしさと羞恥心を活性化させ、隠れたくなるなど、そういった反応を引き起こすでしょう。これらの生得的な反射を活性化させるのです。
これは重要です。なぜなら、そうでなければYann LeCunの襲撃軍団に殺されるかもしれないからです。フランスのAI研究者たちがあなたを襲いに来るんですよ、Adam。
だから本能的な反応を持つことが重要なのです。
しかし当然ながら、進化はYann LeCunを見たことも、エネルギーベースモデルについて知っていたことも、重要な科学者やポッドキャストが何であるかを知っていたこともありません。
何らかの形で、脳は部族の本当に重要な人々を怒らせないという欲求を、非常に堅牢な方法でエンコードしなければなりません。脳の学習サブシステム、つまり皮質やその他の部分を学習する部分が、事前に学習するであろうすべてのことを知ることなく。
皮質はこの世界モデルを学習しようとしています。それにはYann LeCunやポッドキャストのようなものも含まれます。
そして進化は、それらのニューロン、つまりYann-LeCunが私に怒っているというニューロンが何であれ、それらが羞恥心の反応やこの報酬関数の一部に適切に配線されるようにしなければなりません。
そしてこれは重要ですよね。なぜなら、もし部族で地位を求めたり、あなたが言ったように知識のある人々から学んだり、友人とは知識やスキルを交換するが敵とはしない、といったことができるようになるためには、これらすべてを学習しなければならないからです。
学習された世界の特徴、世界モデルの学習された部分を、これらの生得的な報酬関数に堅牢に配線し、それを使ってさらに学習する必要があります。
なぜなら次回、もしYann Lecunが私が間違っていたとメールしてきたら、彼を怒らせようとはしないからです。
それに基づいてさらなる学習を行うことになります。
学習サブシステムと操舵サブシステム
報酬関数を構築する際、学習された情報を使わなければなりません。しかし進化はYann LeCunについて知らなかったのに、どうやってそれができるのでしょうか。
Steve Byrnesが提案している基本的なアイデアは、皮質の一部や扁桃体のような学習する他の領域が行っていることは、操舵サブシステムをモデル化しているということです。
操舵サブシステムとは、これらのより生得的にプログラムされた反応と、存在する一連の報酬関数、コスト関数、ブートストラッピング関数の生得的プログラミングを持つ部分です。
例えば扁桃体の一部には、それらの部分が何をするかを監視し、それらの部分が何をするかを予測できる部分があります。
社会的地位にとって重要なニューロンをどうやって見つけるのか。
まあ、例えば社会的地位の生得的なヒューリスティクスを持っているか、操舵サブシステムが使える友好性の生得的なヒューリスティクスを持っています。
そして操舵サブシステムは実際に独自の感覚システムを持っていて、これはクレイジーなことです。
私たちは視覚を皮質が行うものだと考えています。
しかし操舵サブシステム、つまり上丘と呼ばれる皮質下の視覚システムもあって、例えば顔や脅威を検出する生得的な能力を持っています。
つまり生得的ヒューリスティクスを持つ視覚システムがあり、操舵サブシステムは独自の反応を持っています。
扁桃体や皮質の一部が、それらの反応を予測することを学習します。
社会的地位や友情にとって皮質のどのニューロンが重要なのか。
それらは友情のための生得的ヒューリスティクスを予測するものです。
皮質に予測器を訓練し、「どのニューロンが予測器の一部か」と尋ねます。
それらが、実際に配線することに成功したものなのです。
これは魅力的ですね。私はまだ理解できていない気がします。皮質がこの原始的な脳の部分がどう反応するかを学習する方法は理解できます。明らかに脳には「これは文字通りクモの写真で、これは悪い、怖がれ」というラベルがついています。
皮質はこれが悪いことを学習します。なぜなら生得的な部分がそう教えるからです。
しかしそれを一般化しなければなりません。「さて、クモが背中にいる。そして誰かが背中にクモがいると言っている。それも悪い」と。
はい。しかしそれについての教師信号は得ていません。だからどうやって。
それは学習サブシステムが汎化できる強力な学習アルゴリズムだからです。
操舵サブシステム、これらは生得的な反応です。
操舵サブシステムには組み込みのものがいくつかあります。これらの低次脳領域、視床下部、脳幹などです。繰り返しますが、それらは独自の原始的な感覚システムを持っています。だから生得的な反応があるかもしれません。
もし私の体に向かって速く動いているものが見えて、以前は見えなかったもので、小さくて暗くて高コントラストのものなら、それは私の体にスカッと走る昆虫かもしれません。私はひるむでしょう。こういった生得的な反応があります。
視床下部に、私がひるんでいる、あるいは今ひるんだというニューロンの集団があるとしましょう。
あなたがひるむとき、まず第一に、それは報酬関数への負の寄与です。
おそらくそれは起こってほしくなかったことです。
しかしそれは汎化が全くない報酬関数です。
私はそのクモがスカッと走ってくる状況そのものを避けようとします。
おそらくクモがスカッと走ることにつながる行動をいくつか避けようとするでしょう。
それはSteveが報酬関数の下流と呼ぶ汎化です。
クモが私に向かってスカッと走っていた状況を避けようとしますが、他のこともします。
扁桃体の一部があって、「さて、数ミリ秒、数百ミリ秒か数秒前に、そのひるむ反応を予測できただろうか」と言っています。
本質的には「私はひるもうとしているのか」の分類器であるニューロンの集団があることになります。
そして進化が世話をする必要があるすべての重要な操舵サブシステム変数に対して、そのような分類器を持つことになります。私はひるもうとしているのか。友人と話しているのか。今笑うべきか。その友人は地位が高いのか。視床下部や脳幹が含む変数が何であれ。塩を味わおうとしているのか。
それらすべての変数を持ち、それぞれに対して予測器を持つことになります。その予測器を訓練します。
訓練する予測器には、ある程度の汎化があり得ます。
汎化を持ち得る理由は、全く異なる入力を持っているからです。
その入力データは「クモ」という単語のようなものかもしれませんが、「クモ」という単語は、あなたの世界モデルで「クモ」という単語を活性化させるあらゆる種類の状況で活性化できます。
本当に複雑な特徴を持つ複雑な世界モデルがあれば、それ自体がある程度の汎化をもたらします。
私に向かってスカッと走るものだけでなく、「クモ」という単語や「クモ」の概念でさえもそれを引き起こします。この予測器はそれを学習できます。私の世界モデルにあるクモのニューロンが何であれ、それはクモについての本でも、クモがいる部屋でも、何であれ。
この会話が聴衆に引き起こしている鳥肌の量ときたら。
今、私はあなたの操舵サブシステムを活性化させています。あなたの操舵サブシステムのクモの視床下部のスカッと走る昆虫のサブグループニューロンが、会話のこれらの非常に抽象的な概念に基づいて活性化しています。
続けたら、トリガー警告を入れますよ。
それはあなたがこれを学習したからです。
皮質は本質的に汎化する能力を持っています。なぜなら、これらの非常に抽象的な変数と統合されたすべての情報に基づいて予測しているだけだからです。
一方、操舵サブシステムは上丘や他のいくつかのセンサーが出力できるものしか使えません。
ところで、神経科学の異なる部分をつなぎ合わせたのが元物理学者のSteve Byrnesだというのは注目に値します。
ここ数年間、彼は統合しようとしてきました。
彼はAI安全性研究者です。
彼はただ統合しているだけです。これは学術的なインセンティブの話に戻ります。正確な次の実験は何かを言うのは少し難しいと思います。これについて論文をどうやって発表するのか。
どうやって大学院生を訓練してこれをやらせるのか。非常に推測的です。しかし神経科学の文献には多くのことがあり、Steveはこれをまとめることができました。
そして私は、SteveがIlyaの質問に対する答えを持っていると思います。つまり、脳が最終的にこれらの高次の欲求をどのようにコード化し、それらをより原始的な報酬と結びつけるのかということです。
非常に素朴な質問ですが、トークンから次のトークンへのマッピングだけでなく、訓練時にマスクを外して、すべてのトークンをすべてのトークンにマッピングするようにしたり、ビデオとオーディオとテキストの間にもっとラベルを考え出して、一つを他のそれぞれにマッピングするように強制したりすることで、この全方向推論を達成できないのはなぜでしょうか。
つまり、それが方法かもしれません。私にはよくわかりません。確率的推論を行う別の方法や、バックプロパゲーションではない異なる学習アルゴリズムがあると考える人もいます。
エネルギーベースモデルや他のそういったもののような、想像できる他の学習方法があるかもしれず、脳がそれを持っているということです。
しかし、脳がやっていることは、数層を通して予測することを学習するための粗悪なバージョンのバックプロパゲーションで、それはマルチモーダル基盤モデルのようなものだというバージョンもあると思います。
LLMはおそらく次のトークンを予測しているだけです。
しかし視覚モデルはおそらく空白を埋めたり、異なる部分や組み合わせを再構成したりすることを学習するように訓練されています。しかし私は、それを非常に柔軟な方法で行っていると思います。
中央のこの空白を埋めるようにモデルを訓練した場合、それは素晴らしいことです。しかし左側のこの他の空白を埋めるように訓練しなかった場合はどうでしょうか。
それをする方法を知りません。
ネットワークに償却された予測のレパートリーの一部ではないのです。
一方、本当に強力な推論システムがあれば、テスト時に、推論する必要がある変数の部分集合と、固定される変数を選択できます。
さて、二つのサブ質問があります。一つは、人工ニューラルネットワークに欠けているものは、報酬関数についてというよりも、エンコーダーや埋め込みについてなのかと考えさせられます。おそらく問題は、ビデオとオーディオとテキストを、それらが混ざり合ったり衝突したりできるような正しい潜在的抽象化で表現していないことなのかもしれません。
これは、LLMが異なるアイデア間のつながりを引き出すのが下手に見える理由とも関連しているかもしれません。
アイデアは、異なるつながりに気づくことができる一般性のレベルで表現されているのでしょうか。
まあ、問題はこれらの疑問がすべて混ざり合っているということです。バックプロパゲーションのような学習をしているかどうかわからないし、エネルギーベースモデルをやっているかどうかもわからないし、これらの領域がそもそもどのように接続されているかさえわかりません。だから本当に根本的な真実にたどり着くのは非常に難しいのです。しかし、ええ、可能性はあります。人々はいくつかの研究をしています。
私の友人Joel Dapelloは実際に数年前に何かをしました。V1、特に初期視覚皮質が画像をどのように表現するかのモデルだったと思いますが、それを畳み込みネットワークの入力として使い、いくつかのことが改善されました。違いがあるかもしれません。網膜も動き検出をしていて、特定のものがフィルタリングされています。
感覚データの前処理があるかもしれません。
どのモダリティがどれを予測しているかなどの巧妙な組み合わせがあって、より良い表現につながるのかもしれません。
それよりもはるかに巧妙なことがあるかもしれません。
アーキテクチャに組み込まれた帰納的バイアスが表現を異なる形にするとか、できる巧妙なことがあると確かに考える人もいます。
Steve Byrnesを雇用している同じ組織であるAsteraが、Doris Tsaoの研究に基づいてこの神経科学プロジェクトを立ち上げたところです。
彼女は、基本的により少ない訓練を必要とする視覚システムを構築する方法についていくつかのアイデアを持っています。
物体は表面で囲まれており、表面には特定の種類の形状があり、互いにどのように遮蔽し合うかといった関係があるといったことを、アーキテクチャの設計の前提に組み込みます。
ネットワークにより多くの前提を組み込むことが可能かもしれません。
進化もアーキテクチャのいくつかの変更を加えたかもしれません。
ただ、コスト関数なども進化が行う重要なことの一つかもしれないと私は思っています。
償却推論について
私が話したいのは、あなたがさらっと触れた償却推論というアイデアです。
おそらく私が思っていることが何を意味するか説明してみるべきでしょう。なぜなら、おそらく間違っていると思うので、これはあなたが私を訂正するのに役立つでしょう。
私にとっても数年ぶりです。
現在、モデルが機能する方法は、入力があり、それが出力にマッピングされ、これはプロセス、つまり知性だと私たちが考えている実際のプロセスを償却しています。
世界がどうあり得るか、世界をその方法にする原因は何かについての事前分布があります。そして何らかの観測を見たとき、「さて、世界はこれらすべての方法であり得る。この原因が起こっていることを最もよく説明する」と考えるべきです。
さて、すべての可能な原因についてこの計算を行うことは計算上実行不可能です。だから単にサンプリングするだけです。「ああ、これは潜在的な原因だ。これはこの観測を説明するか。いや、忘れよう。サンプリングを続けよう」そして最終的に原因を得て、その原因が観測を説明し、それがあなたの事後分布になります。
それは実際にかなり良いです。ベイズ推論一般は、この非常に扱いにくいものに関するものです。
それを行うために持っているアルゴリズムは、多くのサンプルを取る傾向があります。モンテカルロ法、多くのサンプルを取ります。
そしてサンプルを取るには時間がかかります。これは元々のボルツマンマシンなどのようなものです。
それらはこのような技術を使っていて、今でも確率的プログラミングや他のタイプの方法とともによく使われています。
ベイズ推論問題、これは基本的に知覚の問題ですが、世界のあるモデルといくつかのデータが与えられたとき、どのように更新すべきでしょうか。私の内部モデルの欠けている変数は何でしょうか。
アイデアは、ニューラルネットワークが望ましくは。明らかに、機械的には、ニューラルネットワークは「これが私の世界モデルで、このデータを説明しようとしている」というところから始まっていません。
しかし希望は、「この原因はこの観測を説明するか。いいえ。この原因はこの観測を説明したか。はい」というところから始める代わりに。
あなたがすることは、単に観測。ニューラルネットが最良だと考える原因は何か。観測から原因へ。つまりフィードフォワードは観測から原因へ、そして出力へと進みます。
これらすべてのエネルギー値などを評価してサンプリングし、それらを高くしたり低くしたりする必要はありません。
おおよそそのプロセスは、これがトップのものになるという結果になると言うだけです。
まさに。考え方の一つは、テスト時間の計算、推論時間の計算が実際にこのサンプリングを再び行っているということかもしれません。
あなたは文字通りその思考の連鎖を読みます。それは実際に私たちが話しているおもちゃの例のようなことをしています。「ああ、Xをすることでこの問題を解決できるか。いや、違うアプローチが必要だ」という具合に。
これは疑問を提起します。時間とともに、推論時間の計算を引き出すために必要だった能力がモデルに蒸留されるのは事実です。
つまり、以前はこれらのロールアウト、モンテカルロのロールアウトを行って理解する必要があったものを償却しているのです。
一般的に、おそらくコピーできるデジタルマインドは、コピーできない生物学的マインドとは異なるトレードオフを持つという原則があるかもしれません。
一般的に、より多くのものを償却することが理にかなっているはずです。なぜなら、償却、つまり組み込んだものを文字通りコピーできるからです。
これは接線的な質問で、推測するのが面白いかもしれません。将来、これらのものがより知的になり、それらを訓練する方法がより経済的に合理的になったとき、進化が生物学的マインドに償却する価値がないと考えたもののうち、これらのマインドに償却することが理にかなうものは何でしょうか。
毎回再訓練しなければなりません。
まず第一に、確率的AIの人々は、当然テスト時間の計算が必要だと言うでしょう。なぜなら、この推論問題は本当に難しく、それを行う方法として私たちが知っている唯一の方法は、多くのテスト時間の計算を伴うからです。
そうでなければ、それは単なる粗悪な近似で、決して。無限のデータか何かをする必要があります。
確率的な人々の何人かは、「いや、それは本質的に確率的で、この方法で償却することは理にかなっていない」と言うでしょう。
彼らはまた脳を指して言うかもしれません。「さて、脳では、ニューロンは確率的で、サンプリングしていて、物事をやっている。だからおそらく脳は実際に非償却推論、本当の推論のようなことをもっとやっているのだ」と。
しかし、知覚がわずか数ミリ秒で機能できるというのも奇妙です。
それほど多くのサンプリングを使っているようには見えません。だから明らかに、これを行うために物事を近似的な順伝播のようなものに焼き込んでいます。
将来的には、わかりません。人々がテスト時間の計算を使わなければならなかったものを使って基本モデルを訓練し直すという傾向がすでにあるのでしょうか。今では一回のパスでできます。
進化はそれをしたりしなかったりしたかもしれません。進化はゲノムを通してすべてを渡してネットワークを構築しなければならず、人間が生きている環境は非常に動的だと思います。
だから、もしこれが真実だと信じるなら、Steve Byrnesによると学習サブシステムと操舵サブシステムがあり、学習サブシステムには多くの事前初期化や事前訓練がありません。
特定のアーキテクチャを持っていますが、その後、生涯内で学習します。
すると進化は実際にはそのネットワークに多くを償却しませんでした。
代わりに、一連の生得的行動、一連のこれらのブートストラッピングコスト関数、または非常に特定の報酬信号を構築する方法に償却しました。
この枠組みは、人々が指摘してきた謎の説明に役立ちます。私は何人かのゲストに尋ねたことがあるのですが、進化を事前訓練に類推したいなら、ゲノムを通して伝達される情報がこれほど少ないという事実をどう説明するのでしょうか。
つまり、人間のゲノム全体のサイズは3ギガバイトです。
明らかに、その中の小さな部分だけが実際に脳をコード化するのに関連しています。
以前、人々はこのような類推をしていました。実際には進化はモデルのハイパーパラメータ、つまり何層あるべきかを示す数値、基本的にはアーキテクチャ、物事がどのように配線されるべきかを見つけたのだと。
しかし、物語の大きな部分が、サンプル効率の向上が学習を助け、一般的にシステムをより高性能にするのが報酬関数、損失関数であり、進化が学習を助けるそれらの損失関数を見つけたのなら、それは実際に、これほど少ない情報で知性を構築できる方法が理にかなっています。
なぜなら、報酬関数は、Pythonでは文字通り一行だからです。
だから、このような行が千個あるだけで、それはそれほど多くのスペースを取りません。
はい。また、私たちがクモについて話していたときに説明した汎化のことも行います。「クモ」という単語だけを学習し、それがクモの反射などを引き起こします。それも活用します。
それは単にこれらの生得的なクモのことと、Steve が思考評価者と呼ぶ、学習を行うものを指定するだけで、実際にはその中にかなりの汎化を持つ報酬関数を構築することができる、潜在的に非常にコンパクトな解決策です。
それはこれらのより複雑な報酬関数を構築するのに必要なものです。
報酬関数の未来についてすべてを予測する必要はありません。
どの変数が関連しているか、そしてそれらの変数を見つけるためのヒューリスティクスは何かを予測するだけでよいのです。
そして、学習アルゴリズムと学習サブシステムの基本アーキテクチャについて非常にコンパクトな仕様を持つ必要があります。
そして、クモについてのすべてのこと、友人についてのすべてのこと、母親についてのすべてのこと、交配や社会集団や共同アイコンタクトについてのすべてのこと、これらすべてのPythonコードを指定しなければなりません。
それらすべてを指定しなければなりません。
これは本当に真実なのでしょうか。いくつかの証拠があると思います。
Fei ChenやEvan Macoskoなど様々な研究者が、これらの単一細胞アトラスを作成してきました。
神経科学技術のスケールアップ、これも私の執念の一つですが、大規模な神経科学資金プログラムであるBRAIN Initiativeを通じて行ったことの一つは、基本的に異なる領域、特にマウスの脳を調べて、異なる細胞タイプがどこにあるかをマッピングしたことです。
皮質の異なる領域にはいくつの異なるタイプの細胞がありますか。
それらは異なる領域で同じですか。
次に、これらの皮質下領域、つまり操舵サブシステムや報酬関数生成領域により近いものを見ます。
それらにはいくつの異なるタイプの細胞がありますか。そしてどのニューロンタイプを持っていますか。
それらがすべてどのように接続されているか、正確に何をするのか、回路が何であるか、何を意味するのかはわかりませんが、RNAの配列決定で、いくつの異なる種類の細胞があるかを定量化できます。
そして、基本的に学習サブシステムよりも操舵サブシステムには、はるかに多くの奇妙で多様で特注の細胞タイプがあります。
皮質の細胞タイプのように、そこに学習アルゴリズムを構築し、いくつかのハイパーパラメータを指定するのに十分なものがあるようです。
そしてこの操舵サブシステムには、たくさんの、数千もの本当に奇妙な細胞があり、それはクモのひるむ反射のためのものや、私が塩を味わおうとしているもののためのものかもしれません。
なぜ各報酬関数に異なる細胞タイプが必要なのでしょうか。
まあ、これは生得的に配線された回路を得る場所です。
学習アルゴリズムの部分、学習サブシステムでは、初期アーキテクチャを指定し、学習アルゴリズムを指定します。
すべての重要なことは、その大きなネットワーク内のシナプスの可塑性、シナプスの変化を通じて起こっています。
しかし、それは比較的繰り返しのアーキテクチャであり、初期化される方法です。
8層トランスフォーマーを作るのに必要なPythonコードの量は、3層トランスフォーマーを作るものとそれほど変わりません。ただ複製しているだけです。
一方、報酬関数のためのこのすべてのPythonコードは、上丘が走っているものを見て、皮膚に鳥肌が立っているなどを感じているなら、クモの反射を引き起こすというものですが、それは単なる特注の、種特有の、状況特有のがらくたの束です。
皮質はクモについて知りません。層について知っているだけです。
しかしあなたは、この報酬関数を書く唯一の方法は特別な細胞タイプを持つことだと言っているのですね。
ええ、まあ、そう思います。特別な細胞タイプを持つか、進化がこのニューロンはこのニューロンに配線する必要があると言える特別な配線ルールを何らかの形で得るか、学習なしで。
そしてそれが起こる最も可能性の高い方法は、それらの細胞が「さて、これがこれと接触したとき、シナプスを形成しよう」と言う異なる受容体とタンパク質を発現することだと思います。
つまり遺伝的配線であり、それらにはそれを行うための細胞タイプが必要です。
神経科学101を知っていればもっと理解できると確信していますが、操舵サブシステムにはまだ多くの複雑性、というより一般性があるように思えます。
操舵サブシステムが視覚皮質とは別の独自の視覚システムを持っているなら、異なる特徴がその視覚システムにプラグインする必要があります。
だからクモのことはそれにプラグインする必要があり、愛のこともそれにプラグインする必要があり、などなど。だから複雑に思えます。
それはまだ複雑です。それがゲノム上のゲノム不動産の多く、そしてこれらの異なる細胞タイプなどの観点から、操舵サブシステムを配線し、事前配線することに費やされるさらなる理由です。
ゲノムのどれだけが明らかに機能しているかを知ることができますか。
つまり、脳内の異なる細胞タイプで現れるRNAやエピジェネティクスを生成するのに関連しているものがいくつあるかを知ることができると思います。そうですよね。
ええ。これが細胞タイプが到達するのに役立つものです。
「ああ、ゲノムのこのパーセントがこれをやっている」というような正確なものではないと思いますが、「さて、これらすべての操舵サブシステムのサブタイプで、どれがどれかを指定し、それらがどのように配線するかに何個の異なる遺伝子が関与しているか。そしてそれらの遺伝子はどれだけのゲノム不動産を占めるか、対、視覚皮質対聴覚皮質を指定するものと比べて」と言えます。
同じ遺伝子を再利用して同じことを二度やっているだけです。
一方、クモの反射をフックアップするには。はい、あなたは正しいです。彼らは視覚システムを構築しなければならず、いくつかの聴覚システムと触覚システムとナビゲーションタイプのシステムを構築しなければなりません。
海馬などに入るものでさえ、頭の方向細胞があります。
ハエの脳でさえ、その向きを把握し、世界をナビゲートするのに役立つ生得的回路を持っています。
視覚を使い、飛行の光学的フローと、飛行が風向とどのように関連しているかを把握します。
哺乳類の脳では、私たちはそれらすべてを操舵サブシステムにまとめると思います。哺乳類の脳では、私たちはそれらすべてを操舵サブシステムにまとめると思います。やることはたくさんあります。だから、基本的にハエが行う必要のあるすべてのことを指定する遺伝子はすべて、私たちにもそのようなものがあるでしょう。ただ、すべて操舵サブシステムにあります。
しかし、「ここにどれだけのヌクレオチドがあるか、それを行うのにどれだけのメガベースがかかるか」という推定はありますか。
わかりません。つまり、生物学者と話すことができるかもしれません。
遺伝子の観点から、私たちは酵母と多くの共通点を持っています。
酵母は今でも薬剤開発などの生物学でモデルとして使われています。
ゲノムの多くは、単に細胞を持つこと、廃棄物をリサイクルできること、エネルギーを得られること、複製できることに向かっています。
それでは、マウスと何が共通しているのでしょうか。
私たちとチンパンジーの違い、そしてこれには社会的本能と皮質などのより高度な違いが含まれますが、これに入る遺伝子の数は非常に少ないことはある程度わかっています。8層トランスフォーマーの代わりに6層トランスフォーマーを作ったり、その報酬関数を微調整したりするための追加量です。
ヒト科の脳の急速な進化
これは、ヒト科の脳がなぜこれほど速くサイズが爆発的に増加したかを説明するのに役立つでしょう。
おそらく、これが正しいか教えてください。この物語の下では、社会的学習や他の何かが環境から学習する能力を高めました。サンプル効率を高めました。
自分でイノシシを殺してその方法を見つける代わりに、「長老がこれが槍の作り方だと教えてくれた」と言うことができます。
これにより、より大きな皮質を持つインセンティブが高まり、それがこれらのことを学習できるようになります。
はい、そしてそれは比較的少数の遺伝子で行うことができます。なぜなら、それは本当にマウスがすでに持っているものを複製し、それをもっと作っているだけだからです。
全く同じではないかもしれないし、微調整があるかもしれませんが、ゲノムの観点から見ると、これらすべてを再発明する必要はありません。
では、脳の進化の歴史でどこまで遡ると皮質があるのでしょうか。
皮質が常にこの全方向推論のことを理解してきた、それは長い間解決された問題だったというアイデアなのでしょうか。
霊長類の大きなアンロックは報酬関数を手に入れたことで、それが全方向推論を持つことへのリターンを高めたということでしょうか。
それは良い質問です。
それとも全方向推論も、アンロックするのに時間がかかったものなのでしょうか。
それについて合意があるかどうかわかりません。
言語について具体的な疑問があるかもしれません。
聴覚や記憶、何らかの組み合わせの聴覚記憶領域を通じて、微調整があるかどうか。
言語を起こさせるために、聴覚領域を記憶領域や、あるいはこれらの社会的本能のいくつかに配線する必要があるマクロ配線もあるかもしれません。
しかしそれもまた、時間葉からこちらへ、聴覚皮質へ何かというように言えるための少数の遺伝子変化かもしれません。
ブローカ野、ウェルニッケ野についてはいくつかの証拠があります。それらは海馬などや前頭前皮質と接続されています。
だから、人間が本当に適切に言語を行えるようにするための少数の遺伝子があるかもしれません。
それは大きなものかもしれません。しかし、皮質について何かが変わって、これらのことが可能になったのでしょうか。それとも、その可能性はすでにそこにあったが、その能力を拡大して使用し、これらの社会的本能に配線して、もっと使うインセンティブがなかったのでしょうか。
私はどちらかというと後者に傾いています。
マウスは人間と同様に皮質に多くの類似性を持っていると思います。
ただし、霊長類の脳では、ニューロンの数が齧歯類の脳よりも重さとともにうまくスケールするというSuzana Herculano-Houzelの研究があります。
それは皮質のスケーラビリティに実際に何らかの改善があったことを示唆しているのでしょうか。
多分、多分。私はこれについてそれほど深くありません。
アーキテクチャに変化があったかもしれません、折りたたみに変化、ニューロンの特性に変化、そしてこれを何らかの形で少し微調整するものがあったかもしれません。
しかしどちらにしてもスケーリングがあります。
その通りです。だから私は人間の学習サブシステムのアーキテクチャに何か特別なものが全くないとは言っていません。
しかし、これが拡大されたとかなり広く考えられていると思います。しかし問題は、「さて、それは操舵サブシステムの変化や、これを使用し、これを使って効果的にブートストラップできるようにする本能とどのように適合するのか」ということです。
しかし他のことをいくつか言うと、ハエの脳でさえ、非常に遠い昔でさえ、ある程度。つまり、あなたは『知性の簡潔な歴史』という素晴らしい本を読んだと思いますよね。これは本当に良い本だと思います。
多くのAI研究者がこれは本当に良い本だと思っているようです。
脳を持つものすべてにまで遡る、ある程度の学習があります。
基本的に、少なくとも脊椎動物まで遡る原始的な強化学習のようなものがあります。ゼブラフィッシュを想像してください。それから他の分岐があります。
鳥類は皮質のようなものを再発明したかもしれません。六層はありませんが、少し皮質のようなものを持っています。
だから、爬虫類の後のそれらのもののいくつかは、ある意味で鳥類と哺乳類の両方が少し皮質のようなものを作りましたが、異なる形で組織されています。
しかしハエの脳でさえ、実際にByrnesの思考評価者の概念に少し似ているように見えることをする連合学習センターを持っています。そこでは特定のドーパミン信号があり、ハエのきのこ体の特定のニューロンのサブグループを訓練して、異なる感覚情報を「今食べ物を得るのか」や「今傷つくのか」と関連付けます。
簡単な余談です。Beren Millidgeが書いたあるブログ投稿で、オーディオとビジョンに関連する皮質の部分が他の霊長類と人間の間で不均衡にスケールしたのに対し、例えば臭いに関連する部分はスケールしなかったと読んだのを覚えています。
そして彼が、これはその種のデータがより悪いスケーリング則の特性を持つことによって説明されると言っていたのを覚えています。
おそらく彼はこれを意味していたのかもしれませんが、実際に起こっていることの別の解釈は、操舵サブシステムに組み込まれたこれらの社会的報酬関数が、長老を見て視覚的な手がかりが何であるかを見たり、彼らが言っていることを聞いたりすることをより多く利用する必要があったということだと思います。
そして学習を導くこれらの手がかりを理解するために、臭いよりも視覚とオーディオをより活性化する必要がありました。
つまり、これはすべてのものです。
実際にあなたの番組で以前に出てきたような気がします。
しかし、瞳孔と白などがある人間の目のデザインのようなものでさえ、私たちは共同アイコンタクトに基づいて関係を確立できるように設計されています。
これはサットンのエピソードで出てきたかもしれません。覚えていません。しかしええ、私たちはアイコンタクトを検出できる時点まで、言語でコミュニケーションできる時点までブートストラップしなければなりません。
それが人生の最初の数年間がやろうとしていることです。
強化学習と報酬関数
さて、RLについてお聞きしたいことがあります。現在、これらのLLMが訓練される方法は、ユニットテストを解いたり数学の問題を解いたりした場合、その軌跡全体、その軌跡のすべてのトークンが重み付けされます。
人間では何が起こっているのでしょうか。脳の異なる部分で起こっている異なるタイプのモデルベース対モデルフリーがあるのでしょうか。
ええ、つまり、これはまた別のこれらのことの一つです。繰り返しますが、これらの質問に対する私のすべての答え、私が言うどんな特定のことも、方向性としてこの周辺を探索できると言っているだけです。
私はこれが興味深いと思い、文献がこれらの方向を何らかの非常に広い意味で指し示しているような気がします。私が実際にやりたいことは、マウスの脳全体をマッピングして、これを包括的に解明し、神経科学を基礎真理科学にすることです。だから基本的にはわかりません。
しかしまず第一に、ポッドキャストでIlyaと一緒に、彼は「価値関数を使わないのは奇妙だよね」と言っていたと思います。
基本的に最も愚かな形式のRLを使っています。
もちろん、これらの人々は信じられないほど賢く、GPUでそれを行う方法を最適化していて、彼らが達成していることは本当に素晴らしいです。
しかし概念的には、10年前に行われていたことと比べても、本当に愚かな形式のRLです。
Atariゲームプレイのものでさえ、基本的には一種の時間差分学習であるQ学習を使っていました。
時間差分学習は基本的に、今選ぶ行動が、この直後に文字通り起こることを教えてくれるだけでなく、私の期待される総報酬などに対する長期的な結果が何であるかを教えてくれるある種の価値関数を持つことを意味します。
だから、次のようなような価値関数を持つでしょう。LLMに価値関数が全くないという事実はクレイジーです。
Ilyaが言ったので、私も言えると思います。
私は彼がAIについて知っていることの100分の1しか知りませんが、これが機能しているのはちょっとクレイジーです。
しかし脳に関しては、線条体と大脳基底核の一部に、モデルフリーRLに非常に似たことをすると考えられている部分があると思います。
それらは特定の比較的小さな行動空間を持っていると考えられています。
それらが取り得る行動のタイプは、まず第一に、「脳幹と脊髄にこの運動行動をするように伝える、はいかいいえか」のようなものかもしれません。あるいは、「視床にこの皮質の部分がこの他の部分と話すことを許可するように伝える」とか「海馬に保存されている記憶を解放して新しいものを始める」といったより複雑な認知タイプの行動かもしれません。
しかし大脳基底核から出てくる有限の行動セットがあり、それは非常にシンプルなRLです。
だからおそらく他の脳や私たちの脳の部分には、非常にシンプルな素朴なタイプのRLアルゴリズムをやっているだけの部分があります。
その上に一つの層があるのは、Peter Dayanの研究のような神経科学の主要な研究、そしてDeepMindがそもそも時間差分学習のものをやった理由の一部だと思います。彼らは神経科学に非常に興味を持っていました。
ドーパミンが報酬予測誤差信号を与えているという多くの神経科学的証拠があります。単に報酬ではなく、「はいかいいえか、はるか未来の無数の時間ステップ」ではありません。
それは予測誤差であり、それはこれらの価値関数を学習することと一致しています。
だからそれがあり、それからおそらくより高次のものがあります。
皮質はこの世界モデルを作っています。さて、皮質の世界モデルが含むことができるものの一つは、報酬をいつ得ていつ得ないかのモデルです。
繰り返しますが、それは操舵サブシステムが何をするかを予測しています。
大脳基底核が何をするかを予測している可能性があります。
皮質にモデルがあって、より多くの汎化とより多くの概念とこのすべてのものを持っていて、「さて、これらのタイプの計画、これらのタイプの行動は、これらのタイプの状況で報酬につながる」と言います。だから私は自分の報酬のモデルを持っています。
また、逆の方向に進むことができると考える人もいます。
これは推論の図の一部です。推論としてのRLというアイデアがあります。
「まあ、高い報酬を持つという条件で、そこに到達するために持っていなければならなかった計画をサンプリングする」と言うことができます。
それは報酬部分から計画部分への推論です。
報酬を高く固定して計画を推論し、それにつながる可能性のある計画からサンプリングしています。
だから、もしこの非常に一般的な皮質のものがあれば、それは単にできます。
もしこの非常に一般的なモデルベースのシステムがあって、モデルが特に計画と報酬を含んでいるなら、基本的に無料でそれを得ることができます。
ニューラルネットワークの用語では、全方向推論で起こっていることに関連付けられた価値ヘッドがあるということですか。
はい、または価値入力があります。
ああ、面白いですね。
ええ、それは予測できます。予測できるほぼ感覚的な変数の一つは、どんな報酬を得ようとしているかです。
ちなみに、物事を償却することについて話すと、明らかに価値は報酬を調べるロールアウトの償却のようなものです。
ええ、そのようなものです。それはその統計的平均や予測のようなものです。
接線的な考えです。Joe Henrichなどは、人間社会がどのようにして、実際にはほとんどいつもあなたを毒する豆の一種が、この10ステップの信じられないほど複雑なプロセスを行えば食べられるという、どれか一つでも失敗すれば豆は有毒になるようなことを理解する方法について、このアイデアを持っています。
この特定の方法で、この特定の武器で、年のこの特定の時期にこのアザラシを狩る方法をどのように理解するのでしょうか。
世代を超えてただ試行錯誤するしか方法はありません。
そして私には、これは実際に文明レベルで起こっているモデルフリーRLに非常に似ていると思われます。
いや、正確にはそうではありません。進化はある意味で最もシンプルなアルゴリズムです。
もし進化からこのすべてが来ると信じるなら、外側のループは極めて先見の明がないものであり得ます。
そうですね、それは興味深いです。だから階層。進化はモデルフリー。では、それは何を教えてくれるのでしょうか。
おそらくシンプルなアルゴリズムは、十分にやればあなたに何でも与えることができます。
そうですね。わかりません。
だから、進化はモデルフリー。大脳基底核はモデルフリー。皮質はモデルベース。文化は潜在的にモデルフリー。つまり、長老に注意を払うなど。
おそらく、これらのもののグループ選択のようなものはよりモデルフリーです。
しかし今、文化は、まあ、それはモデルの一部を保存します。
生物学的ハードウェアとコンピューティングハードウェア
一歩下がって、現在存在するコンピューターと比較して、生物学的ハードウェアを使えることは、人間にとって不利なのか有利なのでしょうか。
この質問で私が言いたいことは、「アルゴリズム」があるとして、今日のハードウェアに刻み込まれた場合、アルゴリズムは質的にはるかに悪く、あるいははるかに良く機能するでしょうか。
そう考える理由は。これが私の言いたいことです。明らかに脳は、コンピューティングハードウェアには関連しない多くのトレードオフをしなければなりませんでした。
はるかにエネルギー効率的でなければなりません。その結果、おそらくより遅い速度で実行しなければならないので、より小さな電圧ギャップがあり得ます。
だから脳は200ヘルツで動作し、20ワットで動作しなければなりません。
一方、ロボティクスでは、指が私たちがこれまで作れるモーターよりもはるかに機敏であることを明らかに経験してきました。
だから、おそらく脳には認知的器用さに相当するものがあるかもしれません。それは、私たちが非構造化スパース性を行えるという事実によるものかもしれません。
メモリと計算を同じ場所に配置できます。
はい。これがすべてどこで決着するのでしょうか。あなたは「くそっ、もしこれらの脳に対処する必要がなかったら、私たちははるかに賢かっただろう」という感じですか。それとも。
最終的には両方の世界の最良のものを何らかの形で得ると思います。
脳の明らかな欠点は、コピーできないことだと思います。
すべてのニューロンとシナプスへの外部読み書きアクセスがありません。一方、あなたにはあります。
原理的には。だから、コピーできず、ランダムアクセスできないという事実は非常に厄介です。
しかしそれ以外では、多くの利点があるかもしれません。
それはまた、何らかの形でアルゴリズムの共同設計を行いたいということも教えてくれます。
私たちが議論したすべてからそれほど変わらないかもしれませんが、何らかの形でこの共同設計を行いたいのです。
だから、本当に遅い低電圧スイッチでどうやってそれを行うか。
それはエネルギー消費にとって本当に重要でしょう。メモリと計算を同じ場所に配置すること。
ハードウェア企業はおそらくメモリと計算を同じ場所に配置しようとするでしょう。
より低い電圧を使おうとし、いくつかの確率的なものを許容するでしょう。
私たちが話していたこの確率的なもの全て、「ああ、実際にはエネルギーベースモデルなど」、それは多くのサンプリングを行っていると考える人もいます。すべてを償却しているだけではありません。
ニューロンもそれにとって非常に自然です。なぜなら、それらは自然に確率的だからです。だから、サンプルを生成するために多くのPythonコードで乱数生成器をする必要がありません。
ニューロンは単にサンプルを生成し、異なる確率が何であるかを調整し、それらの調整を学習できます。
だから、それは何らかの種類の推論方法か何かと非常に共同設計されている可能性があります。
面白いでしょうね。つまり、このインタビューから私が受け取っているメッセージは、Twitterで人々がからかっているすべての人々、Yann LeCunやBeff Jezosなど、わかりませんが、おそらく彼らは正しかったのかもしれません。
それは実際に一つの読み方です。
認めますが、LLMが離陸して以来、私は実際にはAIにはまったく取り組んでいないので、単に流れから外れています。しかし驚いており、スケーリングがどのように機能しているかすべて素晴らしいと思います。
しかしええ、Yann LeCunとBeff Jezosは確率的モデルについて、あるいは少なくとも可能性として、何かを掴んでいると思います。
実際、それはすべての神経科学者とすべてのAIの人々が2021年か何かまで考えていたことです。
そうですね。だから脳内で起こっている細胞的なものがたくさんあって、それは単にニューロン間のシナプス接続についてだけではありません。
そのうちどれだけが、シナプス自体が行っているよりも機能的により多くの仕事をしているのか対、シナプス的なものを機能させるためにやらなければならない単なるごちゃごちゃの束なのでしょうか。
だからデジタルマインドでは、パラメータ、すみません、シナプスを非常に簡単に微調整できます。しかし細胞がグラディエント信号に従ってシナプスを調節するには、このクレイジーな機械すべてが必要です。
だから実際に、それが行うのに非常に少ないコードしか必要としないこと以上のことをしているのでしょうか。
わかりませんが、私は「ああ、実際には記憶はほとんどシナプスではない、あるいは学習はほとんど遺伝的変化だ」という急進的な考えの信奉者ではありません。
あなたが言ったように、それが二番目に言ったことにより似ているというのは非常に理にかなっていると思います。
あなたのニューロンから出るすべての重みについて重み正規化を行いたいとしましょう。あなたのニューロンに入るすべての重みについて。おそらく何らかの形で細胞の核にこれについて伝え、それからすべてをシナプスに送り返すなどしなければならないでしょう。だから多くの細胞変化が起こるでしょう。
脳における細胞レベルの変化とアルゴリズム
可塑性が高く、記憶の一部となっていた神経細胞が、皮質などに記憶が固定化された後、再び新しいことを学習できるように再利用される場合を考えてみましょう。そこでは大量の細胞レベルの変化が起こります。細胞内では膨大な数の分子機構が動作することになります。
しかしアルゴリズムの観点から見ると、これらの変化は既存のアルゴリズムに何か新しいものを加えているわけではありません。デジタルコンピュータであれば、重みを見つけて変更するのは非常に簡単です。しかし細胞の中では、中央制御装置なしに分子機構だけでこれらすべてを実行しなければならないのです。これは驚くべきことです。
一方で、細胞が行うことの中には、より説得力のあるものもあると思います。小脳が行わなければならないことの一つは、時間経過を予測することです。たとえば光の点滅を見て、数ミリ秒後にまぶたに空気が吹きかけられるとします。小脳は点滅と空気の吹き付けの間のタイミングを非常に正確に予測できるため、目が自動的に閉じるようになります。
小脳はこのような学習された反射に関与しています。小脳には、シナプスの長い環を作って遅延を長くするのではなく、細胞体が時定数を保存し、その遅延の時定数を変更する役割を果たしているように見える細胞があります。
このような例はいくつかありますが、私は基本的には、起こっていることがニューロン間の接続の変化であり、それが主要なアルゴリズム的なプロセスだという理論を最初から信じているわけではありません。とはいえ、何か奇妙な細胞内のプロセスではなく、やはりそれがメインであると信じる十分な理由があると思います。
知能における注意と学習の方向性
私たちの知能は、世界モデルを構築する全方向的な推論システムではなく、何に注意を払うべきか、どの重要な要素から学ぶべきかを教えてくれるシステムだという視点に戻りましょう。
この観点から、異なる種類の知能がどのようなものになるかについて、何か直感を得られるかどうか見てみたいと思います。AGIや超人的知能は、かなり汎用的な世界モデルを学習する能力を持つべきですが、現代のポストシンギュラリティ環境に関連する異なる事柄に注意を向けるよう動機づけられる可能性があります。
異なる知能はどの程度異なるものになると予想すべきでしょうか。
この質問について考える一つの方法は、ペーパークリップ最大化AIのようなものを実際に作ることが可能かどうかということです。ペーパークリップ最大化AIを作ろうとすると、報酬関数がペーパークリップを作ることだけだったために、結局それほど賢くないものになってしまうのでしょうか。
そのようなことができるかどうか、私にはわかりません。スティーブ・バーンズの考え方をより反映させると、彼は、何かを賢くするために操舵サブシステムに必要な最小限の要素は、人間のような社会的本能や倫理観を持たせるために必要な最小限の要素よりもはるかに少ないことを非常に懸念していると思います。
ですから、操舵サブシステムについて知りたいことの多くは、実際にはアライメントをどう行うか、つまり人間の行動や社会的本能とは何か対能力に必要なものは何かという具体的な内容なのです。
私たちは少し異なる方法でこれについて話してきました。人間が社会的に学習するためには、アイコンタクトをとり、他者から学ぶ必要があると言っていましたが、大規模言語モデルから既に分かっているように、出発点によっては、そのようなものなしに言語を学習することができます。
ですから、おそらく人間の脳の報酬関数にあるもののほとんどを持たず、その結果ペーパークリップを最大化したいと思うような、超強力なモデルベースの強化学習最適化システムなどを作ることは可能だと思います。そしてそれは懸念事項です。
しかしあなたが指摘しているのは、有能なペーパークリップ最大化AIを作るためには、宇宙船を建造したり物理学を学んだりできるようなものにするには、好奇心や探索を含む、学習を引き出すある種の動因が必要だということです。
そうです、好奇心、他者への関心、社会的相互作用への関心です。しかしそれはかなり最小限のものだと思います。
それは人間には当てはまりますが、すでに大規模言語モデルとして事前学習されているものにはあまり当てはまらないかもしれません。ですから、操舵サブシステムを知りたい理由のほとんどは、スティーブの考えを反映すれば、アライメントの理由だと思います。
脳のアルゴリズムを理解するための概念的語彙
脳が何をしているのかを考えるための正しいアルゴリズム的・概念的な語彙を私たちが持っているという確信はどの程度あるでしょうか。
私が言いたいのは、神経科学からAIへの大きな貢献が一つあったということです。それは1950年代のニューロンという概念、この最初の貢献です。しかしその後、脳が実装している高レベルのアルゴリズムについて学んだことの多くは、バックプロパゲーションから、脳内でバックプロパゲーションに類似したものが起こっているのか、V1がCNNのようなことをしているのか、TD学習やベルマン方程式、アクター・クリティックなど、何であれ…
これは、私たちが何らかのアイデアを思いつき、AIニューラルネットワークをこのように機能させることができるかもしれないと考え、その後脳内でも何かがそのように機能していることに気づくというダイナミクスに触発されているように見えます。
ですから、このようなことがもっとあると考えてもよいのではないでしょうか。
あるかもしれません。私たちが何かをつかんでいるかもしれないと思う理由は、これらのアイデアに基づいて作っているAIが驚くほどうまく機能しているからです。
また、単に経験的なこともたくさんあります。畳み込みニューラルネットワークとその変種について、最新の状況がどうなっているか正確にはわかりませんが、視覚システムが何をしているかについての計算神経科学の他のモデルと比較すると、それらはより予測的なのです。
猫の写真などで事前学習されたCNNが、他の任意の画像に対して、さまざまな方法で測定された脳の活動と比較して、どのような表現的類似性を持っているかをスコア化することができます。ジム・ディカルロの研究室にはブレインスコアというものがあり、AIモデルは実際に… そこには何らかの関連性があるようです。
神経科学は必ずしもそれよりも優れたものを持っているわけではありません。
ですから、おっしゃる通り、私たちが持っている最良の計算神経科学理論は、主にAIモデルの発明の結果として発明され、機能するものを見つけたように見えます。
バックプロパゲーションが機能することを発見し、それから「バックプロパゲーションを皮質回路で近似できるか」などと言うのです。そのようなことがありました。
しかし、これに完全に同意しない人もいます。ジェルジ・ブジャーキは、『脳は内側から外へ』という本を書いた神経科学者です。彼は基本的に、私たちの心理学の概念、AIの概念、これらすべては作り話だと言っています。
私たちが実際にしなければならないことは、脳が実際に使用している原始的要素の実際のセットを理解することです。
そして私たちの語彙はそれには適切ではありません。バックプロパゲーションと言ってそれを脳に適用しようとするのではなく、脳から始めて新しい語彙を作らなければなりません。
彼は個々のニューロンとそれらが何をするかではなく、脳内の多くの振動などを研究しています。わかりません。それには一理あると思います。
研究プログラムの設計の観点から、私たちがやろうとすべきことの一つは、小さな線虫や小さなゼブラフィッシュを、できるだけ生物物理学的に、またはボトムアップでシミュレートすることです。
コネクトーム、分子、活動を取得して、それを物理的な力学系として研究し、それが何をするかを見るのです。
しかし、わかりませんが、AIは計算神経科学にとって本当に良い素材のように感じます。それらは実際にかなり良いモデルかもしれません。私たちはそれを見るべきです。研究ポートフォリオの一部は完全にボトムアップで、AIから学んだ語彙をこれらのシステムに適用しようとしないものであるべきだと思いますし、その語彙やその語彙の変種を使ってリバースエンジニアリングを試みるべき大きな部分もあるべきだと思います。両方を追求すべきです。
私の推測では、リバースエンジニアリングの方が実際にうまくいくのではないかと思います。TD学習のようなものが見られますが、サットンも別々に発明しました。
それはクレイジーな感覚に違いありません。ただ… そうですね、それはクレイジーです。
私が書いたこの方程式は脳の中にあるようなものです。ドーパミンがそのいくつかをやっているようです。
コネクトームと脳の理解
あなた方は、脳で何が起こっているのかを解明しようとしているさまざまなグループに資金を提供しています。
脳の完璧な表現、あなたがどう定義するにせよ、があれば、実際にこれらの質問への答えを見つけることができると考えるのはなぜですか。
私たちには、重み行列に何があるかを理解しているからだけでなく、重み行列があるからこそ、はるかに解釈可能なニューラルネットワークがあります。それらは数字の入った箱です。それでも非常に基本的なことしかわかりません。
あるトークンを別のトークンで追いかけるという非常に基本的なパターンマッチングの回路のようなものは見ることができます。
大規模言語モデルが知的である理由について、それらが解釈可能だからといって本当に説明があるとは感じません。
これについては多少異論があると思います。大規模言語モデルが根本的に何をしているかについての説明はあります。
それは、アーキテクチャがあり、学習則があり、ハイパーパラメータがあり、初期化があり、トレーニングデータがあるということです。
しかしそれらは、重みを見て解釈したからではなく、私たちが構築したから学んだものです。コネクトームに類似するものは重みを見るようなものです。
私が思うに、私たちがすべきことは、脳をアーキテクチャ、学習則、初期化といった言語でより多く記述することです。ゴールデンゲートブリッジ回路を見つけて、このニューロンが実際にどのように… それは信じられないほど複雑な学習されたパターンになるでしょう。
コンラート・コーディングとティム・リリクラップが数年前、おそらく5年前に書いた「ニューラルネットワークを理解するとはどういう意味か」という論文があります。
彼らが基本的に言っているのは、ニューラルネットワークに円周率の数字を計算させたり何かをさせるように訓練することを想像できるということです。それは何か奇妙なパターンです。
また、見つけた最も複雑なものを予測するようにそのものを訓練します。株価を予測する、基本的に本当に複雑なシステム、計算的に完全なシステムを予測します。
ニューラルネットワークをセルオートマトンやどんな奇妙なものでも実行するように訓練できます。
解釈可能性でそれを完全に捉えることは決してできないと思います。内部で本当に複雑な計算を行っているだけです。
しかし、それがそのようになった方法は、アーキテクチャがあり、このトレーニングデータを与え、この損失関数があったということは言えます。脳も同じ方法で記述したいのです。
そして私が提示してきたこの枠組みは、皮質とそれがどのように学習アルゴリズムを具現化しているかを理解する必要があるということだと思います。
「ゴールデンゲートブリッジ」をどう計算するかを理解する必要はありません。
しかし、すべてのニューロンを見ることができれば、コネクトームがあれば、なぜそれが学習アルゴリズムが何であるかを教えてくれるのですか。
まあ、いくつかの異なる見方があると思います。ですから、このポートフォリオのこれらの異なる部分に依存します。
完全にボトムアップで、すべてをシミュレートしなければならないポートフォリオについては、実際にはそうではありません。
ゼブラフィッシュの脳のシミュレーションを作成し、その中の創発的なダイナミクスが何であるかを見て、新しい名前や新しい概念などを考え出す必要があります。
それが最も極端なボトムアップの神経科学の見方です。
しかしそこでも、コネクトームはそのような生物物理学的またはボトムアップのシミュレーションを行うために本当に重要です。
しかし一方で、「実際にAIからのいくつかのアイデアを適用できるとしたらどうか」と言うこともできます。基本的に理解する必要があるのは、それがエネルギーベースのモデルなのか、それとも償却されたVAE型のモデルなのかということです。
バックプロパゲーションをしているのか、それとも何か別のことをしているのか。
学習則は局所的なのか、それとも大域的なのか。これについてのいくつかのアイデアのレパートリーがあれば、コネクトームを、最終的にそれについての一貫した絵を持つのに役立つ膨大な数の追加の制約として考えてください。
操舵サブシステムについても同じように考えています。それについての非常に基本的なことです。
ドーパミン信号や操舵サブシステム信号、思考評価者などの異なるタイプはいくつありますか… 広いカテゴリーはいくつあるのでしょうか。
視床下部には皮質よりも多くの細胞タイプがあるという、この非常に基本的な情報でさえ、どこにどれだけの構造が構築されているかについての新しい情報です。ドーパミンニューロンはいくつありますか。
前頭前野と聴覚野の間の配線は、前頭前野と視覚野の間の配線と同じですか。
最も基本的なことさえ、私たちは知りません。
問題は、一連の特注実験によって最も基本的なことを学ぶだけでも信じられないほど長い時間がかかることです。
一方、コネクトームを取得することで一度にすべてを学ぶことは、はるかに効率的です。
研究のタイムラインと実用性
これのタイムラインはどうなっていますか。
おそらくこのアイデアは、まず、AIの開発を知らせることです。他の人がその内部思考パターンについてどう考えるかをAIに気にかけさせる方法を見つけたいのです。
しかし解釈可能性研究者は、通常のニューラルネットワークを検査するだけでこの質問について進歩を遂げています。何らかの特徴があるはずです… 存在する大規模言語モデルに対して解釈可能性研究を行うことができます。
脳のような仮説的なモデルベースの強化学習アルゴリズム、私たちがAGIを行うときに最終的に収束するであろうものに対して解釈可能性研究を行うことはできません。
それは公平です。しかし、この研究が実用的で関連性があるためには、AIにどのようなタイムラインが必要ですか。
AI 2027シナリオの場合、それはあまり実用的で関連性がないと言うのは公平だと思います。
ですから、今私がやっている科学は、10年後の科学に影響を与えることはありません。なぜなら、10年後の科学に影響を与えるのは、このAI 2027シナリオの結果だからです。
私がコネクトームを持っているかどうかはおそらくそれほど重要ではなく、おそらく特定のことをわずかに調整するだけです。
しかし、このパラダイムから多くを得られるかもしれないと考える理由はたくさんあると思います。
しかし、その後の本当のこと、全体の未来を変革する単一のイベントであるようなものは、まだ5年以上先だと思います。
それは、私たちが全方向的な推論を捉えていないため、心が意味のある方法で物事に注意を向けるための適切な方法を見つけていないからですか。
つまり、私はあなたのポッドキャストのすべての人とのコレクション全体を、これらのものの分布を示すものとして受け取ります。わかりません。カーパシーのタイムラインは何でしたか、そうでしょう。デミスのタイムラインは何ですか。
ですから、誰もが3年のタイムラインを持っているわけではありません。
しかしいろいろな理由があり、私はあなたのものがどれなのか興味があります。私のものは何ですか。わかりません、あなたのポッドキャストを見ているだけです。分布を理解しようとしているのです。
大規模言語モデルがそれをできないという強い主張はありません。
しかし核心はデータ効率なのか、それとも…
一部はそれが脳のすべてのものと奇妙に異なるということだと思います。直感的にそれは脳のすべてのものと奇妙に異なっており、私は脳のものにもっと似始めるものを待っているような感じです。
AlphaZeroとモデルベースの強化学習、そして10年前に取り組まれていたこれらすべての他のものが、GPT-5タイプの能力を私たちに与えていたら、私は「ああ、わあ、私たちは正しいパラダイムの中にいて、結果をアプリオリに見ている。だから私の事前確率と私のデータは一致している」と言うでしょう。
今は「データが正確に何なのかわからない。かなり良さそうだが、事前確率が奇妙なので、それについて超強い意見はない」という感じです。
ですから、本質的に他のすべての科学研究が何らかの形で時代遅れになる可能性があると思います。
しかし私はそれに大きな確率を置いていません。私のタイムラインはおそらく10年くらいの範囲にあると思います。
その場合、コネクトームをハードドライブに保存し、操舵サブシステムアーキテクチャの理解がある世界と、マウス対トガリネズミ対小型霊長類などの報酬関数、コスト関数、アーキテクチャなどの最も基本的な特性さえも比較した世界との間には、おそらく違いがあると思います。
これは10年で実用的ですか。
本当に大きな推進力が必要だと思います。どのくらいの資金、現在の状況と比較してどうですか。
非常に集中的な方法で、数十億ドル規模の低い資金です。そして今はどのくらいですか。
コネクトミクスで進行中のいくつかの具体的なことについて話すと… E11 Bioが私たちのコネクトミクスに関する主なものです。
彼らはコネクトミクスによる脳マッピングの技術を数桁安くしようとしています。
ウェルカムトラストは1、2年前にレポートを出し、マウスの脳1つ、最初のマウス脳コネクトームを取得するには数十億ドルのプロジェクトになるだろうと言いました。
E11技術、そして分野の一連の取り組みは、単一のマウスコネクトームを数千万ドルの低いところまで下げようとしています。それは哺乳類の脳です。人間の脳は約1000倍大きいです。
マウスの脳で1000万ドル、2000万ドル、3000万ドルに到達できれば、技術で、それを単純にスケールするだけで、人間の脳は今でも数十億ドルです。1つの人間の脳を行うだけで。それを超えることができますか。人間の脳を10億ドル未満で取得できますか。
しかし人間の脳のすべてのニューロンが必要かどうかはわかりません。
たとえば、マウスの脳全体と人間の操舵サブシステム、そして異なる社会的本能を持ついくつかの異なる哺乳類の脳全体を行いたいのです。
ですから、技術の推進と集中的な努力により、数億ドルから数十億ドル規模の低いところで、それが集中的な努力であれば、本当に重要な進歩を遂げることができます。
コネクトームの定義とアプローチ
コネクトームの定義は何ですか。おそらくそれはボトムアップの生物物理学モデルではありませんよね。
ですから、それは脳の入出力を推定できるということだけですか。抽象化のレベルは何ですか。
さまざまな定義を与えることができ、クールなことの一つは… コネクトミクスへの標準的なアプローチは電子顕微鏡と脳組織の非常に薄い切片を使用します。
基本的にはラベリングです。細胞膜が現れ、電子を多く散乱させ、他のすべてはあまり電子を散乱させません。
しかし分子の多くの詳細は見えません。どのタイプのシナプスか、異なる分子の組み合わせと特性を持つ異なるシナプス。
E11と分野の他のいくつかの研究は、光学顕微鏡パラダイムに切り替えました。
光学顕微鏡では、光子は組織を損傷しないので、洗浄して壊れやすい繊細な分子を見ることができます。
ですから、E11のアプローチでは、「分子的に注釈付けされたコネクトーム」を取得できます。
それは、誰が何らかのシナプスによって誰に接続されているかだけでなく、シナプスに存在する分子は何か、その細胞は何のタイプかということです。
分子的に注釈付けされたコネクトーム、それはシナプスの重みを持つことと全く同じではありません。
それはニューロンをシミュレートして、これらの分子と接続を持つことの機能的な結果は何かを言えることと全く同じではありません。
しかし、ある程度の活動マッピングを行い、構造と機能を相関させようとすることもできます。基本的には機械学習モデルを訓練して、コネクトームから活動を予測します。
ヒトゲノムプロジェクトからの教訓
ヒトゲノムプロジェクトから得られる教訓は何ですか。
それを見る一つの方法は、それが間違いであり、マッピングされた1つのゲノムを得るために数十億ドルを費やすべきではなかったということです。
むしろ、現在私たちが数百ドルでゲノムをマッピングできるようにした技術に投資すべきだったということです。
まあ、ジョージ・チャーチは私の博士課程の指導教官でしたが、彼は最初のゲノムが約30億ドル、塩基対あたり約1ドルだったと指摘しています。
その後、国立ヒトゲノム研究所は基本的に資金調達プロセスを正しく構造化しました。
彼らはコストを下げるために多くの企業を競争させました。
そして、マクロな化学技術から、顕微鏡上に小さなDNA分子のクラスターを作り、カメラの各ピクセルで一度に数個のDNA分子だけを見るこれらの個々のDNA分子にパラダイムを変えたため、コストは10年で100万分の1のように下がりました。それは異なる、並列な、DNAの異なる断片を見る方法を与えます。
ですから、物事を100万倍並列化するのです。それがコストを100万倍削減したものです。
電子顕微鏡から光学コネクトミクスへの切り替え、さらには将来のタイプのコネクトミクス技術でも、同様のパターンがあるはずだと考えています。
それがE11、Focused Research Organizationが、人間の脳をやろうと言ってそれをブルートフォースするのではなく、技術開発から始めた理由です。
新しい技術でコストを下げようと言ったのです。
しかしそれでもまだ大きなことです。
次世代の新しい技術でも、データ収集に数億ドルを費やす必要があります。
これは慈善活動、政府、投資家によって資金提供されるのでしょうか。
これは非常にTBDであり、文字通り今話している最中に進化しています。
コネクトミクス関連の企業が潜在的に形成されているという噂を聞いています。これまでE11は慈善活動でした。
国立科学財団は最近、FROに触発された、または関連するTech Labsへの呼びかけを出しました。私たちと一緒に実際にマウスの脳をマッピングするための技術ラボを持つことができ、それは非営利のオープンソースの枠組みの中で慈善活動と政府になるでしょう。
しかし企業はそれを加速できますか。会社の文脈でコネクトミクスをAIに信頼できる形でリンクし、そのための投資を得ることができますか。それは可能です。
つまり、これらのAIの訓練コストは非常に増加しています。
安全性に関することを理解するだけでなく、実際にそれを行うと、AIがどのように機能するかも分かるというストーリーを語ることができれば… これらのAI研究所に行って、「2030年の予想予算の100分の1をください」と言うべきです。
私は7、8年前に少し試してみましたが、あまり関心がありませんでした。今ならあるかもしれません。しかし、私たちが話してきたすべてのこと、話すのは本当に楽しいですが、最終的には推測です。
たとえば、脳のエネルギー効率の実際の理由は何ですか。
それは実際の推論をしているのか、償却された推論をしているのか、それとも何か別のことをしているのか。
これはすべて神経科学によって答えられます。
難しいでしょうが、実際に答えられるのです。
ですから、数十億ドルの低い額でそれを本当に包括的に解決できるだけなら、何兆ドルものGPUなどの壮大な計画の中で、実際にその投資を行うことは理にかなっているように思えます。
また、昨年立ち上げられた多くの研究所があり、彼らは十億の評価で資金を調達していますが、それはかなり信頼できるものの、「来四半期のARRは何になるか」というようなものではありません。
私たちは材料を発見しようとしている、そして…
そうです、ムーンショットスタートアップや億万長者に支援されたスタートアップです。
ムーンショットスタートアップはFROと連続していると見ています。
FROは慈善的支援をチャネリングし、それがオープンソースの公共利益であること、FROが持つ可能性のある他のさまざまなものであることを保証する方法です。
しかし、そうです、億万長者に支援されたスタートアップは、適切な科学、正確に適切な科学をターゲットにできれば。コネクトームを得ることは決してないであろうムーンショット神経科学企業を行う多くの方法があると思います。
それは「ああ、脳をアップロードしようとしている」とか何かですが、実際にマウスのコネクトームなどを得ることは決してありません。科学を真実として確定するために必要なこれらの基本的なことです。
ムーンショット企業が間違った方向に進み、実際の科学を行わない多くの方法があります。
しかし、企業や大企業の研究所が関与して実際にそれを正しく行う方法もあるかもしれません。
行動クローニングと脳データの活用
これは、あなたが5年前に行った講義で持っていたアイデアを思い起こさせます。行動クローニングを説明しますか。
実はこれは面白いことですが、このアイデアを最初に見たとき、Gwernのブログ投稿だったかもしれません。
いつもGwernのブログ投稿があります。
これを行おうとする学術研究の取り組みと、ある程度の新興企業タイプの取り組みが今あります。
通常、たとえば画像分類器を訓練しているとしましょう。
猫や犬などの写真を見せて、それらには「猫」または「犬」というラベルがあります。そして、「猫」または「犬」などのラベルを予測するはずのニューラルネットワークがあります。
それはラベルごとに入力している情報の限られた量です。それは単に「猫」か「犬」です。もし「猫を見たとき、または犬を見たとき、および他のすべてのものの私の神経活動パターンは何か」も予測したらどうでしょう。
それを補助的な損失関数または補助的な予測タスクとして追加すると、ネットワークが猫と犬について人間が知っている情報を知り、脳がそれを表現する方法と一致する方法でそれを表現するように形作られますか、これらのラベルを持つだけではなく、脳が物事を表現する表現的な次元や幾何学の種類は。
それはより良く一般化できるようになりますか。
より豊かなラベリングを持つことができますか。もちろんそれは本当に挑戦的に聞こえます。
ラベル付けされた猫の写真をたくさん生成するのは非常に簡単です。
Scale AIか何かがこれを行うことができます。やりたいことをAIに訓練するのに対応する脳活動パターンをたくさん生成するのは難しいです。
しかしまた、これは神経科学の技術的な制限に過ぎません。
すべてのiPhoneが脳スキャナーでもあれば、この問題はなく、脳信号でAIを訓練するでしょう。
技術が発展した順序が、私たちがポータブルな脳スキャナーを手に入れる前にGPUを手に入れたというだけです。
機械学習の類似物は何ですか、ここで行うことは。モデルを蒸留するとき、あなたはまだすべての対数確率の最終層を見ています…
あるモデルを別のモデルに蒸留する場合、それは特定のことです。
あるモデルを別のモデルにコピーしようとしているだけです。
脳を蒸留する完璧な提案は実際にはないと思います。
脳を蒸留するには、はるかに複雑な脳インターフェースが必要です。
それもできるかもしれません。代理モデルを作ることができます。アンドレアス・トリアスや彼らのような人々は、脳活動データのニューラルネットワーク代理モデルをある程度行っています。
視覚野に計算をさせる代わりに、代理モデルに行わせるだけです。
ですから、ある程度、視覚野をニューラルネットワークに蒸留しているのです。それは一種の蒸留です。
これは少し違うことをしています。
これは基本的に私が補助的な… 私はそれを正則化として考えるか、予測タスクを平滑化する補助的な損失関数を追加していて、常に脳がそれを表現する方法とも一致するようにしていると考えています。
それは敵対的な例などのようなことに役立つかもしれません。
しかし正確には何を予測しているのですか。脳の内部状態を予測しているのですか。
はい。ですから、ラベルを予測することに加えて、ラベルのベクトル、イエス猫、犬ではない、イエス、ボートではない、このシンプルな例では、イエス、それは猫です、他の何十億ものカテゴリーではないのワンホットベクトルのようなものです。
あなたはまた、これらすべての脳信号測定値であるベクトルを予測しています。
ですから、とにかくGwernは、ずっと前にこのブログ投稿を持っていました。「ああ、これは中間的なものです。私たちは全脳エミュレーション、AGI、脳コンピュータインターフェースについて話します。しかし、私たちはまた、あなたのすべての行動で訓練されたが、あなたの神経パターンのいくつかを予測することでも訓練されたこの脳データ拡張されたものについても話すべきです」。
そしてあなたは、学習システムは既に操舵システムを通じてこれを行っていると言っていますか。
そうです、そして私たちの脳、私たちの学習システムは、補助的なタスクとして操舵サブシステムを予測しなければなりません。それは操舵サブシステムを助けます。今、操舵サブシステムはその予測器にアクセスでき、それを使ってクールな報酬関数を構築できます。
Leanと形式数学証明の自動化
別の話題として、あなたはLeanの取締役会にいます。Leanは数学者が定理を証明するなどに使うこの形式的な数学言語です。
明らかに今、AIが数学を自動化することについてたくさんの会話があります。あなたの見解は何ですか。
まあ、数学の一部は自動化への道をかなり順調に進んでいるように思えます。まず第一に、Leanはマイクロソフトや他の場所で何年も開発されてきました。それはより多くのエンジニアリングと焦点を駆動するためのConvergent Focused Research Organizationsの一つになりました。
ですから、Leanは、ペンと紙で数学の証明を表現する代わりに、このプログラミング言語Leanで表現するプログラミング言語です。
そしてその最後に、そのようにすると、それは検証可能な言語なので、「検証」をクリックでき、Leanはあなたの証明の結論が実際にあなたの証明の仮定から完璧に導かれるかどうかを教えてくれます。
ですから、証明が正しいかどうかを自動的にチェックします。
それ自体で、これは数学者が協力するなどに役立ちます。
私が何らかのアマチュア数学者で、証明に追加したい場合、テレンス・タオは私の結果を信じるつもりはありません。しかしLeanがそれが正しいと言えば、それは正しいだけです。
ですから、協力が起こるのを容易にしますが、証明の正しさが強化学習における強化学習信号になることも容易にします。まさにRLHFです。形式化された数学証明、つまり形式化とはLeanのようなもので表現され、検証可能であることを意味します、は今機械的に検証可能です。
それは完璧なRLHFタスクになります。
私は、数学証明のRLHFを徹底的に行うという問題はうまくいくと思います。少なくとも1つの10億ドル評価の企業、Harmonicがこれに基づいているようです。AlphaProofはこれに基づいています。他にもいくつかの新興の本当に興味深い企業があります。
数学証明のRLHFを徹底的に行うというこの問題はうまくいくと思いますし、私たちはAlphaGoや何かがGoのゲームをプレイする方法を見つけるために検索できるのと同じように、証明を検索してそれらを見つけることができるものを持つことができるでしょう。
その検証可能な信号があれば、それは機能します。ではこれは数学を解決しますか。まだ新しい興味深いアイデアを推測することに関係する部分があります。
何が興味深いかという数学の概念的な組織化がまだあります。
そもそもどのように新しい定理の記述を思いつくのか。
あるいは証明を行うために使用する戦略の非常に高レベルの分解さえも。
私はこれが、人間が数学の機械的な部分の多くを行う必要がないように、その負担をシフトすると思います。
補題や証明を検証し、この論文のこの記述がその論文と完全に同じかどうかをチェックするなどです。それはうまくいくでしょう。本当に私たちが話してきたこれらすべてのものを得るつもりだと思うなら、本当のAGIも推測を行うことができるでしょう。
ベンジオには論文があります、より理論的な論文のようなものです。おそらくこれについての他の多くの論文が出てきているでしょう。良い説明や良い推測のための損失関数はありますか。それはかなり深い質問です。本当に興味深い数学の証明や記述は、たくさんの情報を圧縮し、他の多くの定理に対してたくさんの意味を持つものかもしれません。
そうでなければ、長く複雑な受動的推論を使ってそれらの定理を証明しなければならないでしょう。ここでは、この定理があり、この定理は正しく、他のすべてのものへの短い受動的推論があります。
そしてそれは短くコンパクトな記述です。ですから、それは数学の残りのすべてを説明する強力な説明のようなものです。
そして数学が行っていることの一部は、他のものを説明するこれらのコンパクトなものを作ることです。
それはこの記述のコルモゴロフ複雑性のようなものです。
そうです、これを知っていることを前提として、他のすべての記述を生成する、のようなものです。あるいはこれを追加すると、証明のネットワークの残りの複雑性にどのように影響するか。
ですから、「ああ、この証明を本当に高度に強力な証明にしたい」という損失関数を作ることができますか。
一部の人々はそれに取り組もうとしていると思います。創造性の部分を自動化できるかもしれません。
本当のAGIがあれば、人間ができるすべてのことをするでしょう。
ですから、創造的な数学者が行うこともするでしょう。
しかしそれはさておき、証明のRLHFを徹底的に行うだけで、それは数学者にとって本当に有用なツールになると思います。
それは数学を大幅に加速し、大きく変えるでしょうが、必ずしもすぐにそれについてのすべてを変えるわけではありません。
リーマン予想の機械的証明やそのようなものを得るでしょうか。多分、わかりません。これらのものがどれほど検索するのが難しいかについて十分な詳細を知らないし、誰もそれを完全に予測できるかどうか確信がないです、Goがいつ解かれるかを正確に予測できなかったのと同じように。
私はそれが多くの本当にクールな応用アプリケーションを持つと思います。ですから、やりたいことの一つは、証明可能に安定した、安全な、ハッキング不可能なソフトウェアを持つことです。
ソフトウェアについて数学の証明を書き、「このコード、それがこれらのユニットテストに合格するだけでなく、これらの方法でそれをハックする方法がないことを数学的に証明できます、またはメモリをいじる方法がない」、またはハッカーが使用するこれらのタイプのもの、またはそれがこれらの特性を持っていることを証明できます。
同じLeanと同じ証明を使って形式的に検証されたソフトウェアを行うことができます。私はそれが他のすべてのAIハッキングの世界のものに関連するサイバーセキュリティの本当に強力な部分になると思います。
そしてリーマン予想を証明できるなら、非常に複雑なソフトウェアについて非常に複雑なことも証明できるでしょう。
そしてLLMに「正しいと証明できるソフトウェアを合成してください」と尋ねることができるでしょう。
大規模言語モデルの結果として、証明可能なプログラミング言語がなぜ普及しなかったのですか。
それは始まっていると思います。一つの課題、私たちは実際にこれに関するFocused Research Organizationの潜在的なものをインキュベートしています、は仕様の問題です。
ですから数学者は形式化したい興味深い定理を知っています。電力網の運用に関わる何らかのコードがあり、それが何らかのセキュリティ特性を持っているとしましょう、まあそれらの特性の形式的な仕様は何ですか。
電力網エンジニアは単にこれを作りましたが、彼らは必ずしもその形式的な仕様をどのように持ち上げるかを知りません。
そして、あなたのコードに欲しい仕様を思いつくのは必ずしも簡単ではありません。
人々は形式的な仕様を思いつくことに慣れていませんし、それのための多くのツールがありません。
ですから、どのセキュリティ仕様を指定すべきかというユーザーインターフェースとAIの問題もあります。これは私が欲しかった仕様ですか。
ですから仕様の問題があり、それは本当に複雑で難しいだけです。
しかしそれはごく最近のことで、大規模言語モデルが数学者に役立つものの検証可能な証明を生成できるようになり、ソフトウェア検証、ハードウェア検証のためにもある程度それを行い始めることができるようになったのです。
しかし次の数年間のトレンドを予測すると、それは潮流を変える可能性があります。
形式的手法、この形式的手法または形式的検証、証明可能なソフトウェアの分野全体。それはプログラミング言語のより理論的な部分のこの奇妙なほとんど片隅で、しばしば非常にアカデミックな味わいです。
証明可能に安全なクワッドコプターヘリコプターなどを作ったこのDARPAプログラムがありましたが。
安全に対して… 正確に証明される特性は何ですか。
その特定のプロジェクトについてではなく、ただ一般的に。明らかに物事はあらゆる種類の理由で誤動作します。
あなたは、ユーザーがアクセスできるはずのメモリのこの部分で起こっていることが、ここのメモリで起こっていることに何らかの方法で影響を与えることはできない、などのようなことを言うことができます。そのようなこと。
ですから2つの質問があります。
一つはこれはどれほど有用かということです。
二つ目は、数学者として、どれほど満足できるか、です。
ソフトウェアが特定の特性を持っていること、またはハードウェアが特定の特性を持っていることを証明することへのこの応用があるという事実、それがうまくいけば、それは明らかに非常に有用でしょう。
しかし純粋な… 数学を解明するつもりですか。
ある構成が異なるドメインの別の構成に交差マップすることを見つけること、または「ああ、この補題、この用語を再定義すると、この用語で意味していたものをまだ満たす。しかし以前にそれを打ち倒した反例はもはや適用されない」ことを見つけることについての何かがあります。
数学で起こるそのような弁証法的なもの。
ソフトウェアはそれを置き換えるでしょうか。
そうです。この種の純粋数学の価値のどれだけが、問題について考える全く新しい方法を思いつくこと、それを全く異なる表現にマッピングすることから実際に来るのでしょうか。例がありますか。わかりません。少し、誰もがアセンブリコードを書かなければならなかったときのようなものと考えています。
作成された楽しくてクールなスタートアップの数は単に少なかったり何かです。
それを行うことができる人が少なく、進歩はより辛くて遅くて孤独などでした。
アセンブリコードについて何かを得られなかったために誤った失敗がより多くありました、あなたの概念が正しかったかどうかの本質的なことではなく。
協力するなどがより難しい。ですから、それは本当に良いことだと思います。
証明の機械的な部分を行うことを学ばないことによって、より概念的な部分、創造的な部分を知らせる直感を生成できないという心配があります。
アセンブリと同じです。そうです。それはどの時点で適用されますか。
バイブコーディングでは、人々はコンピュータサイエンスを学んでいないのか、それとも実際にバイブコーディングをしていて、同時にこれらの抽象的なコンピュータサイエンスの概念を彼らに説明しているLLMも見ていて、それはすべてただより速く起こっているだけですか。
彼らのフィードバックループはより速く、彼らははるかに多くの抽象的なコンピュータサイエンスやアルゴリズムのものを学んでいます、なぜなら彼らはバイブコーディングをしているからです。わかりません、それは明らかではありません。
それはユーザーインターフェースとその周りの人間のインフラストラクチャについての何かかもしれません。
しかし人々が機械を学ばず、したがって根拠のある直感を構築しない、または何かという心配があります。しかし私の予感は、それはネットで非常にポジティブだということです。
正確に、ネットでどれほど有用か、またはどれだけ全体的な数学の突破口、または私たちが気にする数学の突破口でさえも起こるか。わかりません。私がクールだと思うもう一つのことは、アクセシビリティの質問です。
オーケー、それは少し陳腐に聞こえます。
オーケー、ええ、より多くの人々が数学を行うことができますが、誰が気にしますか。
しかし興味深いアイデアを持つことができる人々がたくさんいると思います。
たとえば、重力の量子理論か何かのようなものです。
ええ、私たちの一人が、正式な物理学者の代わりに重力の量子理論を思いつくでしょう。スティーブ・バーンズが神経科学の文献を読んでいて、彼はあまり神経科学の研究室にいなかったのと同じように。
しかし彼は神経科学の文献を横断的に統合して、「ああ、学習サブシステム、操舵サブシステム。これはすべて意味をなしますか」と言うことができます。彼はある意味でアウトサイダーの神経科学者です。
数学がコンピュータによって彼らのために行われるので、アウトサイダーの弦理論家やそのようなものを持つことができますか。
そしてそれは弦理論により多くの革新をもたらしますか。多分そうです。
興味深い。オーケー、ですから、このアプローチがうまくいき、あなたが大規模言語モデルが最終的なパラダイムではないと正しく、最終的なパラダイムを得るのに少なくとも10年かかると仮定しましょう、その世界で。
あなたが… テレンス・タオが今日ツイートを持っていて、彼は「これらのモデルは自動化された賢さのようなものだが、自動化された知性ではない」と言っています。
そしてそこで定義について議論することができます。しかしもし自動化された賢さがあり、何らかのフィルタリング方法があれば、大規模言語モデルが言っていることを形式化し証明できるなら、それを行うことができるでしょう、量に質そのものの質があるというこの状況を持つことができるかもしれません。
では、世界のどのドメインがこの証明可能な記号的表現に置くことができるでしょうか。
AGIが超遠い世界では、大規模言語モデルがすること、またはほとんどすべてのことを文字通り超証明可能な記述に変えることが理にかなっているかもしれません。
ですから大規模言語モデルは互いに構築することができます、なぜなら彼らが行うすべてのことが超証明可能だからです。
これは必要かもしれません、なぜならあなたは何十億もの知性が走り回っているからです。
たとえ彼らが超知的であっても、未来のAGI文明が互いに協力できる唯一の方法は、各ステップを証明できる場合です。
彼らは単にブルートフォースで生み出しています… これはジュピターブレインがやっていることです。それは普遍的な言語で、証明可能です。
それはまた、「あなたは私を搾取しようとしているのか、それとも私の脳に効果的にハッキングしようとしている何らかのメッセージを私に送っているのか」という観点からも証明可能です。
あなたは私に社会的に影響を与えようとしているのですか。あなたは実際に私が必要とする情報だけを送っていて、これのためにそれ以上はありませんか。
ですから、今英国のARIAでプログラムディレクターであるdavidad、彼はARPAスタイルのプログラムの全体的な設計を持っています、証明可能な安全性特性を非常に活用する保護されたAIのようなものです。
証明を適用できますか…
世界モデルを持つことができますか。
しかしその世界モデルは実際にはニューロンの活性化だけで指定されていませんが、方程式で指定されています。それらは非常に複雑な方程式かもしれません。
しかしもし賢さで、自動賢さで、これらのものを自動証明するのが非常に得意になることができれば… 明示的に解釈可能な世界モデルを持つことができますか、ニューラルネットワークの世界モデルではなく、記号的手法に基本的に戻ることができますか、なぜならあなたは物事を証明する膨大な量の能力を持つことができるからです。
ええ、つまりそれは興味深いビジョンです。次の10年でそれが実現するビジョンかどうかわかりませんが、それについて考えるのは本当に興味深いと思います。
数学についてさえ、つまり、テレンス・タオは、個々の定理を証明できるかどうかについてではなく、ある程度のことを行っています。
すべての定理をまとめて証明し、それから証明された定理の集約セットの特性を研究しましょう。
どれが証明され、どれが証明されなかったか。オーケー、まあそれはすべての定理の風景です、一度に一つの定理ではなく。
記号的表現と言えば、尋ねようと思っていた一つの質問は、脳はどのように世界モデルを表現しますか。
明らかにニューロンでネットアウトしますが、極めて機能的に意味しているわけではありません。
概念的に意味しているのです。それはニューラルネットワークの隠れ状態に類似したものなのか、それとも記号的言語により近いものなのか。
わかりません。これについてはある程度の研究があります。
顔パッチニューロンのようなものがあり、幾何学的に興味深い方法で組み合わさる顔の特定の部分を表現します。
それは幾何学と視覚に関するものです。それは他のより抽象的なことにも当てはまりますか。
認知マップのこのアイデアがあります。
げっ歯類の海馬が学ばなければならないことの多くは場所細胞であり、げっ歯類が次にどこに行くか、そこで報酬を得るかです。それは非常に幾何学的です。そして、空間マップの抽象的なバージョンで概念を組織化しますか。
真の記号的操作ができるかという質問があります。
内容が何であれ、私の脳にある変数を別のレジスタにコピーするレジスタを持つことができますか。それがこの変数バインディング問題です。基本的にその機構を持っているかどうかわかりませんし、それともニューラルネットワークにもおそらく現れるであろう、それをおおよそ出現させるコスト関数とアーキテクチャのようなものですか。
これを研究しようとする、表現がどのように見えるかについての興味深い神経科学研究の束があります。しかしあなたの予感は何ですか。
ええ、私の予感は、それは巨大な混乱になり、アーキテクチャ、損失関数、学習則を見るべきだということです。そこがきれいであることを期待していません。
つまり、それは記号的言語タイプのものではないということですか。
ええ、おそらくそれほど記号的ではありません。しかし他の人々は非常に異なって考えています。
意識と経験についての疑問
バインディングと言えば、別のランダムな質問ですが、経験があるように感じるのは何なのでしょうか。
非常に異なるものをモデリングし、異なる動因を持つあなたの脳のすべての部分が、少なくともおそらく今起こっている経験があるように感じます。
また、時間を通じてあなたは… ええ、私はこれについてはかなり途方に暮れています。わかりません。マックス・ホダックが最近これについて講演をしています。
彼は別の本当にハードコアな神経科学の人、神経技術の人です。
私がドリスと言ったことも、この質問に触れているように聞こえるかもしれません。
しかしええ、誰もアイデアを持っているとは思いません。新しい物理学さえ含まれるかもしれません。
継続的学習とメモリ
これはまだ答えがないかもしれないもう一つの質問です。
継続的学習、それは学習アルゴリズムのレベルでさえ非常に基本的な何かの産物ですか。
あなたは「見てください、少なくとも私たちがニューラルネットワークでバックプロパゲーションを行う方法は、重みを凍結し、トレーニング期間があり、重みを凍結するということです。
ですから、継続的学習を行うためには、この能動的推論か他の学習則が必要なだけです」と言うことができます。
それともアーキテクチャと、メモリが正確にどのように保存されるか、基本的にどのような種類の連想記憶を持っているかについてのより多くの問題だと思いますか。
ですから継続的学習… わかりません。
アーキテクチャレベルでは、海馬が行っているいくつかの興味深いことがおそらくあります。人々は長い間これを考えてきました。
どのような種類のシーケンスを保存していますか。
どのように組織化し、表現していますか。どのように再生していますか。何を再生していますか。記憶の固定化は正確にどのように機能しますか。
海馬からの記憶の再生を使って皮質を訓練していますか、それとも何かそのようなことですか。おそらくそのようなことのいくつかがあります。
同時に短期情報を保存し、それでバックプロパゲーションも行うことができる、可塑性の複数のタイムスケールや賢い学習則があるかもしれません。
ニューロンはいくつかのことを行っているかもしれません:いくつかの高速重み可塑性といくつかのより遅い可塑性を同時に、または多くの状態を持つシナプス。つまり、わかりません。神経科学の観点から、何が継続的学習を引き起こすかについて超明確な何かを見たとは確信していません。おそらく海馬が皮質を固定化するというこのシステム固定化のアイデアを言うことを除いて。
一部の人々はそれがこれの大きな部分だと考えていますし、私たちはまだ詳細を完全に理解していません。
パラメータと活性化の区別
高速重みと言えば、ニューラルネットワークで見られるパラメータと活性化の区別に相当するものが脳にありますか。
具体的には、トランスフォーマーでは、活性化のいくつかは、時間の経過とともに構築する以前のトークンのキーと値ベクトルであるというアイデアがあります。
新しいトークンがあるときはいつでも、それらをこれらの活性化に対してクエリしますが、明らかにネットワーク内の実際の組み込まれた重みの一部である他のすべてのパラメータに対してクエリすることはできません。
類似したそのような区別はありますか。
わかりません。つまり、私たちは間違いなく重みと活性化を持っています。
これらの賢い方法で活性化を使用できるかどうか、脳内の実際の注意のような異なる形式… それは「私は注意を払おうとしている」に基づいていますか…
おそらく脳内にはいくつかの異なる種類の実際の注意があると思います。
私は視覚野のこの領域に注意を払いたいです。
私はこの領域の内容によってトリガーされる他の領域の内容に注意を払いたいです。単に反射などに基づく注意。
ですから、わかりません。皮質だけでなく、視床もあります。
視床もどういうわけか情報を中継またはゲーティングすることに関与しています。皮質-皮質接続があります。視床を通る皮質領域間のある程度の接続もあります。
これがある種のマッチングや制約満足やここのキーとそこの値の間のマッチングのようなことをしている可能性はありますか。
そのようなことができる可能性はありますか。多分。わかりません。
これはすべてこの皮質視床系のアーキテクチャの一部です。それがどれほどトランスフォーマー的か、またはその注意に類似したものがあるかどうかわかりません。見つけるのは興味深いでしょう。
研究への投資
私たちはあなたに10億ドルを与えなければなりません、そうすればあなたは再びポッドキャストに来て、脳が正確にどのように機能するかを教えてくれることができます。私は主にデータ収集をするだけです。
それは本当に偏りのないデータ収集なので、他のすべての人々がこれらの質問を解明できます。
多分最後の質問は、ギャップマップから学んだ最も興味深いことは何でしたか。多分あなたはギャップマップが何であるかを説明したいです。
私たちが資金を提供してもらっている、または今政府機関に資金を提供してもらっているこれらの非営利スタートアップのようなムーンショットであるこれらのFocused Research Organizationsをインキュベートし、思いつくプロセスで、私たちは多くの科学者と話しました。
科学者の一部は単に「これが私の大学院生が次にすることです。これが私が興味深いと思うことです。私たちが話してきたすべてのタイプのこれらの本当に興味深い仮説空間を探求することです」という感じでした。
彼らの一部は「これがこのギャップです。このインフラストラクチャが必要です。私の研究室の大学院生や、伝統的な助成金で他の研究室と緩く協力している私のどの組み合わせも、それを得ることは決してできませんでした。
ハッブル宇宙望遠鏡のミニチュア版を構築する組織化されたエンジニアリングチームを持つ必要があります。そのハッブル宇宙望遠鏡を構築できれば、ハッブル宇宙望遠鏡がボートを持ち上げ、すべての天文学者の生活を改善した方法で、私の分野の他のすべての研究者をブロック解除するか、技術的進歩の何らかのパスをブロック解除します」。
しかしそれは天文学の発見そのものではありませんでした。
ただCCDカメラ付きのこの巨大な鏡を宇宙に置き、それを行うためのすべての人々とエンジニアリングなどを組織化しなければならなかっただけです。
ですから、私たちが科学者と話したことのいくつかはそのように見えました。
ギャップマップは単にそれらのことの多くのリストで、私たちはそれをギャップマップと呼んでいます。実際にはそれは基本的能力マップのようなものだと思います。これらすべてのもの、ミニハッブル宇宙望遠鏡のようなものは何ですか。そしてそれから、人々がそれを理解したり検索したりするのを助けるためにそれをギャップに組織化しました。
最も驚くべきことは何でしたか。
私は以前これについて話したことがあると思いますが、一つはその全体的なサイズや形のようなものです。それは数百の基本的能力です。
ですから、これらのそれぞれがディープテックスタートアップサイズのプロジェクトであれば、それは数十億ドルに過ぎません。
これらのそれぞれがシリーズAであれば、それは単に… 科学のこれらのギャップを解決するために1兆ドルのようなものではありません。それよりも低いです。ですから、それが一つです。多分私たちはそれを仮定し、それが私たちが得たものです。それは本当に包括的ではありません。
それは本当に私たちが科学者と行った多くの会話を要約する方法に過ぎません。
集約プロセスでは、Leanのようなものが実際に驚くべきものだと思います。なぜなら、私は神経科学と生物学から始めたので、これらのオミクスがあることは非常に明白でした。
ゲノミクスが必要ですが、コネクトミクスも必要です。大腸菌をエンジニアリングできますが、他の細胞もエンジニアリングする必要があります。生物学的インフラストラクチャのやや明白な部分があります。数学証明インフラストラクチャが物であり、それを行おうとすることから創発的だったことに気づきませんでした。
ですから、それが実際にこの難しい知的問題を解決することではないという他のものを見るのを楽しみにしています。
それは多分AI研究者が単にGPUや何かと焦点と本当に良いPyTorchコードを必要としているだけで、これを始めることのようなものと少し同等です。
それを行うか行わないかの分野はどれですか。
ですから、何十億ドルもの投資があった分野は、それらのいくつかをまだ必要としていますか、それとも、それはより無視された分野だけですか。
私たちは実際の天文学、実際の望遠鏡で探求されていないいくつかの興味深いものさえ見つけています。
多分、臨界質量サイズのプロジェクトを超えると、本当に大きなプロジェクトを持たなければならず、それは連邦機関とのより官僚的なプロセスだからです。
最近は科学のすべての単一のドメインでスケールが必要だと思います。
そうです、私は科学の多くのドメインでスケールが必要だと思います。
それは低スケールの仕事が重要ではないという意味ではありません。創造性、セレンディピティなど、そして各学生が大学で見られる完全に異なる方向や論文を追求することも本当に重要ではないという意味ではありません。
しかし科学の本質的にすべての領域で、数学さえも、ある程度のスケーラブルなインフラストラクチャが欠けていると思います、それはクレイジーです。
数学者はホワイトボードだけが必要だと思っていたからです、しかし彼らは実際にLeanが必要です。
彼らは実際に検証可能なプログラミング言語などが必要です。それは知りませんでした。
素晴らしい。アダム、これは超楽しいです。来てくれてありがとうございます。
どうもありがとうございました。光栄です。人々はあなたのものをどこで見つけることができますか。
光栄です。最も簡単な方法は今… 私のadammarblestone.orgウェブサイトは現在ダウンしていると思います。しかしconvergentresearch.orgは私たちがやってきたことの多くにリンクできます。そしてあなたは素晴らしいブログ、Longitudinal Scienceを持っています。
Longitudinal Science、はい、WordPressで。
素晴らしい。どうもありがとうございました。光栄です。


コメント