マックス・テグマーク |超人AI、未来のアーキテクチャ、人間存在の意味について

AIに仕事を奪われたい
この記事は約27分で読めます。
Max Tegmark: The coming AI revolution and the question no one can ignore
MIT physicist and AI researcher Max Tegmark shares his bold perspective on the promises, risks, and mysteries at the hea...

私は10代の頃、ユーランのブロンマで2本のリンゴの木の間のハンモックに横たわっていた時のことを覚えています。その時、大きな疑問や神秘について考えるのが大好きだと気づきました。私はいつも、最大の2つの謎は、外にある宇宙と、ここにある宇宙、つまり知性と心だと感じていました。そのため、私のキャリアを通じて、まず外の宇宙から始めてたくさん研究し、それから人工知能と神経科学にワクワクして、過去8年間MITでそれを研究してきました。
今はとてもクレイジーでワクワクする時代です。たった4年前、私の同僚の多くは、ChatGPT-4のように賢いものは数十年先だと考えていました。なぜなら、脳の仕組みを理解するまで、機械に言語や人間の知識をマスターさせることはできないと考えていたからです。でも、実際にはもっと簡単な方法で考えの良い機械を作ることができました。

  1. これは、飛行機の状況によく似ています。1900年代には、誰かが「機械式の鳥を理解するまで、飛行機を作ることはできない」と言ったかもしれません。しかし、それは完全に間違いでした。鳥よりもずっと速く飛ぶことができる機械を作る、もっと簡単な方法があったのです。
  2. トランスフォーマーは、AIの真空管として記憶されるでしょう。真空管は、電子計算機を本当に作ることができた最初の技術でしたが、その後もっと良いものが見つかりました。私は、数年以内に現在のものよりもずっと優れたAIアーキテクチャが見つかると確信しています。それによって、同じことをもっと少ないデータ、もっと少ない電力、もっと少ない電気使用量で行えるようになるでしょう。
  3. 2024年は、おそらくエージェントの年として記憶されるでしょう。最初は純粋にソフトウェアのエージェントがインターネット上で見られ始め、徐々により多くの物理的なエージェントも見られるようになるでしょう。
  4. 私の予測は、実際、今は飛行機格納庫ほどの大きさの巨大なデータセンターを建設し、その隣に原子力発電所を置いてパワーを供給する必要があるようですが、これは一時的なものだということです。私たちは本当に貧弱なソフトウェアアーキテクチャを、この途方もない量のハードウェアとトレーニングデータで補っているのだと思います。この山を乗り越えれば、はるかに少ないハードウェア、はるかに少ないエネルギー、はるかに少ないトレーニングデータですべてできることに気づくでしょう。

これは、飛行機の状況によく似ています。1900年代には、誰かが「機械式の鳥を理解するまで、飛行機を作ることはできない」と言ったかもしれません。しかし、それは完全に間違いでした。鳥よりもずっと速く飛ぶことができる機械を作る、もっと簡単な方法があったのです。

今日のLLMを動かしているトランスフォーマーは、脳と比べると信じられないほど単純です。私たちは謙虚であるべきで、何かがすぐにはできないと自信を持って言うべきではありません。私たちが気づいていない、もっと簡単な方法があるかもしれないのです。
宇宙論の考え方は、あなたのAI研究にどのような影響を与えましたか?
それらの考え方は、常に大局を見るように影響を与えました。今日、特に若い人たちは、人工知能と人工ニューラルネットワークをほぼ同じものと考えています。中には、AIとトランスフォーマー(ChatGPTを動かす特定の種類のニューラルネットワーク)を同じものと考える人もいます。しかし、それは狭い見方すぎると思います。

トランスフォーマーは、AIの真空管として記憶されるでしょう。真空管は、電子計算機を本当に作ることができた最初の技術でしたが、その後もっと良いものが見つかりました。私は、数年以内に現在のものよりもずっと優れたAIアーキテクチャが見つかると確信しています。それによって、同じことをもっと少ないデータ、もっと少ない電力、もっと少ない電気使用量で行えるようになるでしょう。

脳は次のトークンや次の単語の予測以外のことをしていると思いますか?
確かにそうです。例えば、私たちの脳は「再帰型ニューラルネットワーク」と呼ばれるもので、情報がループ状に流れています。トランスフォーマーにはループがありません。これは非常に興味深いことです。なぜなら、意識、つまり色や音、愛などの主観的な経験の原因についての詳細な理論の1つは、そのためにはループが必要だというものだからです。
もちろん、再帰型ニューラルネットワークも訓練できます。今日のトランスフォーマーよりも優れた新しいAIアーキテクチャは、おそらくトランスフォーマーが使っていない脳のいくつかの追加的な要素を組み合わせたものになるでしょう。
人間の脳は、多くの場合、今日の大規模AIシステムよりもはるかに少ない例から学習します。私たちはずっと少ない訓練データを必要とします。何百万ワットもの電力を使用するデータセンターが建設されているのを見ますが、あなたの脳は20ワットです。明らかに、脳からもっとアイデアを得ることができます。しかし、脳がどのように機能するかを完全に理解する必要はありません。
脳が進化によって最適化された時、生物学的なコンピューターを自己組織化し、周期表の最も一般的な原子だけを使用して発展させるという制約がありました。これは、エンジニアが気にしない本当に奇妙な制約です。一方で、単純で理解しやすくする必要はありませんでした。エンジニアとしての私たちは、そこで制限されがちです。
これらのモデルにもっと推論させるために必要な欠けている要素は何だと思いますか?
簡単な答えは出せません。なぜなら、私にも、他の誰にもわからないからです。しかし、AIの歴史を非常に大まかに2つの段階に分けて考えると、第1段階は古典的なAI(GOFAI)で、シンボリックな論理ベースのシステムでした。第2段階は、古いものをほぼ完全に打ち負かした自己学習型ニューラルネットワークです。
これによって、ニューラルネットワークの方がより優れているように思われがちですが、私たちの周りの動物の世界を見てみると、実際には逆のようです。猫や犬、鷲は、しばしば私たちよりも優れた視覚システムや嗅覚システムなどを持っています。
人間の特別なところは、鷲よりも視力が良いことではありません。私たちはシンボルで推論し、人間の言語や数学の言語、プログラミング言語でコミュニケーションを取ることができることです。そして、古いAIと新しいAIをシームレスに組み合わせることができます。
私は、超人間的なAIへの道も同様だと考えています。人々は、これらの強力な新しいシステムを、より多くのシンボリックな技術と統合する方法を見つけ出すでしょう。それは、私たち人間がやっているのと少し似た方法です。
これらのモデルが示す類推能力について、どう思いますか?特に、全く異なる領域間で転移学習を行う能力は興味深いですね。
はい、これは私のAI研究グループで多く取り組んでいるテーマです。8年前、物理学から機械学習に転向し、このオフィスでまさにこの質問について多く話し合いました。どのようにしてこれらの類推が発見されるのか、機械学習システムがある領域で学んだことを他の領域に一般化する方法について議論しました。
最近、私たちはこれに関するいくつかの論文を発表しました。それは非常にクールなもので、すべてパターンの発見に関するものです。ニューラルネットワークはパターンの発見が非常に得意です。大量のデータを与えると、パターンを見つけ始めます。
例えば、大規模言語モデルがインターネット上のすべてのテキストを読み、それらの場所を2次元空間、つまり地図で表現する方が理にかなっていると気づくようなものです。地図の画像を見たことがなくても、です。
私たちはLlama 2の内部を調べた論文を書きましたが、そこには文字通り地図が存在していて、ストックホルムがここにあり、イェーテボリがあそこにあるというように表現されていました。
いったんこのように表現できると、訓練データに含まれていなかった質問にも答えられるようになります。例えば、「ヨーはカトマンズの西にありますか?」という質問です。おそらくこの質問自体は見たことがないでしょうが、地図を持っているので、他の質問に答えるためにこのように表現したのです。そして今、これらのことを理解できるようになりました。
翻訳の場合も同じようなことが見られます。最近、ある論文で興味深い研究がありました。英語のテキストを読んで得た英単語の単語埋め込みと、イタリア語のテキストを読んで得たイタリア語の単語埋め込みを取り、これらをどのように回転させたり移動させたりすれば一致するかを調べました。そして、かなり良い英語-イタリア語辞書を得ました。これらのパターンを一致させただけです。
私は、これらのAIシステムが多くの幾何学的パターンを学習していると考えています。これが、しばしば一般化でき、訓練されたことのない全く新しい質問に答えられる主な理由の1つです。
これらのモデルが現在の人間の知識を超える方法のようですね。非常に異なる分野間で類推を行うことができ、人間にとっては不可能だったようなことができます。賢い人でも全ての人間の知識をマスターするのは難しいですが、これらのモデルはそれができるだけでなく、短期記憶にも収めることができるようです。コンテキストウィンドウを使って。これらのモデルが現在の人間の知識を超えて、はるかに先に進む能力についてどう思いますか?
はい、それは間違いなく起こると思います。もし私たちが単にインターネット上のすべてのものと、あらゆる言語で書かれたすべてのものを読んで、それを頭の中に留めておくことができたら…申し訳ありませんが、私たちにはそれはできません。私たちもたくさんのパターンを見つけるでしょう。
これらのモデルのトレーニングに取り組んでいる同僚と話すと、彼ら自身もかなりショックを受けていると言います。「なんてこと、このシステムは英語から中国語に翻訳できる。そんなことを教えたわけではないのに」とか、「なんてこと、Pythonでコードを書ける。どうやってそれを理解したんだろう」といった具合です。
2024年には、基本的な知識だけでなく、ツールの使用に関するパターンや関連性を見出すことが多くなると思います。現在、これらのLLMは通常、新しい単語や単語の一部をトークンとして出力しますが、人々は計算機やその他のツールに対するコマンドを出力するオプションを与えることができると気づき始めています。
これは、私たち人間が日常的に行っていることです。例えば、運転している時、スライドはほとんどあなたの体の延長のようになります。これは、大規模言語モデルの本質的な弱点の多くを克服し始める可能性があります。古典的なAIシステムには非常に強力なツールを作ることができるので、LLMがそれらを使用することを学べば、両方の長所を得ることができます。
これは、ロボットを構築する場合にも非常に強力です。自動運転車のような車輪のあるロボットであれ、より人型のロボットであれ、基本的には大規模言語モデルによってある程度制御することができます。そして、一部のトークンと出力が単にモーターコマンドなどになります。
これらのモデルをどのように見るべきだと思いますか?最初は言語モデルでしたが、今ではますますマルチモーダルになっています。世界の知識の圧縮、トークン予測器、あるいはこれらのモデルの現状を見る正しい方法は何でしょうか?
それはかなり多様です。今何が起こっているかを正確に分類しようとするよりも、これがどこに向かっているかのエンドポイントを見る方が簡単かもしれません。
エージェントを構築するための巨大な商業的圧力があります。従来のLLMはオラクルのようなもので、質問をすると答えを返すだけです。しかし、情報を取り込み、何らかの目標を達成するためにどのような行動を取るべきかを理解し、それを実行するエージェントには非常に大きな商業的価値があります。

2024年は、おそらくエージェントの年として記憶されるでしょう。最初は純粋にソフトウェアのエージェントがインターネット上で見られ始め、徐々により多くの物理的なエージェントも見られるようになるでしょう。

これはもちろん多くの目的において素晴らしいことかもしれませんが、明らかに注意深く扱う必要があります。多くの自律システムが世界で行動するようになると、単なる新しい技術、例えば電気のようなものというよりも、新しい種のように感じ始めるからです。
新しい科学の発見のペースを大幅に加速できると思いますか?そしてもしそうなら、それは世界にとってどのような意味を持つでしょうか?
それは素晴らしいことかもしれません。私は、知識の成長を加速させ、それを広く誰もが利用できるようにするというあなたの会社のビジョンが本当に好きです。これは、地球上の生命の歴史の中で最もクールなことの1つだと思います。私たちは、非常に無力で、30年の平均寿命しかなく、何が起こっているかについてほとんど何も知らない状態から、数千年かけて科学を発展させ、まず実際に何が起こっているかについてより知識を持ち、その知識を通じて技術を開発し、私たちの運命をよりコントロールし、自分たちの船の船長になれるようになりました。
私はこれを非常に称賛しています。AIシステムが非常に深い洞察と非常に広い知識を持つことができれば、明らかに教育を革命的に変えることができます。私の仕事は研究者としての仕事だけではありません。このオフィスで最も時間を費やしているのは研究ですが、教育者としての仕事も非常に重要です。
私にとって、何かを教え始める前に常にしなければならないのは、それについて本当に深い理解を持つことです。学生が後で必要とする以上の深い理解が必要です。そしてそれによって、学生の理解度も把握する必要があります。彼らが既に知っていることと知らないこと、そして彼らの誤解についても理解する必要があります。これもAIがより良くできるようになるでしょう。
そして最後に、この知識を伝える最も役立つ方法は何かという問題に取り組むことができます。どこから始めるべきか、どのような比喩や類推が効果的か、そしてどのように提示すれば彼らがさらに学ぶ意欲と好奇心を持ち続けられるかということです。AIは本当に教育を広い意味で革命的に変える助けになると思います。
私は確かに、何かの本当の専門家と話をして、その人が私に時間を割いてくれて、私にとって理解できる方法で質問に答えてくれるというアイデアが大好きです。それは、この大学で働く上での大きな喜びの1つです。もし人間だと思わせるほど十分に優れた言語と知識を持つAIシステムがその役割を果たし、私が本当に理解できる方法で物事を教えてくれるなら、それは素晴らしいことだと思います。
歴史的な推論の1つの前提は、それらが自己改善するということでした。現在のこれらのモデルの状態は、大量の計算リソースを購入し、6ヶ月間トレーニングする必要があります。これらのクラスターを実行する際には、多くの小さな問題が発生します。現在のトレンドを考えると、どのようにして「逃走速度」に達することができると直感的に考えますか?現在、それらは本当に自己改善していないからです。
今すぐに自己改善しないから、突然自己改善し始めて、ブーンと特異点が来るというように考えるのは間違いだと思います。それは徐々に移行していくのです。技術は常に自己改善してきました。私たちは常に昨日の技術を使って明日の技術を構築してきました。だからこそ、生産性や技術のほとんどの指標で指数関数的な成長が見られてきたのです。
しかし、私たちが見ているのは、この指数関数的成長の中で、2倍良くなるのにかかる時間がどんどん短くなっているということです。世界のGDPや技術のほとんどの指標を時間軸で見ると、実際には指数関数よりも速く成長しています。
今日、あなたの会社には多くのコーディングを行う人がいるはずです。彼らは何らかの形でオートパイロットを使用しているでしょう。それが彼らの生産性を2倍にしているのか、1.5倍にしているのか、3倍にしているのかはわかりませんが、これは既にAIがAI開発をより速くするのを可能にしている例です。
つまり、これは一種の再帰的な自己改善ですが、まだ人間がループの中にいるのです。ただし、時間とともに、ループの中の人間はどんどん少なくなっていきます。以前、スウェーデンではほとんどすべての人が農業のループの中にいました。今では1%程度です。同様に、ソフトウェア開発でも、徐々に人間の数は少なくなっていくでしょう。
今日の自動車工場を見ると、50年前と比べて1台の車を生産するのに必要な人間の数ははるかに少なくなっています。私はそのようになっていくと思います。ループの中の人間の数がどんどん少なくなっていき、ある時点でループの中に人間がいなくなるかもしれません。そうなれば、物事はさらに速く進むでしょう。でも、その接近に気づき始めるでしょう。
なぜあなたは人間に対して、AIモデルと比べてそんなに強いバイアスを持っているのですか?
それは私が人間だからです。私には愛らしい1歳のレオがいます。彼の目を見つめると、もちろん彼は私の息子なので、何かのランダムな機械よりも彼に対してより忠実であるべきだと感じます。私たち人間は集団的にAIの構築を始めることができました。だから、私たちにはどのような未来を構築するかについて影響力を持つ権利があると思います。私は人間チームの側にいます。機械チームの側ではありません。私たちは機械が私たちのために働くようにしたいと思います。その逆ではありません。
2015年のAI安全性会議の素晴らしい写真を見ました。そこに誰がいて、何について話し合ったのか教えていただけますか?
ああ、それは本当に楽しかったですね。今や10周年に近づいています。私は大きく考えるのが好きなので、AIを良いことに使うためにはどうすればよいか、主要なプレイヤーたちと対話を始めることが本当に重要だと感じました。
2014年の状況は完全に機能不全でした。一方では、人間よりも賢いAIを構築し、それをコントロールできなくなることを心配する小さなグループがありました。他方では、大企業や学術界でAI開発を実際に推進している人々がいました。彼らは心配している人々と一度も話したことがなく、「彼らは変わり者の集まりだ。無視した方がいい。資金調達に悪影響を与えるかもしれない」と感じていました。
私は、彼らを実際に一緒に集めようというビジョンを持ちました。スウェーデンは、ノーベル賞の祝宴からより非公式なものまで、良いパーティーを開くのが不思議なほど得意です。そこで私は全力を尽くして人々を誘いました。
スウェーデンではなく、1月のプエルトリコで開催することにしました。招待状を送る際、雪の中から車を掘り出している人の写真をホテルのビーチの隣に置いて、「2015年1月、どちらにいたいですか?」と書きました。
最初に最も有名な人々に声をかけ、彼らを説得できると思いました。そして彼らが来ることが決まると、スウェーデンの雪だるまのように坂を転がり落ちて、さらに多くの人を集めることができました。
最終的に素晴らしい人々が集まりました。DeepMindのCEOであるDemis Hassabisや、Elon Musk、学術界のトップの教授たち、そして心配していたトップの人々、Eliezer YudkowskyやNick Bostromなど多くの人々が参加しました。
彼らが互いに殺し合わないようにするために、たくさんのワインを用意し、とても楽しい雰囲気にしました。結果的に私はとても満足しました。全員が集まり、「はい、リスクは本当に存在します。それに対処しましょう」という声明に署名しました。「AIをより強力にするだけでなく、安全で透明性があり、制御可能にする研究もしましょう」と。
Elon Muskは「わかった、1000万ドルを提供しよう。これに取り組む多くのオタクたちのための助成金プログラムを始めよう」と言いました。そこで私たちはそれを立ち上げ、すぐにAI安全性について話すことがタブーではなくなりました。技術的なAI会議でも、基本的にこれらのトピックに関するオタクセッションが始まりました。
これによって、私は非常に少数の人々でも大きな違いを生み出せることがあると気づきました。多くの場合、起こるべきことが起こらないのは、単に傍観者効果のためです。これは、この話を聞いている人たちへのメッセージでもあります。新しいスタートアップのアイデアや新しい社会運動、何かを思いついたら、「もし可能なら他の誰かがすでにやっているはずだ」と思わないでください。他の誰も本当に一生懸命試していないかもしれないのです。
会議で人々が最も意見を異にしたことは何でしたか?
人間よりも賢い超AIができるまでにどのくらい時間がかかるかという予測に大きな違いがありました。また、それが恐らく大丈夫か素晴らしいものになるか、あるいは恐らく悪いものになるかについても大きな意見の相違がありました。
しかし、ほぼ全員が、それが起こる可能性があり、すぐに起こる可能性があることに同意しました。そのため、謙虚さを持って、いくつかの予防措置を取ることは理にかանっています。人類が絶滅する可能性が非常に低いと考えている人々でさえ、家に火災保険をかけるのと同じです。それは家が燃えると思っているわけではありません。ただ、念のために少し準備しておくのはなぜ悪いでしょうか。煙探知機を設置し、消火器を手元に置いておくのと同じです。
現在、より大きなモデルを訓練し、より強力にするために莫大な金額を使っていることを考えると、リスクに懐疑的な人々にとっても、これらのシステムを安全にする方法を見つけ出すためにもかなりの金額を使うのは理にかなっていると言えるでしょう。
あなたのオフィスにある最高の箱は「バナナの箱」ですね。AIに関して、私たちが十分注目していない、しかし機能する可能性のある最もクレイジーなアイデアは何だと思いますか?
AIに関して特に言えば、私たちが十分注目していない本当にクレイジーなものがあるとすれば、それはおそらくアーキテクチャ設計について小さすぎる考え方をしているということです。トランスフォーマーを見て、小さな調整について考えているだけかもしれません。しかし、完全に異なるタイプのアーキテクチャがあるかもしれません。
コンピューティングの歴史を見ても、アーキテクチャに大きな飛躍がいくつもありました。最初、Alan TuringやCharles Babbageなどは機械式コンピューターについて考えていました。そこから電子式のものに移行するのは大きな変化でした。ENIACなどです。
私が10代の頃、最初にコーディングを学んだ時のコンピューターは、再び全く異なる計算のパラダイムでした。すべてをプログラムし、機械語にコンパイルするものでした。それは、自分で学習するニューラルネットワークとは全く異なります。
私たちの脳、つまり生物学が生み出した解決策は、再び非常に異なっています。一歩下がって、「大きな原子の塊を与えられたとして、本当に賢くなるためにこれらをアレンジする最良の方法は何か」と考えてみてください。私たちがまだ全く考えていないものかもしれません。
素晴らしいことは、私たちがますます強力なAIを手に入れ、AIを使ってさらに優れたAIを作る方法を見つけ出せるようになれば、おそらくそれらの本当に賢いことを発見するだろうということです。

私の予測は、実際、今は飛行機格納庫ほどの大きさの巨大なデータセンターを建設し、その隣に原子力発電所を置いてパワーを供給する必要があるようですが、これは一時的なものだということです。私たちは本当に貧弱なソフトウェアアーキテクチャを、この途方もない量のハードウェアとトレーニングデータで補っているのだと思います。この山を乗り越えれば、はるかに少ないハードウェア、はるかに少ないエネルギー、はるかに少ないトレーニングデータですべてできることに気づくでしょう。

これらのモデルの以前の設計で専門家の混合(mixture of experts)などを使用していなかったのは非常に不合理ですし、データセットを十分に整理していなかったことも同様です。あなたが見た中で最も有望な新しいアーキテクチャで、もっと探求すべきだと思うものは何ですか?
LLMによるツールの使用について言及しましたね。より一般的に言えば、足場(scaffolding)が非常に有望だと思います。LLMを、より大きなアーキテクチャの中の1つのコンポーネントとして考えるのです。
残念ながら最近90歳で亡くなったDaniel Kahnemanは、人間の脳のシステム1とシステム2について話していました。システム1は速い思考、直感的な思考で、ニューラルネットワークによく似ています。システム2は、より論理的でシンボリックな推論で、スウェーデン語や英語、数学、Pythonを話すことを可能にします。
将来、トランスフォーマーなどのニューラルネットワークがシステム1だとすると、それがより大きなアーキテクチャの一部になり、より賢いデータベース構造、あらゆる種類のツール、ループ、その他の様々な技術を可能にすると想像できます。このような足場を持つニューラルネットワークは、今日のシステムよりもはるかに強力になる可能性があります。
基礎となるモデルアーキテクチャを変更する必要があると思いますか?それとも、現在のモデルの上に置かれたヒューリスティックでよいのでしょうか?思考の連鎖(Chain of Thought)や類似のアプローチで、既に現在のモデルの上に推論を追加しているのを見ていますね。トークンの出力を始めるとすぐに止めるのではなく、計画を立て、再帰的に推論させるようにしています。
はい、既にそのようなことがより多く見られるようになっています。例えば、最近発表されたQuiet-STaR論文の過激な解釈をすると、ニューラルネットワークに1つのトークンを出力させて、考えていることすべてを言わせるのは愚かだということです。それは、あなたが話す時の操作方法ではありません。次の単語を言うことを決める前に、いくつかの思考を持つことがあります。
Quiet-STaRアーキテクチャはより多くのその自由を持っており、はるかにはるかに良いパフォーマンスを示しています。しかし、これは単にアーキテクチャを少し変更することで大きな改善を生み出せるほんの小さな例です。次の1、2年でさらに大きな改善が見られると確信しています。
Max、あなたは象徴的回帰(symbolic regression)に関して本当に興味深い研究を発表しましたね。最新の状況はどうですか?
私のグループで焦点を当てている技術的研究は、インテリジェントな何かを行っているブラックボックスAIシステムを取り上げ、それがどのように機能するかを理解するプロセスを自動化することです。これにより、そのシステムがどれだけ信頼できるかを見極め、希望的にはさらに信頼性を高めることができます。
最も単純な例は、データから何らかの方法で学習した関数を計算しているニューラルネットワークがある場合、それが実際に学習した公式が何かを理解するタスクです。これは象徴的回帰と呼ばれます。このポッドキャストを聞いているオタクたちのために言えば、線形の公式であれば単なる線形回帰で、超簡単です。しかし、窓際にある物理の公式のような複雑な公式の場合、一般的にNP困難だと考えられています。長さnの公式が指数関数的に多くあるため、宇宙の年齢よりも長い時間がかかる可能性があります。
しかし、私たちはこれで最先端のパフォーマンスを達成しました。物理学からのアイデアをたくさん使い、このニューラルネットワークが実際にモジュール化されていて、より小さな2つの異なる部分に分解できることを自動的に発見できました。実際に、多くの最も有名な物理の公式をデータだけから再発見することができました。
もし私たちがタイムマシンで過去に戻れたら、アインシュタインや他の人々のいくつかのクールな発見を先に発見できたかもしれません。最近では、オゾンに関する気候化学の新しい物理学の結果を発見し、実際に論文として発表しました。これは、これらのツールを使って科学を少し前進させた最初の例でした。
しかし、より広く言えば、最終的には任意のブラックボックスAIシステムを取り上げ、それが学習したアルゴリズムと本当に学習した知識を理解したいと考えています。
私たちの最新の論文では、約60の異なるアルゴリズムを取り上げ、これらのタスクを実行するようにニューラルネットワークを訓練しました。そして、自動化されたAIシステムを持ち、それが正確に何をしているかを理解し、Pythonコードに変換することができました。私たちはこれにとてもワクワクしており、現在これを大規模にスケールアップしています。より大きなシステムでも機能するかどうかを確認しています。
私のビジョンは、人々の生活に影響を与えるAIシステムがあり、高い信頼性が必要な場合、機械学習に学習をさせるのが良いアイデアだということです。それ以上の良い方法はありません。しかし、その後、学習したものをPythonなどに蒸留し、実際にコードが仕様を満たしていることを証明できるようにします。
私は基本的にこれが可能だと信じています。なぜなら、私たち人間にはできるからです。例えば、あなたが小さな子供の時、お父さんがテニスボールを投げたら、あなたは放物線の軌道を計算する方法を脳が理解していたので、それをキャッチできました。しかし、大人になると「これは放物線だ。y = ax^2という公式だ」と理解するようになります。
これは、科学者が一般的に最初に直感的に何かを理解する方法です。彼らは自分の脳がどのように機能するかを知らなくても、そしてその後、その知識を月へのロケットなどにプログラムできる形で抽出することを学びます。
私たちがこれですでにこれほど多くの進歩を遂げ、この分野が急速に成長していることは、実際にかなり希望を持たせてくれます。私はMITでこの分野、機械的解釈可能性と呼ばれる分野で、これまでで最大の会議を組織しました。これは、AIシステムを理解できないという考えに諦める必要はないということを示しています。本当に理解したいAIシステムについては、他のAIシステムを使って理解を助けることができると思います。
モデルはそれらの方程式を導出するのでしょうか、それともずっと単純なヒューリスティックを持つのでしょうか?例えば、私があなたにボールを投げる場合、あなたは正確な計算を行っているわけではなく、風やボールの大きさなどを考慮した非常に単純なヒューリスティックを持っているだけです。これらのモデルはどうすると思いますか?単純なヒューリスティックを持つのでしょうか、それとも実際に正確な方程式を組み込むのでしょうか?
私たちのシステムは実際に両方を行います。多くの形式を見つけ、複雑さを一方の軸に、不正確さを他方の軸にしたプロットに配置します。この場合、最も単純なものは空気抵抗が全くない放物線です。しかし、より複雑で正確なものも見つけることができます。
これは、私たち人間がそれを行う方法とよく似ています。時には単純なものだけが必要な場合もありますが、大局的に見れば、私はこの問題について、実際に信頼できるシステムを構築し、それについて何かを証明できるかどうかについて、あまりにも悲観的すぎたと思います。
人々は、解釈と証明のすべての作業を人間が行わなければならないと仮定するという間違いを犯してきました。しかし、AIシステムはそのような作業が非常に得意になってきており、私たちを助けることができます。
AIによって生成されたシステムと、AIによって生成された証明を、コードと証明の両方が読むには長すぎる場合、どうやって信頼すればいいのかと思うかもしれません。大丈夫です。干し草の山から針を見つけるよりも、それが針であることを証明する方が簡単だということがわかっています。正しいコードと仕様を満たす証明を見つけるのは、それが機能することを検証するよりもはるかに難しいのです。
あなたがしなければならないのは、実際にあなたの証明チェッカーを理解することだけです。これは300行のPythonで書くことができます。そして今、AIによって作られたいくつかの非常に強力なシステムを完全に信頼することができます。
大学にはたくさんの素晴らしい人々がいましたね。Douglas EngelbartがMarvin Minskyに出会った話があります。Minskyはコンピューターにさせる多くのことについてEngelbartに語り、コンピューターは推論し、意識を持つようになると言いました。それに対してEngelbartは「コンピューターのためにそれをすべてするつもりなんですね。人間のために何をするつもりですか?」と答えました。
こういった話や、Minskyやその他のOG(原始的な)AI研究者たちとの交流はありましたか?そして、AIという分野が進歩するにつれて、彼らの認識をどのように見ていましたか?
私が知っているトップAI思想家やビジネスリーダーのほとんどは、おそらく望むほど立ち止まって反省する時間がありません。例えば、会社を経営するのは大変です。私はこれをよく経験します。多くの人が「まず、これを機能させる必要がある。そして、これが社会にとって良いものになるようにする戦略を考えよう」というアイデアを持っていました。
そして、多くの人々は、ChatGPTやStable Diffusionなどが多くの人々の予想よりも何十年も早く登場したことに本当に驚かされました。「ああ、神よ、これについて今何をすべきだろうか」と。
私が最終的に見たいのは、これらの人々に少し時間を返すことです。潜在的に害を引き起こす可能性のある他のすべての技術を見てみると、それらすべてに対する解決策があります。飛行機や薬など、常に安全基準があります。
例えば、アストラゼネカが「がんを5で治す新しい奇跡の薬を開発しました。明日からEで販売を開始します」と言ってきたら、EMAは「臨床試験はどこですか?ああ、時間がなくて行えなかったのですか?臨床試験を行ってから戻ってきてください。そして、基準を満たしているかどうか確認しましょう」と言うでしょう。
これにより、関係するすべての人に時間が与えられます。企業には、これが社会にどのような影響を与えるかを理解するインセンティブができます。何パーセントの人々がこの副作用を経験するか、あの副作用を経験するかなど、非常にオタク的な方法ですべてを定量化します。そのおかげで、私たちはバイオテクノロジーを信頼することができるのです。だからこそ、最終的にアストラゼネカはかなり良い評判を持っているのです。
飛行機も同じ、車も同じ、基本的に害を引き起こす可能性のあるすべての技術で同じです。AIを除いては。ここアメリカでは、基本的に規制がありません。誰かがGPT-5を明日リリースしたいと思えば、そうすることができます。
私は、AIを他のすべての強力な技術と同じように扱うようになればなるほど、より良くなると思います。非常によくある誤解は、AIのあらゆる利益を迅速に享受することと、絶滅を避けることの間で選択しなければならないということです。
事実は、私が話す人々が興奮している99%のこと(あなたも含まれると思いますが)は、コントロールできない人間よりも賢いAIを構築することとは全く関係のない、かなり無害なものです。知識を広めたり、企業をより効率的にしたり、科学や医学で素晴らしい進歩を遂げたりすることができます。
もし私たちが、コントロールを失う可能性のあるものだけを少し遅らせるような安全基準を導入すれば、今後数年間、本当に豊かな時代を楽しむことができます。医療や教育、そして他の多くの分野で革命を楽しむことができ、これがすべて崩壊するのではないかと心配する必要はありません。
そして最終的に、さらに強力なシステムが安全基準を満たすことが確認できれば素晴らしいです。少し時間がかかっても構いません。私たちは急ぐ必要はありません。これを正しく行えば、生命は何十億年も繁栄することができるのです。だから、1年早く手に入れるためにすべてを台無しにするリスクを冒す必要はありません。
あなたは歴史マニアですね。歴史上、これに最も類似した発明は何だと思いますか?同じような動きをすると考えられる歴史的な発明から学べることはありますか?
はい、1942年にエンリコ・フェルミがシカゴのフットボールスタジアムの下で世界初の原子炉を建設しました。物理学者たちがそのことを知ったとき、彼らは完全にパニックになりました。なぜでしょうか?その原子炉が本当に危険だと思ったからではありません。それはとても小さく、エネルギー出力も低かったのです。
彼らが気づいたのは、これで原爆までわずか数年だということでした。そして3年後、広島と長崎で実際に起こりました。これには良い類似点があります。
その頃、1951年にアラン・チューリングは「いつか機械は人間と同じくらい賢くなり、それからすぐに人間よりもはるかに賢くなるだろう。なぜなら、私たちは生物学的なコンピューターで、機械がはるかに優れたことをする理由はないからだ」と言いました。そしてデフォルトでは、私たちは機械のコントロールを失うでしょう。
でも、炭鉱のカナリアのような警告を与えましょう。機械が言語と知識に十分に長けて、多くの人々を人間だと思わせるほど騙せるようになったら、それが近いということです。それがチューリングテストです。そうなったら、エンリコ・フェルミの瞬間です。数年しかないかもしれません。
昨年、世界で最も引用されているAI研究者の一人であるヨシュア・ベンジオでさえ、GPT-4がチューリングテストに合格したと主張しました。チューリングテストに合格したかどうか、来年合格するかどうかについて議論することはできますが、私たちはおおよそAIのエンリコ・フェルミの原子炉の段階にいるのです。
大きなことがすぐに起こるということを真剣に受け止め、準備をする時が来ています。正しく行いましょう。
最後の質問です。ここであなたのキャンパスで20年後に会ったとして、最良のシナリオは何だと思いますか?
最良のシナリオは、私たちがまだ生きていて、幸せで、人間がまだこの惑星を支配していることです。ただし、飢餓はなく、戦争もなく、気候問題も解決されています。基本的に、古来から人々を悩ませてきた最大の問題を解決することができたということです。それが私が目指している勝利のシナリオです。
すべての問題を解決し、すべての病気の治療法を見つけた後、その世界はどのようなものになると思いますか?
ニック・ボストロムがちょうどその話題について「解決された世界」という本を書きました。私は今のところ、それについてあまり考えていません。実際にそれに近づいてから考える贅沢を持ちたいと思います。今は、システムをより信頼できるものにする方法を見つけ出すオタク側の作業と、政治家たちに良い安全基準を導入してもらうという社会的側面の両方で、とてもワクワクすることがたくさんあります。そこに私のエネルギーを費やしています。
では、いくつかのより簡単な質問に移りましょう。人生の意味は何だと思いますか?これまでの経験から。
ああ、簡単な質問ですね(笑)。物理学の基本方程式を発見することで分かったのは、どの方程式にも意味について明示的な言及がないということです。だから、意識のある生き物である私たちが自分たちで意味を作り出す必要があると思います。
正直なところ、意識とポジティブな経験がこの核心にあると思います。なぜなら、美しさや愛、情熱、優しさ、希望でさえも、結局のところ意識的な経験だからです。私のこの机には、そのような経験はないと思います。
言い換えれば、私たちの宇宙が私たちに意味を与えるのではなく、私たちが宇宙に意味を与えることができるのです。

コメント

タイトルとURLをコピーしました