Terence Tao – 世界最高の数学者はAIをどう使うのか

AIに仕事を奪われたい
この記事は約57分で読めます。

世界最高峰の数学者の一人であるTerence Taoが、KeplerやNewtonの科学史から出発し、AIが数学と科学研究をどう変えつつあるのかを語る対談である。仮説生成と検証の関係、AIが得意な広さと人間が得意な深さ、証明支援系やLeanの可能性、数学における洞察と単なる正答の違い、そして研究者の学び方や将来のキャリア観まで、現代の知的労働の変化を縦横に論じている。

Terence Tao – How the world’s top mathematician uses AI
We begin the episode with the absolutely ingenious and surprising way in which Kepler discovered the laws of planetary m...
  1. 導入とKeplerの逸話
  2. Tycho Braheの観測データと理論の挫折
  3. Keplerは高温のLLMなのか
  4. 科学における仮説生成と検証
  5. 現代科学はデータ主導になった
  6. Keplerの第三法則と回帰
  7. AIが科学のボトルネックを変える
  8. 膨大な論文の中から統一的アイデアを見つけるには
  9. 科学的進歩は文脈抜きに評価できない
  10. 間違っている理論より、途中まで正しい理論のほうが弱く見えることがある
  11. AI時代の認知的コペルニクス革命
  12. DarwinとNewton、なぜ進化論のほうが遅れたのか
  13. 科学は理論だけでなく、伝える技術でもある
  14. 科学には物語が必要で、それは簡単には最適化できない
  15. 宇宙の距離はしごと、推論による大きな飛躍
  16. 途中広告と、引用データからの推論
  17. AIによる数学の進歩とErdős問題
  18. 数学の山脈と、AIという跳躍マシン
  19. AIの限界は弱気材料か、強気材料か
  20. 広さを生かす新しい科学の設計
  21. ソフトウェアと研究、vibe codingとvibe researching
  22. 数学は理論中心だったが、AIで実験科学になる
  23. 既存技法の適用だけで、どこまで進歩するのか
  24. AIが解ける問題の中央値
  25. それでも、AIの進歩は驚異的である
  26. 2026年のAIは数学の同僚か
  27. artificial clevernessとartificial intelligence
  28. スポンサー挿入と、難問の分解能力
  29. LeanでRiemann予想が解けても、洞察は生まれるのか
  30. Leanの中に重要な新構成が潜んでいたら、どう見抜くのか
  31. 論文の書き方そのものが変わる
  32. 証明ではなく、数学戦略のための形式言語は作れるか
  33. 形式化できない科学的コミュニケーションの具体例
  34. 素数はランダムのように振る舞うという半形式的理解
  35. 進歩の測定には、歴史のサンプルが足りない
  36. スポンサー挿入と、自学自習の話へ
  37. Terence Taoはどうやって新分野を学ぶのか
  38. ブログを書く時間と、AIが助ける雑務
  39. もし文明がTerence Taoの時間を最適配分したら
  40. 最適化しすぎる社会が失うもの
  41. 集中しすぎるとインスピレーションが枯れる
  42. AIはいつ一流数学者を完全に代替するのか
  43. 数学の大部分は、長く人間とAIのハイブリッドで進む
  44. これから数学を志す人への助言

導入とKeplerの逸話

今日は、説明不要のTerence Taoさんとお話しします。

Terence、まず最初に、Keplerがどのようにして惑星運動の法則を発見したのか、その話を語り直していただきたいです。数学におけるAIの話へ入っていく、とてもよい出発点になると思うんです。

私は昔から、天文学に素人的な興味を持っていました。初期の天文学者たちが、宇宙の本性をどうやって解き明かしていったのかという話が大好きなんです。

KeplerはCopernicusの仕事の上に立っていて、Copernicus自身もAristarchusの仕事の上に立っていました。Copernicusは非常に有名ですが、地動説を提唱しました。つまり、惑星や太陽が地球のまわりを回っているのではなく、太陽が太陽系の中心にあり、他の惑星が太陽のまわりを回っているというモデルです。

Copernicusは、惑星の軌道は完全な円であると提案しました。彼の理論は、ギリシャ人、アラブ人、インド人が何世紀にもわたって積み上げてきた観測結果には一応合っていました。

Keplerは学問の中でこうした理論を学び、Copernicusが予測した軌道の大きさの比には、何か幾何学的な意味があるのではないかと観察したんです。

そこで彼は、もし地球の軌道を立方体の中に収めると、その立方体を包む外側の球面が、ほとんど完全に火星の軌道に一致する、といった考えを出し始めました。

当時知られていた惑星は6つで、そのあいだの間隔は5つありました。そして、完全なプラトン立体も5つありました。立方体、正四面体、正二十面体、正八面体、正十二面体です。

そこで彼は、これらのプラトン立体を惑星の球面と球面のあいだに内接させられるという、とても美しい理論を思いつきました。見たところ合っているように思えたし、神が惑星を設計した仕方が、プラトン立体の数学的完全性と対応しているように、彼には見えたんです。

ただ、この理論を確かめるにはデータが必要でした。

Tycho Braheの観測データと理論の挫折

その当時、本当に高品質なデータセットは一つしか存在しませんでした。非常に裕福で、風変わりなデンマークの天文学者Tycho Braheが、デンマーク政府を説得して、非常に高価な観測所に資金を出させたんです。

しかもそれは単なる観測所ではなく、島全体でした。彼はそこで何十年もかけて、火星や木星をはじめとするすべての惑星について、天気のよい夜はほぼ毎晩、肉眼で観測を続けていました。

彼は肉眼天文学者としては最後の世代の人でした。そしてKeplerが自分の理論を検証するために使える、膨大なデータを持っていたんです。

KeplerはTychoと一緒に仕事を始めましたが、Tychoはそのデータに強い独占欲を持っていました。少しずつしか渡してくれなかったんです。

結局、Keplerはそのデータを盗みました。書き写して持ち出し、Braheの子孫たちと争うことにもなりました。でも最終的にはそのデータを手に入れました。

そして彼は、がっかりしながら、自分の美しい理論が完全にはうまくいかないことを突き止めました。データは彼のプラトン立体理論から1割くらいずれていたんです。

彼は円を少しずらしたり、いろいろなごまかしを試しましたが、どうしてもうまくいきませんでした。

それでも彼はこの問題に何年も何年も取り組み、ついにはそのデータを使って、惑星の実際の軌道を導き出す方法を見つけました。

それは信じがたいほど巧妙で、天才的なデータ解析でした。そして彼は、軌道は円ではなく、実は楕円であると突き止めたんです。これは彼にとって衝撃でした。

こうして彼は、惑星運動の二つの法則を見いだしました。ひとつは軌道が楕円であること、もうひとつは等しい時間に等しい面積を掃くということです。

さらにその10年後、たくさんのデータを蓄積したあとで、彼は三つ目の法則をついに見いだしました。SaturnやJupiterのような遠い惑星は、特に解析が難しかったんです。

そしてようやく、惑星が軌道を一周するのにかかる時間が、太陽からの距離のあるべき乗に比例する、という第三法則にたどり着きました。

これが有名なKeplerの三法則です。

ただ、彼自身にはその説明はありませんでした。すべては実験、つまり観測によって導かれたのであって、その三法則を一度に説明できる理論を与えたのは、1世紀後のNewtonでした。

Keplerは高温のLLMなのか

ここであなたにぶつけてみたい見方があります。Keplerは高温のLLMだった、と言えないでしょうか。

Newtonは、なぜ惑星運動の三法則が真でなければならないのか、その説明を与えますよね。

もちろん、Keplerが惑星運動の法則を見つけたり、各惑星の相対的な軌道を求めたりしたやり方は、あなたのおっしゃる通り天才的な仕事です。でも彼は生涯を通じて、ただいろいろな関係を無作為に試していたとも言えます。

実際、彼が第三法則を書き残した本では、それは『宇宙の調和』についての議論の脇に出てきます。この本自体、各惑星にそれぞれ異なるハーモニーがあるという話なんです。

そして、地球上に飢饉や悲惨が多い理由は、地球がミ・ファ・ミだからだ、つまりそれが地球の音階だからだ、といったことまで書いてある。

そういうランダムな占星術のような話の中に、周期と太陽からの距離の関係を与える立方・平方の法則が紛れ込んでいるわけです。

そして、あなたが説明してくださったように、それをNewtonのF=maや向心加速度の式と組み合わせると、逆二乗則が出てきます。Newtonはそれを導いたわけです。

でも、私がこの話を面白いと思うのは、LLMなら、意味をなさないものも含めて20年間ランダムな関係を試す、みたいなことができそうだからなんです。Braheのデータセットのような、検証可能なデータバンクさえあればです。

音階について試してみよう、プラトン立体について試してみよう、別の幾何学を試してみよう、この軌道の幾何学には何か重要なことがあるというバイアスを持っていろいろやってみよう、という感じです。

そして、そのうち一つが当たる。

検証さえできれば、こうした経験的な規則性は、その後の深い科学的進歩を実際に推進しうると思うんです。

科学における仮説生成と検証

私たちはふつう科学史を語るとき、アイデア生成こそが科学の最も名誉ある部分だと考えがちです。

でも科学の問題には、多くの段階があります。まず問題を特定しなければいけない。そして、取り組む価値のある、実りある問題を見つけなければいけない。

そのあと、データを集め、どう分析するか戦略を考え、仮説を立てます。そしてその時点で、よい仮説を提案し、それを検証しなければならない。

さらに、それを書き上げて説明しなければいけない。要素は十いくつもあります。

私たちが称賛するのは、こうした過程の中でも、アイデア生成のユリイカ的な天才の瞬間です。

Keplerももちろん、うまくいかないものを含めて多くのアイデアを行き来しなければなりませんでした。たぶん、まったく公表しなかったアイデアもたくさんあったでしょう。単に合わなかったからです。

でもそれも重要なプロセスの一部です。いろいろなランダムなことを試し、うまくいくかどうかを見るんです。

ただ、おっしゃる通り、それには同じだけの検証が伴わないといけません。でなければ、それはただの雑音です。

私たちはKeplerを称賛しますが、Braheの、あれほど丹念なデータ収集もまた称賛すべきです。彼の観測精度は、それ以前のどの観測よりも10倍高かった。その小数点以下1桁分の精度の上積みが、Keplerの成果には不可欠でした。

Keplerはユークリッド幾何学と、当時使える限り最先端の数学を使って、モデルをデータに合わせていきました。

データ、理論、仮説生成、そのすべてが揃っていなければならなかったわけです。

ただ、現代では仮説生成が本当にボトルネックなのかは、私には少し疑問があります。科学はこの1世紀で変わりましたから。

現代科学はデータ主導になった

古典的には、科学には大きく二つのパラダイムがありました。理論と実験です。

それが20世紀になると数値シミュレーションが加わりました。コンピュータでシミュレーションをして理論を検証できるようになったわけです。

さらに20世紀後半にはビッグデータの時代が来ました。データ解析の時代です。今の新しい進歩の多くは、まず巨大なデータセットを分析することによって駆動されています。

大規模なデータを集め、そこからパターンを引き出して考えを導く。これは、かつての科学のやり方とは少し違います。

以前は、少数の観測をするか、あるいは突然ひらめいた一つのアイデアを持って、それからそのアイデアを検証するためにデータを集める、というのが古典的な科学的方法でした。

でも今は、ほとんど逆になっています。まず大量のデータを集めて、それから仮説を得ようとするんです。

Keplerは、おそらく初期のデータサイエンティストの一人だったのかもしれません。でも彼でさえ、最初からTychoのデータセットに向かって分析を始めたわけではありませんでした。最初に先入観のある理論があった。

ただ、進歩の仕方はますますそうではなくなってきている気がします。データがはるかに巨大で有用になっているからです。

Keplerの第三法則と回帰

ああ、面白いですね。あなたが説明している20世紀的な科学の姿は、むしろKeplerにかなりよく当てはまる気がします。

たしかに彼にはアイデアがありました。1595年から1596年にかけて、多面体やプラトン立体の理論を思いついた。でもそれは間違っていた。

その数年後にBraheのデータを手にし、そこから20年間ランダムなことを試した末に、ようやく経験的な規則性にたどり着くわけです。

だから、Braheのデータはむしろ、大量のシミュレーションデータバンクに近いように感じます。いったんデータさえ手に入れば、あとはいろいろランダムに試し続けられる。

もしそれがなければ、Keplerはずっとハーモニーやプラトン立体について本を書いているだけで、何も検証する対象がなかったでしょう。データは極めて重要でした。

私が区別しようとしていたのは、伝統的には仮説を立ててから、それをデータで検証する、ということです。でも今は機械学習やデータ解析や統計によって、データから出発して、そこから以前には存在しなかった法則を見つけることができる。

Keplerの第三法則は、少しそのようなものです。ただしBraheの千個のデータ点があったわけではなく、Keplerが持っていたのは6個のデータ点でした。各惑星について、軌道の長さと太陽からの距離を知っていたわけです。

5個か6個のデータ点に対して、いま私たちが回帰と呼ぶことを彼は行いました。6個の点に曲線を当てはめて、平方立方の法則を得た。これは驚くべきことです。

ただ、6個のデータ点で正しい結論にたどり着けたのは、かなり幸運でもありました。それだけでは、本来は十分に信頼できるとは言えません。

後の天文学者Johann Bodeは、同じように惑星までの距離のデータを取り、Keplerに触発されて、惑星の距離は平行移動した等比数列をなすのではないかと考えました。

彼も曲線を当てはめたのですが、一つ点が欠けていました。火星と木星のあいだに大きな隙間があったんです。

彼の法則では、そこに未知の惑星が存在するはずでした。いわば奇説のような理論だったんですが、Herschelが天王星を発見したとき、その距離がぴったりこのパターンに合ったんです。

その後、小惑星帯でCeresも発見され、これもまたパターンに合った。人々は、Bodeが自然の驚くべき新法則を発見したのだと大いに興奮しました。

でもその後Neptuneが発見されると、まったく合わなかった。結局のところ、ただの数値的な偶然だったんです。データ点は6個しかなかったのだから。

おそらくKeplerが第三法則を第一、第二法則ほど強く押し出さなかった理由の一つは、現代統計学を知らなくても、6個のデータ点しかない以上、結論にはある程度慎重であるべきだと、本能的にわかっていたからかもしれません。

AIが科学のボトルネックを変える

この類比についてもう少しはっきり聞きたいんですが、将来もっと賢いAIが現れたら、このたとえは意味を持つでしょうか。

何百万ものAIがいて、あらゆる経験的な規則性を探し回れるようになる。あなたはどうやら、科学におけるボトルネックが、各分野ごとに惑星運動の第三法則に相当するものをもっと見つけることではない、と考えているように聞こえます。

そのあとで誰かが、これを説明する方法が必要だ、数学をやろう、ここに重力の逆二乗則がある、と言うようなものですね。

私は、AIはアイデア生成のコストを、ほとんどゼロに近いところまで下げたと思っています。それは、インターネットが通信コストをほとんどゼロに下げたのと、とてもよく似ています。

それ自体は驚くべきことです。でも、それだけで豊かさが自動的に生まれるわけではない。いまやボトルネックは別のところに移りました。

今は、人々が一つの科学的問題について、突然何千もの理論を生成できてしまう状況です。今度はそれを検証し、評価しなければならない。

科学の制度そのものを変えて、これを仕分ける必要があるんです。

伝統的には、私たちは壁を築いてきました。AI由来の雑音が現れる前から、アマチュア科学者たちは宇宙について独自の理論を持っていて、その多くにはほとんど価値がありませんでした。

そこで、査読付き出版制度を作り、高信号のアイデアだけをふるいにかけてテストしようとしてきたわけです。

でも今では、こうした可能な説明を大規模に生成できるようになり、その中にはよいものもある一方で、ひどいものも大量にあります。人間の査読者はすでに圧倒され始めています。

多くの学術誌が、AI生成の投稿で投稿欄があふれていると報告しています。

AIでいろいろなものを生成できるのは素晴らしいことですが、それは同時に、科学の他の側面も追いつかなければいけないということです。検証、妥当性確認、そして何が本当に分野を前進させるアイデアで、何が行き止まりやミスリードなのかを評価することです。

しかも、それを大規模に行う方法を、私たちはまだ知りません。

個々の論文であれば、科学者のあいだで議論し、数年かけて合意に達することはできます。でもそれを毎日千本生成するようになったら、そんなやり方では回りません。

膨大な論文の中から統一的アイデアを見つけるには

ここには非常に面白い問いがあります。AI科学者が何十億もいるとして、どれが本当の進歩なのかをどう見極めるのか。

実はこれは、人間の科学も直面してきた問いなんです。そして私たちは何とかそれを解いてきたわけですが、正直なところ、どうやって解いてきたのか私自身もはっきりとはわかりません。

たとえば1940年代、Bell Labsにいて、新しい技術が次々に出てきているとします。パルス符号変調、信号をどう送るか、どうデジタル化するか、どうアナログの配線上で送るか。

工学的制約や細かな実装についての論文がたくさんある中で、一つだけビットという概念を打ち出す論文が現れる。それは多くの分野に波及する含意を持っています。

そういうものを見て、これは確率論に応用しなければいけない、計算機科学にも応用しなければいけない、と判断できるシステムが必要になるわけです。

将来、AIがこうした統一的概念の次のバージョンを生み出すようになったとき、それが実際には進歩を構成しているのに、一般性の低い多くの論文に埋もれている場合、どうやって見つけ出すのか。

その多くは、時間の試練によるものです。

偉大なアイデアの多くは、提案された当時には必ずしも高く評価されませんでした。ほかの科学者たちがそれをさらに発展させ、自分の分野に応用できると気づいて初めて広まっていったんです。

深層学習だって、長いあいだAIの中のニッチな分野でした。答えを第一原理的推論ではなく、データによる学習だけから得ようとする発想は非常に物議を醸しましたし、実を結び始めるまでにもかなり時間がかかりました。

あなたはビットの話をしましたが、今のような0と1の二値論理以外にも、コンピュータアーキテクチャの提案はいろいろありました。たしか三値論理のトリットのようなものもありました。

別の宇宙では、別のパラダイムが主流になっていたかもしれません。

たとえばTransformerは、現代の大規模言語モデルの基盤ですが、言語を本当に捉えられるほど十分に洗練された最初の深層学習アーキテクチャでした。

でも、必ずしもそれである必要はなかった。他のアーキテクチャが最初に成功して、それが採用されれば、それが標準になっていた可能性もあります。

科学的進歩は文脈抜きに評価できない

あるアイデアが実り多いものになるかどうかを評価するのが難しい理由の一つは、それが未来に依存するからです。

文化や社会にも依存します。どれが採用され、どれが採用されないのか。数学における十進法は非常に有用で、たとえばローマ数字よりずっと優れています。

でも、十という数自体に特別な意味があるわけではありません。みんながそれを使っているから私たちにとって有用なのであって、標準化され、コンピュータや数の表現体系もその上に築いてしまっているから、いまさらそこから離れにくいだけです。

ときどき十進法以外を推す人もいますが、慣性が大きすぎます。

だから、ある科学的達成を完全に孤立したものとして眺めて、過去や未来の文脈を無視して客観的に点数をつける、ということはできません。

そのため、もっと局所的な問題に対して強化学習できるのと同じやり方で、科学的進歩全体を強化学習することは、おそらく難しいでしょう。

科学史では、あとから振り返れば正しかったとわかる新理論が現れたとき、その理論は最初は、間違っているから意味をなしていないように見える含意を持っていたり、あるいは正しいのだけれど当時としてはあまりにも突飛に見えたりすることがよくあります。

あなたが話していたように、Aristarchusは紀元前3世紀に地動説を唱えました。でも古代アテナイの人々は、そんなはずはない、地球が太陽のまわりを回っているなら、地球が移動するにつれて星の相対位置が変わるはずだ、そうならないのは星があまりにも遠すぎて視差が見えない場合だけだ、と考えた。

実はそれは正しい含意でした。

一方で、含意自体は間違っていて、私たちの理解の水準をさらに一段上げる必要があるだけ、という場合もあります。

LeibnizはNewtonを批判して、重力理論は遠隔作用を含意しているではないか、メカニズムがわからないではないか、と反対しました。Newton自身も、慣性質量と重力質量が同じ量であることにはかなり驚いていました。

こうしたことは後にEinsteinによって解決されました。でも、その時点でもそれは進歩だったんです。

間違っている理論より、途中まで正しい理論のほうが弱く見えることがある

では、AIのための査読制度を考えるとして、たとえ理論を反証できたとしても、それが以前の理論に比べてなお進歩を構成していることを、どうすれば見抜けるのか。

最終的に正しい理論というのは、初期段階では多くの点でむしろ劣って見えることが多いんです。

Copernicusの惑星理論は、Ptolemyの理論より精度が低かった。地球中心説はその時点で千年かけて発展していて、多くの調整やますます複雑な場当たり的修正が加えられ、精度が高められていました。

Copernicusの理論はずっと単純でしたが、精度はかなり低かったんです。それをPtolemyより高精度にしたのはKeplerでした。

科学は常に進行中の仕事です。解の一部しか手に入っていない段階では、間違ってはいるけれど完成度が高くて、とりあえずあらゆる問いに何となく答えている理論よりも、見かけ上は悪く見えてしまうことがあります。

おっしゃる通り、Newtonの理論にも大きな謎がありました。質量の等価性と遠隔作用の問題があり、それが解決されたのは何世紀も後に、まったく概念的に異なるアプローチによってでした。

進歩とは、単に新しい理論を足すことではなく、心の中にある前提をいくつか削除することによって生じる場合も多いんです。

地球中心説が長く続いた理由の一つは、物体は自然に静止したがる、という考えを私たちが持っていたからです。これはアリストテレス的な物理観です。

だから地球が動いているという発想は、ではなぜ私たちはみんな転げ落ちないのか、という感覚にぶつかる。

でもNewtonの運動法則、すなわち運動している物体は運動し続ける、といった考え方を手に入れると、話が通るようになります。

概念的には、地球が動いていると理解するのはとても大きな飛躍です。実際には動いている感じがしないのですから。

Darwinの進化論のような大きな進歩も同じです。種は静的なものではない、という考えです。これは自明ではありません。進化は自分の生涯の中では見えませんし、ずっと固定的で静的に見えるからです。まあ、今では実際に見える例もありますけれど。

AI時代の認知的コペルニクス革命

いま私たちは、コペルニクス的転回の認知版のようなものを経験しているのだと思います。以前は、人間の知性こそ宇宙の中心だと考えていました。

でも今では、まったく異なる強みと弱みを持つ、非常に異なる種類の知性が存在することが見え始めています。

どんな課題が知性を必要とし、どんな課題がそうでないのか、という私たちの評価も、大幅に組み替えなければならなくなっています。

AIを、科学的進歩の理論や、何が難しくて何が簡単かという私たちの理論の中にどう位置づけるか。そこに私たちはかなり苦労しています。

これまで本当に問う必要のなかった問いを、今は問わなければいけない。もしかすると哲学者たちは以前から問うていたのかもしれませんが、今や私たち全員がそれに向き合わなければならないわけです。

DarwinとNewton、なぜ進化論のほうが遅れたのか

いまのお話で、以前からずっと気になっていた話題につながります。Darwinの進化論のことをおっしゃいましたよね。

Edward Dolnickの『The Clockwork Universe』という本があって、私たちが今話しているような時代をかなり扱っているんですが、そこに面白い観察があります。

『種の起源』は1859年に出版されました。『Principia Mathematica』は1687年です。つまり『種の起源』は、『Principia』より2世紀もあとなんです。

概念的には、Darwinの理論のほうが単純に見えます。同時代の生物学者Thomas Huxleyは『種の起源』を読んで、こんなことをなぜ思いつかなかったのだろう、と言ったそうです。

でも、重力について自分がNewtonに先を越されたことを悔やむような言い方を、『Principia』に対してする人はいません。

なぜそんなに時間がかかったのか。かなり大きな理由は、あなたがおっしゃったことだと思うんです。

自然選択の証拠は、ある意味では圧倒的です。でもそれは累積的で、しかも回顧的です。一方でNewtonは、自分の方程式を示し、月の公転周期と距離を当てはめて、合えば進歩だと言える。

Lucretiusも実は、紀元前1世紀に種が環境に適応するという考えを持っていました。でも誰もそれをDarwinのようには語らない。Lucretiusには実験して人々に注目を強いる手段がなかったからです。

振り返ってみると、概念的にははるかに難しいとしても、こういう緊密なデータループがあって簡単に検証できる分野のほうが、進歩が大きくなるのではないかと思うんです。

科学は理論だけでなく、伝える技術でもある

科学の一側面は、新しい理論を作って検証することだけではなく、それを他者に伝えることでもあると思います。

Darwinは驚くほど優れたサイエンスコミュニケーターでした。彼は英語で、自然言語で書いた。私はいま、Leanっぽく話してしまっていますね。技術的な頭から抜けないといけない。

彼は平易な英語で書き、方程式を使わず、ばらばらの事実を総合しました。進化に関する小さな断片は以前からいろいろ出ていたのですが、彼はそれらを非常に説得力のあるビジョンとしてまとめたんです。

もちろん彼にも欠けているものはありました。遺伝の仕組みはわかっていなかったし、DNAも知らなかった。でも、その文体には説得力があり、それが大きな助けになりました。

一方、Newtonはラテン語で書きました。しかも、自分のやっていることを説明するためだけに、まったく新しい数学の分野を丸ごと発明していた。

それに彼は、科学者たちがずっと秘密主義で、競争的だった時代の人です。今の学界も競争的ですが、Newtonの時代はもっとひどかった。

彼はライバルに優位を与えたくなくて、自分の最高の洞察のいくつかを隠していました。聞くところによると、人柄もあまり感じのよいほうではなかったようです。

Newtonの仕事が広く行き渡ったのは、その数十年後に、他の科学者たちがそれをずっと簡潔な言葉で説明してからでした。

説明の技術、主張を組み立てる技術、物語をつくる技術も、科学のとても重要な一部です。

データがあると助けにはなりますが、人々を納得させなければ、その先へ進めようともしてくれないし、理論を学ぶ最初の投資を払って深く探究しようともしてくれません。

科学には物語が必要で、それは簡単には最適化できない

これもまた、強化学習しにくいものの一つです。自分がどれだけ説得的かを、どうやって採点するんでしょうか。

まあ、それをやろうとしているのが丸ごとマーケティング部門なわけですが。

たぶん、AIがまだ説得力の最適化をされていないのはよいことなのかもしれません。

科学には社会的側面があります。客観的な側面、つまりデータや実験、検証があることを私たちは誇りにしていますが、それでもなお、物語を語り、仲間の科学者たちを説得しなければならない。

そこは柔らかくて、曖昧な部分です。データとナラティブの組み合わせなんです。

しかもそれは、欠落を含んだ物語です。Darwinですら、先ほど言ったように、自分の理論の一部を説明できませんでした。

それでも彼は、将来、人々が中間形態を見つけるだろう、遺伝のメカニズムを見つけるだろう、と主張できた。そして実際にそうなった。

これを、そんなに厳密に数量化して強化学習を始められるようにする方法が、私にはわかりません。もしかすると、それは永遠に人間側の科学であり続けるのかもしれません。

宇宙の距離はしごと、推論による大きな飛躍

あなたが宇宙の距離はしごについて書いたり話したりしているものを読んだり見たりしていて、私が得た大きな気づきの一つは、多くの分野における推論の余剰は、人々が思っているよりずっと大きいのかもしれない、ということでした。

ちなみに、3Blue1Brownとの宇宙の距離はしごのシリーズは、ぜひ多くの人に見てほしいです。

そのシリーズから受け取ったことの一つは、問題の研究の仕方について正しい洞察さえあれば、この世界について今よりはるかに多くを学べるかもしれない、ということでした。

これは、あなたが研究している特定の時代の天文学だからそうなのか。それとも、いま地球に届いているデータだけでも、私たちは実際にはもっと多くを読み取れるのに、まだそこまで到達していないだけなのか。そこが気になります。

天文学は、最初期にデータ解析を本格的に取り入れ、持っている情報から一滴残らず情報を絞り出そうとした科学の一つでした。なぜなら、データこそがボトルネックだったからです。そして今でもそうです。天文データを集めるのは本当に大変ですから。

天文学者は、ほんのわずかなデータの痕跡から、あらゆる結論を引き出すことにおいて世界最高レベルです。まるでSherlockのように。

実際、多くのクオンツ系ヘッジファンドでは、いちばん欲しい人材は天文学のPhDだと聞いたことがあります。別の理由でも、ばらばらのデータ片からシグナルを抽出することに強い関心があるからでしょう。

途中広告と、引用データからの推論

では、巧妙なアイデアという話つながりで。私のリスナーの一人、Shawnが、Jane Streetが私の視聴者向けに出したパズルを解いて、Xにすばらしい解説を投稿してくれました。

文脈を説明すると、Jane StreetはResNetを訓練し、その96層すべてをシャッフルして、モデルの出力と訓練データだけを使って正しい順番に戻せるかという課題を出したんです。

総当たりはできません。可能な並び順は宇宙の原子数より多いですから。

Shawnはこの問題を二つに分けました。まず、層を48個のブロックに正しくペアリングすること。次に、そのブロックを正しい順番に並べることです。

ペアリングについては、よく訓練されたResNetでは、残差ブロックにある二つの重み行列の積が、特徴的な負の対角パターンを持つはずだと彼は気づきました。これは、モデルが残差ストリームの値が暴走しないように抑える仕組みとして生じるものです。

この洞察から、彼は正しいペアを復元できました。

順序付けについては、残差寄与の大きさでブロックを並べるとモデルが改善するように見えることに彼は気づきました。

その大まかな近似から出発して、巧妙なランキングのヒューリスティックと局所的な入れ替えを組み合わせ、最終的に完全に正しい順番を復元したんです。

完全な解説は概要欄にリンクしています。もしこのパズルに間に合わなかったとしても心配はいりません。まだ、Jane Street自身でさえ解けていない、バックドア入りLLMのパズルが残っています。janestreet.com/dwarkesh で見られます。

ではTerenceに戻りましょう。

私たちは、いろいろなシグナルから追加情報を引き出すやり方を、まだ十分に探れていないと思います。

適当に一つ研究を挙げると、科学者たちが実際に自分が引用している論文をどれくらい読んでいるかを測ろうとした研究を、以前読んだことがあります。

どう測るのか。科学者にアンケートすることもできますが、その研究ではもっと巧妙な方法を使っていました。

引用文献には小さな誤植がよくあります。数字が一つ違っていたり、句読点が少しおかしかったりする。それで、一つの参考文献にあった誤植が、次の論文、さらに次の論文へと、どのくらいコピーされていくかを測ったんです。

そうすると、著者が本当に参照先を確認したのではなく、ただ参考文献をコピー&ペーストしているだけかどうかを推定できる。

そこから、人々がどれくらい注意を払っているかの指標を推定できたんです。

だから、こうしたものを抽出するための巧妙な方法はあります。

先ほどあなたが出していた問い、つまり、ある科学的発展が実り多いのか、面白いのか、本当の進歩を表しているのか、どうやって評価するかという話ですが、この現象の指標や痕跡として本当に役立つメトリクスが、データの中にあるのかもしれません。

引用関係を見たり、あるアイデアが会議でどれくらい言及されているかを見たりできるかもしれない。

実際、科学の社会学として、こういうものを検出する研究がかなりできるのではないでしょうか。もしかすると、ここは本当に天文学者にやってもらったほうがいいかもしれませんね。

AIによる数学の進歩とErdős問題

では自然な流れで、外から見るとかなり進んでいるように見える、数学のためのAIの進歩の話に移りましょう。

あなたは最近の投稿で、ここ数か月のあいだに、AIプログラムがErdős問題を1100あまりのうち50問解いたと指摘していました。

いまも正しいかはわかりませんが、1か月前の時点では、取りやすい果実はもう取り尽くされていて、いまは一旦止まっているというようなことをおっしゃっていましたよね。

まず、それが今でもそうなのかが気になります。つまり、取りやすい問題はもう片付いていて、現在は高原状態にあるのかどうかです。

そう見えますね。50問余りがAIの支援で解かれたのはすばらしいことですが、まだ600問ほど残っています。いまも人々がそのうち1問か2問に少しずつ取り組んでいます。

ただ、純粋なAIの解法、つまりAIが一発で解くというケースは、ずいぶん減ってきました。そういう時期が1か月くらいあって、それは止まっています。試みが足りないわけではありません。

最先端モデルのAIに、すべての問題を同時に片っ端から攻撃させようという試みが、少なくとも3件あったのを私は知っています。

それで何か小さな観察が見つかったり、ある問題は実はすでに文献で解かれていたと判明したりはします。でもそれ以上に、純粋にAIだけで解けた新しい解はまだ出ていません。

ただし現在、人々はAIをかなり使っています。ある人がAIに証明戦略の候補を出させて、別の人が別のAIツールでそれを批判させたり、書き換えたり、数値データを出させたり、文献調査をさせたりしている。

いくつかの問題は、多くの人間と多くのAIツールの継続的な対話によって解かれています。

でも、あれは一回限りの出来事だったようにも見えます。

数学の山脈と、AIという跳躍マシン

これらの問題のたとえとしては、いろいろな崖や壁のある山脈の中にいる感じかもしれません。

高さ1メートルくらいの小さな壁もあれば、2メートルの壁もあり、5メートルの壁もあり、さらには何キロもある絶壁もある。

その中で、できるだけたくさんの壁を登ろうとしている。でも暗闇の中なんです。どれが高くてどれが低いのかもわからない。

だから、ろうそくを灯し、地図を作り、少しずつ、これは登れそうだ、ということがわかってくる。壁の中に、まず手がかりになる小さな足場があるものも見つかる。

今のAIツールは、高さ2メートル跳べるジャンプマシンのようなものです。人間より高く跳べる。でもときには違う方向に跳び、ときには失敗して落ちる。

それでも、ときには私たち人間には届かなかった低い壁の上に飛び乗れる。そして、そういうジャンプマシンをこの山脈全体に放って、あちこち跳ね回らせているようなものです。

しばらくのあいだは、低い壁を片っ端から見つけて上れるという、とても興奮する時期がありました。次にモデルが大きく進歩したら、また同じことをやって、もう少し高い壁がいくつか突破されるかもしれません。

でも、これは従来の数学のやり方とは違います。ふつうは、山を少しずつ登り、目印を置き、部分的な前進を確認しながら進みます。

今のツールは、成功するか失敗するかのどちらかなんです。

部分的な進歩をつくったり、まずここに集中すべきだという中間段階を見つけたりするのは、いまのところかなり苦手です。

さっきの議論に戻ると、問題解決の一発成功や失敗なら評価できても、部分的進歩を同じようには評価できないんです。

AIの限界は弱気材料か、強気材料か

いまのお話から考える方向は二つあって、一つはAIに弱気になる方向、もう一つはむしろ強気になる方向です。

弱気な見方は、AIはある高さまでの壁しか越えられていないし、その高さはまだ人間が到達している高さには及ばない、というものです。

もう一方は、いったんある水準に達したら、その水準にある問題をすべて一気に埋め尽くせるという強力な性質がAIにはある、という見方です。これは人間にはできないことです。

あなたを百万体コピーして、それぞれに100万ドル分の推論計算資源を与え、主観時間で100年分の研究を、100万の別々の問題に同時にやらせることはできません。

でもAIがTerence Tao級に達したら、それができるようになるかもしれない。中間レベルに達した時点でも、その中間版ができる。

つまり、今弱気になるべき理由こそが、将来特に強気になるべき理由でもある。超人的知能になったときだけではなく、人間レベルの知能に達した時点ですらそうです。なぜなら、その人間レベル知能は、私たちの人間レベル知能よりも質的に広く、強力だからです。

同意します。AIは広さに優れ、人間、とくに人間の専門家は深さに優れています。両者はとても補完的だと思います。

ただ、現在の数学や科学の進め方は、人間の専門性が深さにあるため、どうしても深さ中心になっています。人間は広さを担えないからです。

だから、この広さの能力を最大限に生かせるよう、科学のやり方そのものを作り直さなければならない。

広さを生かす新しい科学の設計

取り組むべき問題の設計も、一つ二つのとても深い重要問題に集中するのではなく、もっと広いクラスの問題群を大量に用意する方向に、はるかに多くの努力を払うべきです。

もちろん、深くて重要な問題も引き続き必要ですし、人間はそこに取り組み続けるべきです。

でも今は、それとは別の科学のやり方が手に入りつつあります。かなり広く、ほどほどに有能なAIに、まず新しい分野全体を地図化させ、簡単な観察をすべてやらせることで、まったく新しい科学分野を探索できるかもしれない。

そのうえで、難所となる島のような場所を特定し、そこへ人間の専門家がやってきて取り組む。私は、そういう非常に補完的な科学の未来を強く感じます。

いずれは、広さと深さの両方を手にして、両方の長所を合わせられるようになるとよいわけですが、まずはこの広さの側をどう扱うかの経験が必要です。まだ新しすぎるんです。

それを本当に活用するためのパラダイムすら、私たちはまだ持っていません。でもいずれは手にするでしょう。そうなったあとには、科学はきっと見違えるほど変わっていると思います。

ソフトウェアと研究、vibe codingとvibe researching

この補完性の話に関連して、プログラマーたちは、これらのAIツールのおかげで自分たちの生産性が大きく上がったと感じています。

数学者としてのあなたが同じように感じているかはわかりませんが、ひとつ大きな違いとして、vibe codingとvibe researchingの違いがあるようにも思えます。

ソフトウェアでは、そもそもの目的が、仕事を通じて世界に何らかの効果を与えることですよね。問題の理解が深まったり、コードに落とし込むきれいな抽象化を思いついたりすれば、それは最終目的に役立つ手段です。

一方で研究では、ミレニアム懸賞問題を解くこと自体が重要なのは、たぶんその過程で新しい数学的対象や新しい技法を発見し、数学についての文明としての理解を前進させるからです。

つまり、証明そのものは、その途中にある仕事のための手段でもある。そういう二分法に同意するかどうか、あるいはそれがソフトウェアと研究で見られる生産性向上の差を説明するかどうか、お聞きしたいです。

数学ではたしかに、問題そのものよりプロセスのほうが重要なことが多いです。問題は、進歩を測るための代理指標のようなものなんです。

ただ、ソフトウェアでも仕事の種類はさまざまです。ほかに千個あるウェブページと同じことをするページをただ作るだけなら、そこから学ぶべき技術はありません。まあ、個々のプログラマーにとっては多少の学びはあるかもしれませんが。

でも、定型的なコードなら、間違いなくAIに任せるべきです。

とはいえ、コードは作ったあとも保守しなければならない場合があります。更新の問題もあるし、他のものとの互換性もある。

聞くところによると、たとえAIがツールの最初のプロトタイプを作れたとしても、それを他のすべてとうまく噛み合わせ、現実世界と望む形で相互作用させるのは継続的な作業なんだそうです。

自分でコードを書く中で身につくスキルがなければ、あとで保守する能力に影響が出るかもしれません。

数学は理論中心だったが、AIで実験科学になる

数学者としても同じです。私たちは問題を通じて直観を育て、何が真らしいか、何が期待できるか、何が証明できるか、何が難しいかについての感覚を鍛えてきました。

答えだけをすぐにもらってしまうと、その過程をむしろ妨げる可能性があります。

私は先ほど理論と実験を区別しました。ほとんどの科学では、理論面と実験面がある程度均衡しています。

数学はその点で特異で、ほとんど完全に理論中心でした。何が真で何が偽なのかについて、首尾一貫したきれいな理論を持つことに重きを置いてきた。

たとえば、ある問題を解く方法が二つあるとして、どちらがより効果的かといったことを、ほとんど実験してきませんでした。直観はありますが、千問くらいをとって大規模に試すような研究はしてこなかった。

でも今ならそれができます。

AI系のツールは、数学の実験的側面を本当に革命的に変えると思います。そこでは個々の問題や、それを解く過程そのものにはそれほどこだわらない。

そうではなく、何がうまくいき、何がうまくいかないのかについて、大規模なデータを集めたいんです。

ソフトウェア企業が千個のソフトウェアを展開したいとき、一つ一つを手作業で作って毎回教訓を得たいわけではありません。どんなワークフローならスケールできるかを知りたいわけです。

数学をスケールして行うという発想は、まだほんの始まりにすぎません。でも、まさにそこにAIがこの分野を革命化する余地があるんです。

既存技法の適用だけで、どこまで進歩するのか

こうした、AIが科学にどれだけ役立つかという会話で大きな核心になるのは、あなたも言っていたと思いますが、AIは既存の技法を使い、それを少し改変している、という点です。

単に既存の技法を使うだけで、どれほどの進歩が可能なのかを理解できると面白いですよね。

もしトップの数学雑誌を見たとして、そこで出てくる論文のうち、どれくらいが新しい技法を生み出していて、どれくらいが既存の技法を新しい問題に適用しているのか。その余地はどれほどあるのか。

既知のすべての技法を、存在するすべての未解決問題に片っ端から適用したら、それは文明の知識にとって巨大な上積みになるのか。それとも、そこまで印象的でも有用でもないのか。

とてもよい問いです。ただ、まだそれに完全に答えられるだけのデータはありません。

たしかに、人間の数学者が新しい問題に取り組むとき、最初にすることの一つは、過去に似た問題でうまくいった標準的な手法を全部洗い出して、一つずつ試すことです。

ときにはそれで解けますし、その問題が重要なら、それだけでも発表する価値があります。ほとんど解けるけれど、あともう一つ工夫が必要だ、という場合もあり、それもまた面白い。

でもトップジャーナルに載る論文はたいてい、既存の方法で問題の8割くらいまでは解けるけれど、残りの2割が抵抗していて、その隙間を埋める新しい技法を発明しなければならない、というものです。

今では、過去の文献にほとんど依存せず、アイデアがすべてゼロから出てきて問題が解ける、ということは非常にまれです。昔はもっとありましたが、数学はいまや成熟しすぎていて、先に文献を使わないのはあまりにも不利です。

AIツールは、その前半部分、つまり標準技法を片っ端から問題に適用してみるところが本当に上手くなっています。しばしば人間より適用ミスも少ない。もちろんまだ間違いはしますが、私自身でもできる小さな課題で試してみると、私のミスを拾うこともあるし、私がAIのミスを拾うこともある。

いまのところは五分五分くらいです。

でも、その次の段階に進むのはまだ見ていません。議論に穴があって、どの標準的手法もうまくいかないときに何をするか。AIはランダムな提案はできますが、それを追いかけてもうまくいかないとわかるまでに、節約できる時間より無駄になる時間のほうが大きいことが多いです。

AIが解ける問題の中央値

いま私たちが難しいと思っている問題のうち、ある割合はこの方法で崩れると思います。とくに十分な注意を向けられてこなかった問題です。

Erdős問題で言えば、AIで解かれた50問のほとんどは、実質的に文献が存在しない問題でした。Erdősが一度か二度問題を提示しただけで、誰かが気軽に試してできなかったかもしれないけれど、論文として書かれたことはなかった。

でも実際には解法があって、単に、あまり知られていないある技巧と、文献中の別の結果を組み合わせればよかった、というだけだったんです。

それがAIにできることの中央値です。そして、それは本当に素晴らしいことです。そうやって50問が片付くわけですから。

だから、孤立した成功例はこれからも出ると思います。

ただ、私たちがわかってきたのは、一部の成功例だけを見ると、つまりSNSで拡散されるものだけを見ると、ものすごく見えるということです。何十年も未解決だった問題が次々に落ちていくように見える。

でも、系統的な研究をすると、特定の問題に対するAIツールの成功率はせいぜい1%か2%です。単にスケールを買って、勝ちだけを拾っているから立派に見えるんです。

何百もある、非常に名誉ある難しい数学問題についても、似たようなことが起きると思います。AIがたまたま運よく解いてしまって、誰も気づかなかった抜け道があった、ということはあるでしょう。

それは大きく報道されるでしょう。

でもそのあと、人々が自分のお気に入りの問題に同じような派手なツールを試してみると、また1%か2%の成功率を味わうことになる。うまくいくときとうまくいかないときのシグナルのあいだには、大量のノイズがあるんです。

だから、こうした本当に標準化されたデータセットを集めることがますます重要になります。AIに解かせるための標準的なチャレンジ問題セットを作ろうという試みも今あります。

AI企業が勝ちだけを発表し、失敗例を開示しない、ということに頼らないためです。そうすれば、私たちが実際にどの地点にいるのかが、もう少し明確になるかもしれません。

それでも、AIの進歩は驚異的である

ただ強調しておく価値があるのは、この段階ですでに、ある技法を、この特定の問題に適用可能だと誰も書き残していなかったにもかかわらず、モデルがそれを適用できるというだけでも、AIとしてはどれほど大きな進歩か、ということです。

この進歩は、驚異的であると同時に、がっかりするものでもあります。こういうツールの動きを見ていると、本当に奇妙な感覚になります。

ただ、人は驚くほどすぐに慣れてしまうんです。

20年前にGoogleのウェブ検索が出てきたときのことを私は覚えています。他の検索とは比較にならないほど優れていた。最初のページに、自分が欲しかった関連結果がそのまま出てくる。すごいことでした。

でも数年たつと、どんなことでもGoogleで検索できるのが当たり前になってしまった。

2026年レベルのAIは、2021年に見せられたら度肝を抜かれていたはずです。顔認識、自然な音声、大学レベルの数学問題の解答など、今ではただ当たり前だと受け取っています。

2026年のAIは数学の同僚か

2026年レベルのAIと言えば、あなたは2023年に、2026年までには数学における同僚のようになるだろうと予測していましたよね。正しく使えば信頼できる共著者になる、と。

振り返ると、かなり当たっているように見えます。

ええ、自分でもかなり満足しています。

では、その連勝を続けられるか見てみましょう。あなた自身、AIのおかげで生産性が2倍になっているとして、それはいつ頃だと言いますか。

生産性というのは、あまり一次元的な量ではないんです。たしかに、数学のやり方そのものがかなり変わっているのははっきり感じますし、やっていることの種類も変わっています。

たとえば今の私の論文には、コードがずっと多くなっていますし、図もずっと多い。こうしたものを作るのが今はとても簡単だからです。

以前なら数時間かかっていたようなプロットも、今では数分でできます。でも昔なら、そもそもそんな図を論文に入れていなかったでしょう。言葉で説明して終わっていたはずです。

だから、2倍というのが何を意味するのか測りにくいんです。

一方で、今のようなタイプの論文を、もしAI支援なしで書けと言われたら、間違いなく5倍は時間がかかると思います。

5倍ですか。

ええ。ただ、それは補助的な作業です。もっと深い文献調査をしたり、数値実験をたくさん入れたりするようなことです。論文は豊かになります。

でも、私が実際にやっている中核、つまり数学の問題のいちばん難しい部分を解くところは、あまり変わっていません。そこでは相変わらず紙とペンを使っています。

ただ、細かくて面倒なことはたくさんあります。今では書式の整形にAIエージェントを使っています。括弧の大きさが少しおかしいとか、昔は手で一つずつ直していたようなことも、今は裏でかなりうまく処理してくれます。

本当に多くの二次的な作業が速くなりました。私の中核の作業そのものはまだ速くなっていませんが、そのおかげで論文にいろいろ追加できるようになった。

逆に言うと、2020年に書いた論文を、いま改めて書き直すとして、余計な機能は足さず、当時と同程度の機能だけを持たせるなら、正直そこまで大きな時間短縮にはなっていません。

論文はより豊かに、より幅広くなりましたが、必ずしもより深くなったわけではありません。

artificial clevernessとartificial intelligence

あなたは、artificial clevernessとartificial intelligenceを区別していました。この二つの概念をもっとよく理解したいです。

単なるclevernessではないintelligenceの例とは、どういうものなんでしょうか。

知能の定義というのは有名なくらい難しいんです。見ればわかる類いのものではありますが。

でも、誰かと一緒に数学の問題を協力して解こうとしているとき、そこには会話があります。最初はお互い解き方を知らない。

どちらかが、これは有望そうだというアイデアを出し、すると暫定的な戦略のプロトタイプができます。それを試すとうまくいかない。でもそこで修正する。

つまり、時間とともに適応し、継続的にアイデアを改善していくわけです。最終的には、何がうまくいかず、何がうまくいくのかを系統的に地図化できて、前に進む道筋が見えてくる。でもそれは対話の中で進化していくんです。

これは、今のAIがやっていることとは少し違います。AIも多少はそれを真似できます。

さっきのジャンプロボットのたとえに戻るなら、ジャンプして失敗し、またジャンプして失敗することはできる。でも、少しだけジャンプして手がかりをつかみ、そこにとどまり、ほかの人を引き上げ、そこからさらにジャンプする、ということはできない。

対話的に積み上げられる累積的なプロセスがないんです。もっと試行錯誤と反復、つまり総当たりに近い。

それはスケールするし、特定の文脈では驚くほどよく働きます。でも、部分的進歩から累積的に組み立てていくこの感覚は、まだ完全には実現していません。

面白いですね。つまり、Gemini 3とかClaude 4.5とかが問題を解いたとしても、それによってそのモデル自身の数学理解が進歩したわけではない、ということですか。

そうです。

あるいは、解ききらずに問題に取り組んだとしても、そのモデル自身の数学理解が前進したわけではない。

ええ。新しいセッションを開けば、さっき何をしていたか忘れています。関連問題に積み上げるための新しい技能も何も身についていない。

もちろん、今やったことの0.001%くらいが次世代モデルの訓練データに入る、ということはあるかもしれません。だから、最終的に少しは吸収される可能性はあります。

スポンサー挿入と、難問の分解能力

ここでTerenceは、特に手ごわい問題を、もっと易しい複数の塊に分解することの重要性を話しています。

それが完全な解答に直結しないとしても、そういうやり方で問題に近づくことは、直観を育て、進歩を続けるために必要な技法を練習することにつながるわけです。

でも今のモデルは、こういう問題解決技法に苦労しがちです。そこで登場するのがLabelboxです。

Labelboxは、モデルが単に正しい答えを出すだけでなく、正しい考え方をするように訓練する手助けをします。こうした推論行動をルーブリックに落とし込み、モデル出力の重要な次元をすべて評価できるようにしているんです。

このルーブリックは、単なる正誤判定を超えています。モデルは適切な道具を使ったか、自分の仕事を点検したか、別の道筋を探ったか、応答はどれだけ明確だったか。

こうしたスキルは、数学、物理、金融、心理学など、多くの領域で役立ちます。そして、複数の解があったり、解がまだわかっていなかったりするような、より難しく開かれた問題にモデルが取り組むほど、ますます重要になります。

Labelboxは、あなたの分野に合わせたルーブリック作成を支援し、モデルがどう考えるかを体系的に測定し、形成する手助けをしてくれます。詳しくは labelbox.com/dwarkesh まで。

LeanでRiemann予想が解けても、洞察は生まれるのか

私が大きく気になっているのは、AIをただ訓練し続け、Leanでの問題解決がどんどんうまくなっていったとき、ますますすごい問題を解くようになり、しかもRiemann予想の証明のようなLean解からは、驚くほど洞察が得られなかった、ということがありうるのか、という点です。

それとも、たとえAIが完全にLeanの中だけでRiemann予想を解いたとしても、そのLeanプログラムの中で作られた構成や定義は、数学理解を前進させるものでなければならない、というのが必要条件なのでしょうか。

あるいは、それは単なるアセンブリコードのような意味不明なごたごたにすぎない可能性もあるのでしょうか。

それはまだわかりません。

いくつかの問題は、実際のところ純粋な総当たりで解かれています。有名なのが四色定理です。

この定理については、いまだに概念的に美しい証明は見つかっていませんし、もしかすると今後も見つからないかもしれません。問題によっては、膨大な場合分けをして、各ケースを洞察のないコンピュータ解析で処理するしか解けないものもあるでしょう。

ただ、Riemann予想のような問題を私たちが重視する理由の一部は、これを解くには新しい種類の数学が作られるか、あるいはそれまでつながりのなかった二つの数学分野の新しい接続が発見されなければならないと、かなり確信しているからです。

解の形がどういうものかすらわかっていませんが、ただ場合分けを徹底的に調べれば解けるようなタイプの問題には感じられません。

もちろん、偽である可能性もありますけどね。

なるほど。たしかに、仮説が偽であって、線の外に零点が一つ見つかり、それを巨大な計算で確認する、というありそうにないシナリオはありますね。それはかなりがっかりする展開ですが。

ええ。私は、完全自律の一発勝負型アプローチは、この種の問題には向いていないと思います。こうしたツールと人間が協働する相互作用のほうが、ずっと大きな成果を生むはずです。

非常に強力なAIツールに支援された賢い人間たちによって、こうした問題の一つが解かれる姿なら想像できます。ただ、その力学は、今私たちが思い描いているものとはかなり違うかもしれません。

今はまだ存在していないタイプの共同作業になる可能性もあります。

Riemannのゼータ関数のバリエーションを100万種類生成して、AI支援のデータ解析で、今まで知らなかった何らかのパターンを見つける、というようなことがあるかもしれない。

そうすれば、問題をまったく別の数学分野へ変形できるようになるかもしれません。いろいろなシナリオが考えられます。

Leanの中に重要な新構成が潜んでいたら、どう見抜くのか

では、もしAIがそれを見つけていて、Leanの中に、もしその重要性に気づければあらゆる場面に応用できるような、まったく新しい構成が潜んでいたとしたら、どうやってそれを見抜くんでしょうか。

とても素朴な質問ですが、もしDescartesの、代数と幾何を統一する座標系という発想に相当するものが出てきたとしても、Leanコードの中ではただの R→R にしか見えず、それほど重大には見えないのではないでしょうか。

そうした性質を持つ構成は、ほかにもいろいろあるはずです。

Leanのようなもので証明を形式化することの美点は、そのどの部分でも取り出して、原子的に研究できることです。

難しい問題を解いた論文を私が読むとき、たいてい大きな補題や定理の連なりがあります。理想的には著者が、何が重要で何がそうでないかを言葉で説明してくれます。

でも、どの段階が本当に重要で、どれが単なる定型的ステップなのかを十分には明かしてくれないこともある。

形式化されていれば、各補題を切り出して単独で調べられます。ある補題はかなり標準的で、見たことのあるものに似ている。そこにはおそらく大きな新しさはない。

でも別の補題は、私は見たことがないし、これがあれば主結果を証明するのに非常に役立つこともわかる。

つまり、その一歩が議論の鍵なのかどうかを評価できる。そしてLeanは、それを非常にやりやすくしてくれます。個々のステップがとても正確に切り分けられているからです。

将来は、巨大なLean生成証明を受け取って、それを削ったり、より美しい形にしたりすることを専門にする数学者という職業が、まるごと生まれると思います。

別のAIに、証明をもっとエレガントにするための強化学習をさせることもあるでしょうし、さらに別のAIが、その証明のほうが見栄えがよいかどうかを採点することもあるでしょう。

論文の書き方そのものが変わる

近い将来かなり変わることの一つは、論文の書き方です。

ごく最近まで、論文を書くことは仕事の中でいちばん時間がかかり、コストの高い部分でした。だから、書くのはごくまれでした。

議論の他の部分がすべて確認されてからでなければ書かなかった。書き直しやリファクタリングが本当に大変だったからです。

でも現代のAIツールで、それはずっと楽になりました。論文は一つの版だけでなくていい。一つあれば、そこから何百もの版を生成できます。

一つの巨大で雑然としたLean証明は、それ単体ではそれほど意味がなく、理解しにくいかもしれません。でも他の人がそれをリファクタリングし、さまざまなことができる。

Erdős問題のウェブサイトでも、それを見ています。AIが証明を生成し、それを検証する3000行のコードがある。

そこから別のAIに証明を要約させたり、人間が自分の証明を書いたりする。つまり、事後処理が起こっているんです。

一つ証明があれば、私たちは今、それを分解し、解釈するための多くのツールを持っています。これは数学の非常に初期段階の分野ですが、その点について私はあまり心配していません。

Riemann予想が完全に理解不能な証明で示されたらどうするのか、と心配する人もいます。でも私は、いったん証明という成果物さえあれば、それに対して多くの分析ができると思っています。

証明ではなく、数学戦略のための形式言語は作れるか

あなたは最近、数学の証明そのものではなく、数学的戦略のための形式言語ないし半形式言語があると役に立つだろう、と投稿していました。Leanは証明に特化していますよね。

それがどういうものになりうるのか、もっと知りたいです。

まだよくわかっていません。

数学では、論理と数学の法則を何とか整理できたのは、本当に幸運だったと思います。ただ、これは比較的新しい達成なんです。

始まりは二千年前のEuclidにさかのぼりますが、数学の公理、いわゆるZFC、第一階述語論理の公理、そして証明とは何かを最終的に列挙できたのは、20世紀初頭になってからでした。

この部分については、私たちは自動化に成功し、形式言語も持てるようになったんです。

でも、たとえば、もっともらしさを評価するやり方があるかもしれません。ある命題が真だと予想し、いくつか例を試したらうまくいった。そのことで、その予想が真であるという確信がどれだけ増すのか。

これをモデル化する数学的な方法はいくつかあります。たとえばベイズ確率です。

ただ、そのためにはある種の初期仮定を置かなければならないことが多く、そこにはまだかなり主観が入ります。

だからこれは、具体的な開発計画というより願望に近いものです。

とはいえ、Leanのような形式的枠組みが、演繹的証明の自動化やAI訓練をどれだけ容易にしたかを見ると、ボトルネックはやはりそこにあります。AIに戦略を作らせたり予想を立てさせたりするとき、今は、その妥当性を判断するのに人間の専門家や時間の試練に頼るしかない。

もし、そうしたことを半自動的に、しかも簡単にごまかせない形で行える半形式的な枠組みがあれば、とても大きいでしょう。

形式証明支援系では、バックドアや抜け穴が一切あってはいけないというのが本当に重要です。そうでないと、強化学習はその抜け穴を見つけるのがあまりにも得意だからです。

科学者同士が、データや議論を用いながら、同時に物語も構築しつつ、半形式的に対話するような枠組みがもし作れたらと思います。

科学には主観的な側面があって、それをどう捉えればAIを有効に差し込めるのか、私たちはまだわかっていません。これは未来の課題です。

自動的に予想を立てる研究も進みつつありますし、ベンチマークやシミュレーションのやり方もあるかもしれません。でも、すべて非常に新しい科学です。

形式化できない科学的コミュニケーションの具体例

その直観をもう少しつかむのを手伝ってもらえますか。二つ小さな質問があります。

一つは、科学者たちのコミュニケーションのうち、まだ形式化できていないものとは具体的にどんな例なのか、はっきりした例があると助かります。

もう一つは、何か物語や自然言語による説明を積み上げつつ、それと同時に形式化できるようなものを持つと言うと、ほとんど定義上、逆説的にも見えます。

そこにどんな直観があるのか、重なりがどこにあるのか、ぜひ理解したいです。

予想の例を一つ挙げましょう。

Gaussは素数に興味を持ち、数学で最初期のデータセットの一つを作りました。最初の10万個くらいの素数を計算して、何かパターンがないか探したんです。

すると、期待していたパターンとは違うかもしれませんが、あるパターンを見つけました。100まで、1000まで、100万までに素数がいくつあるかを数えると、素数はどんどんまばらになります。

しかし、その密度の減り方は、数の範囲の自然対数に反比例していました。

そこで彼は、今でいう素数定理を予想しました。X以下の素数の個数は、Xを自然対数log Xで割ったものに近い、というものです。

彼にはこれを証明する方法はありませんでした。これはデータ駆動の予想でした。

当時としては革命的でした。おそらく数学において本当に重要な予想の中で、最初に本格的に統計的性質を持ったものだったからです。

ふつうなら、素数の間隔に何か規則性がある、といった形のパターンを考える。でもこれは、ある範囲に素数がいくつあるかを厳密に教えてくれるわけではない。ただ、範囲をどんどん大きくしていくと、近似はどんどん良くなる。

これが、後に解析的整数論と呼ばれる分野の出発点になりました。

素数はランダムのように振る舞うという半形式的理解

これは、この種の予想の最初の一つであり、その後多くが証明されました。その結果、素数には本当の意味での規則的パターンはあまりなく、ある密度を持つランダムな数の集合のように振る舞う、という考えが固まっていったんです。

もちろん、いくつかのパターンはあります。ほとんどが奇数であるとか。

また、実際にはランダムでもありません。いわゆる擬似ランダムです。素数を生成するのに乱数は使われていませんから。

それでも時間がたつにつれて、素数を、まるで神様がずっとサイコロを振って作ったランダム集合であるかのように考えるほうが、生産的だとわかってきた。

そう考えることで、他にもいろいろな予測ができるようになったんです。

整数論には今も未解決の双子素数予想があります。11と13のように、差が2の素数の組が無限に存在するはずだ、という予想です。

私たちはそれを証明できませんし、証明できない理由もかなりよくわかっています。でも、素数の統計的ランダムモデルのおかげで、それが真だと私たちはほとんど確信しています。

もし素数がコイン投げで生成されていたら、無限の猿がタイプライターを打つように、偶然によって双子素数が何度も何度も現れるはずだ、とわかっているからです。

こうして私たちは時間をかけて、統計と確率にもとづく、素数がどう振る舞うべきかについての非常に正確な概念モデルを作ってきました。

その多くはヒューリスティックで厳密ではありませんが、驚くほど正確です。そして、実際に素数について何か証明できた数少ない場面では、その結果はいつも、このランダムモデルの予測と一致してきました。

つまり、私たちは素数を理解するための、予想的な概念枠組みを持っていて、みんなそれを信じているんです。

それは、Riemann予想が真だと信じる理由でもありますし、素数にもとづく暗号が数学的に安全だと信じる理由でもあります。全部、この信念体系の一部なんです。

実際、Riemann予想をなぜ重視するかの一つの理由は、もしそれが間違っていたら、このモデルに大きな打撃を与えるからです。

私たちが知らなかった、素数の秘密のパターンがあるということになる。もしそうなら、素数ベースの暗号はすぐに捨てることになると思います。ひとつ知らないパターンがあったなら、まだ他にもあるはずで、そうしたパターンは暗号の脆弱性につながりうるからです。

それは大きな衝撃でしょう。だから、そうならないことを本当に確認したいわけです。

進歩の測定には、歴史のサンプルが足りない

Riemann予想のようなものを真だと信じるようになったのは、時間をかけて、そうなってきたからです。実験的証拠もありますし、理論結果が少しずつ得られるたびに、それがいつも整合的だったからでもあります。

もちろん、全体の合意が間違っていて、私たちがみな何か非常に基本的なことを見逃している可能性もあります。科学史には過去にもパラダイム転換がありましたから。

でも、これをどう測るかという方法を私たちは本当には持っていません。数学や科学がどう発展するのかについてのデータが足りないからです。

私たちには歴史のタイムラインが一つあるだけで、せいぜい100個くらいの歴史上の転換点の物語しかありません。

もし、歴史と科学の発展の順序がそれぞれ異なる100万の異星文明にアクセスできたら、何が進歩で、何がよい戦略なのかを測る理解に、本当に近づけるかもしれません。そこで初めて形式化や枠組みづくりに本格的に踏み出せるでしょう。

もしかすると必要なのは、AIが算術のような非常に基本的な問題を解く小さな宇宙やシミュレーションをたくさん作り、そこで独自の戦略を編み出させ、そういう小さな研究室でテストすることなのかもしれません。

10桁の掛け算ができる最小のニューラルネットワークは何か、といったことを研究している人たちはいます。そういう単純な問題の上で小さなAIを進化させるだけでも、たくさん学べると思います。

スポンサー挿入と、自学自習の話へ

Mercuryからポッドキャストのスポンサーの話が来たとき、私は本当にうれしかったんです。何年も前から彼らで銀行取引をしていたからです。最初の口座を開いたのはたしか2023年だったと思います。

この数年で私が評価するようになったことの一つは、Mercuryが常に更新を続け、新機能を足していることです。

最新機能のInsightsを例にとると、入出金の要約をしてくれて、いちばん大きな取引を見せ、特に注意すべきものを指摘してくれます。

たとえば、ある提携先からの収益が下がっているとか、調査が必要な大きな未分類の支出があるとか。事業の状況を気軽に把握して、素早く意思決定するための摩擦の少ない手段なんです。

たとえば私は、事業運営に手元資金として必要のない現金は投資に回すようにしています。Insightsを使えば、数クリックで2025年の各月にいくら使ったか正確に把握できるので、翌年の運転に必要な現金がどれくらいかがわかる。そして残りを投資に回せるわけです。

Mercuryはこのような機能を次々に追加しています。興味がある方は mercury.com を見てみてください。

Mercuryはフィンテック企業であって、FDIC保険付き銀行ではありません。銀行サービスはChoice Financial GroupおよびColumn NAを通じて提供されており、いずれもFDIC加盟です。

Terence Taoはどうやって新分野を学ぶのか

あなたは、新しい分野について、ただ非常に速く学ぶだけでなく、その最前線に貢献できるほど深く学ばなければなりません。

ある意味で、あなたは世界でもっとも優れた独学者の一人でもあると思います。数学の新しい下位分野を学ぶとき、あなたはどんなプロセスを踏むんですか。

以前、深さと広さの話をしましたね。これは、人間とAIの区別に限った話ではありません。人間にも同じことがある。

たしかBerlinが、人をハリネズミとキツネに分けていました。ハリネズミは一つのことを非常によく知っていて、キツネはいろいろなことを少しずつ知っている。

私は明らかに自分をキツネだと思っています。ハリネズミ型の人たちとよく一緒に仕事をしますし、必要なら自分もハリネズミになることはあります。

昔から私は少し強迫的なところがあるんです。何か読んでいて、自分にも理解できる能力はあるはずなのに、なぜそれがうまくいくのか理解できない、どこかに魔法があるように感じる、ということがある。

自分の知らない数学を使って、誰かが私の解きたい結果を出している。自分ではできないのに、その人はその方法でできてしまった。そのトリックが何なのかを知りたくなるんです。

自分にもできるはずだと思うことを、他の誰かはできるのに自分にはできない。それが気になる。そういう、強迫的でコンプリート志向な気質は昔からあります。

コンピュータゲームをやめるように自分を慣らさなければならなかったくらいです。いったん始めると、全部のレベルを終えるまでやりたくなってしまうからです。

新分野を学ぶ一つの方法は、そういう気質です。

もう一つは、たくさんの人と共同研究することです。ほかのタイプの数学を教えてくれる人たちとずいぶん仕事をしてきました。別の分野で働いている数学者と友達になるんです。

その人たちの問題は面白いと思う。でも、基本的な技法や、何が既知で何が未知かは、彼らに教えてもらわなければならない。そこからたくさん学びます。

そして、学んだことを書くことも助けになっているとわかりました。私はブログを持っていて、ときどき学んだことをそこに記録しています。

若いころは、何かを学んで、こういう面白いトリックがあるのか、よし覚えておこう、と思うことがよくありました。でも6か月後には忘れているんです。

覚えたことは覚えているのに、その議論の筋道は再構成できない。何度かそれを経験して、理解したのに失ってしまうのは本当に悔しかった。

そこで、何か面白いことを学んだら必ず書き留めるべきだ、と決めたんです。それが、このブログの成り立ちの一部でもあります。

ブログを書く時間と、AIが助ける雑務

ブログ記事を書くのには、どれくらい時間がかかるんですか。

あれは、ほかの仕事をやりたくないときによくやることなんです。査読報告みたいな、いまやるのはちょっと気が重いなという仕事があるときですね。

ブログを書くのは創造的で楽しい。自分のためにやっていることです。話題によって、30分で済むこともあれば、数時間かかることもあります。

自分から進んでやっていることなので、時間が飛ぶように過ぎます。行政的な理由でやらなければならないだけの、ただただ面倒な作業とは違います。

ちなみに、そういう種類の仕事こそ、今ではAIが本当に助けてくれています。

もし文明がTerence Taoの時間を最適配分したら

もし文明が、第一原理からTerence Taoの時間という限られた資源をどう使うか決められるとしたら、今といちばん大きく違うのは何でしょうか。

たとえば無知のヴェールに決めさせた場合、現在の使われ方と何が違いますか。

このポッドキャストは起きていないでしょうね。

やりたくないけれど、やらなければいけない仕事について文句を言うことはあります。学界で上に行くほど、責任も委員会も、いろいろ増えていきますから。

でも一方で、何らかの理由で義務としてしぶしぶ出席したイベントが、実はとてもよかった、ということもたくさんありました。自分の快適圏の外だからこそ、普段なら話さないような人と交流が生まれるんです。たとえば、あなたみたいな人ともですね。

そうすると、面白いことを学べたり、面白い経験ができたりする。そこからさらに、以前なら絶対に得られなかったネットワークの機会も生まれる。

だから私は、偶然性というものをかなり信じています。

一日の中にはかなり綿密に予定を組む部分もあります。でも、自分の通常とは違うことをやる時間も、ある程度は残すようにしています。

時間の無駄になるかもしれない。でも、何か学べるかもしれない。そして多くの場合、予定していなかったポジティブな経験が得られます。

最適化しすぎる社会が失うもの

私は偶然性をかなり信じています。AIに限らず、現代社会には、あらゆるものを最適化するのがうますぎるがゆえの危険があるのかもしれません。私たちは、自分たちの最適化そのものを最適化していない。

たとえばCOVIDのとき、リモート会議に大きく移行しました。すると、すべてが予定されたものになった。学界としては忙しく動き続けましたし、対面のときとほとんど同じ人数と会っていたかもしれません。

でも、すべて事前に計画されていなければならなかった。

失われたのは、廊下でちょっとドアをノックすることや、コーヒーを取りながら偶然誰かに会うことでした。

そういう偶然のやりとりは、一見すると最適ではないように見えます。でも実はとても重要なんです。

私が大学院生だったころは、雑誌論文を探しに図書館へ行っていました。実際に雑誌を手に取り、論文を読む必要があった。

そのとき、前後の論文をぱらぱらめくって、隣の記事も面白いと気づくことがあるんです。もちろん、そうでないこともある。でも、偶然に面白いものを見つける可能性があった。

それは今では、ほとんど失われました。論文にアクセスしたければ、検索エンジンかAIに打ち込めば、欲しいものが即座に手に入る。でも、もっと非効率なやり方なら出会えたかもしれない偶然の発見は得られません。

集中しすぎるとインスピレーションが枯れる

以前、Institute for Advanced Studyに1年間いたことがあります。あそこは、気が散るものがない素晴らしい場所です。研究だけをするための場所です。

最初の数週間は最高です。ずっとやりたかった論文が次々に書ける。何時間もまとめて問題について考えられる。

でも、何か月もそこにいると、私はインスピレーションが尽きてくるんです。退屈して、インターネットを見る時間が増えてしまう。

人生には、ある程度の雑音や気の散るものが実は必要なんです。それが適度なランダム性や高温性を加えてくれる。

自分の人生をどうスケジュールするのが最適か、私にはわかりません。でも、今の形で何となくうまく回っている気がします。

AIはいつ一流数学者を完全に代替するのか

最前線の数学を、少なくとも最高の人間の数学者と同じくらいにできるAIがいつ出てくると予想するか、とても気になります。

ある意味では、人間にはできない最前線の数学を、すでにAIはやっていますよね。ただ、それは私たちが慣れている種類の最前線とは違う。

計算機もまた、人間にはできない最前線の数学をしていたと言えます。けれど、それは数値計算でした。

でも、Terence Taoを完全に置き換えるという意味では、ということですね。

つまり、私に何をしてほしいんですか。これからはあなたが全部のポッドキャストに出ればいいじゃないですか。

そもそも、その問い方自体が正しくないのかもしれません。

10年以内に、数学の学生がいまやっていることの多く、私たちが時間の大半を費やしていることの多く、そして今の論文に入っている内容の多くは、AIでできるようになると思います。

でも、そのとき私たちは、それらは実は自分たちの仕事のいちばん重要な部分ではなかった、と気づくでしょう。

100年前、多くの数学者は単に微分方程式を解いていました。物理学者が、ある系の厳密解が必要だと言えば、数学者を雇って、流体方程式だ何だと、面倒な計算を全部やってもらっていた。

19世紀の数学者がしていたことの多くは、今ならMathematicaやWolfram Alphaや数式処理ソフト、そして最近ではAIに頼めば、数分で解いてしまうでしょう。

でも数学は死んでいません。私たちはその先へ進んだんです。

コンピュータが登場したときも同じです。コンピュータは昔、人間でした。対数表を作ったり、Gaussのように素数を計算したりする人間たちがいた。でも、それはコンピュータに外注された。

それでも私たちは前に進んだ。

遺伝学でも、ある生物のゲノムを配列決定するのに、かつては遺伝学者のPhD丸ごと一つぶんの労力が必要でした。染色体を一つずつ分けて、慎重に作業していた。

今では1000ドル払ってシーケンサーに送れば終わりです。でも遺伝学という学問は死んでいない。スケールを変えたんです。個体ではなく、生態系全体を研究するようになるかもしれない。

数学の大部分は、長く人間とAIのハイブリッドで進む

言いたいことはわかります。でも、数学の進歩の大半、あるいはほとんどすべてがAIによって起きるようになるのはいつですか。

たとえば今年、ミレニアム懸賞問題が解かれたと聞いたら、それを95%の確率でAIが自律的にやったとあなたが考えるような年は、いつか来るのでしょうか。

そういう年は確かに来るでしょうね。

ただ、数学は人間プラスAIのハイブリッドが、もっとずっと長く支配的だろうと私は思います。今あるものに加えて追加の突破が必要になるので、かなり確率的な話になります。

今のAIは、あることには非常に優れている一方で、他のことには本当にひどいです。エラーレートを下げ、互いに少しうまく連携させるためのフレームワークをどれだけ積み上げても、あらゆる知的作業を本当に満足に代替できるだけの材料は、まだ揃っていないように感じます。

現状では、補完的な存在なんです。代替ではありません。

今のレベルのAIでも、科学をいろいろな形で加速するでしょう。うまくいけば、新しい発見や新しい突破ももっと速く起きる。

ただ逆に、偶然性を壊すことで、特定の進歩をかえって阻害する可能性すらあります。今の時点では、本当に何でもありうる。

世界は今、本当に、本当に予測しづらいと思います。

これから数学を志す人への助言

数学の道を考えている人、あるいは数学のキャリアの初期段階にいる人に、どんな助言をしますか。特にAIの進歩を踏まえて、キャリアについてどのように考えるべきでしょうか。

私たちは変化の時代に生きています。さっきも言ったように、とくに予測しづらい時代です。何世紀も当然だと思っていたことが、もう成り立たなくなるかもしれない。

数学に限らず、あらゆることのやり方が変わっていくでしょう。正直に言えば、10年前や20年前とほとんど同じで、もっと退屈で静かな時代のほうが、私は好みです。

でも、これから大きな変化がたくさん起きるのだ、ということを受け入れるしかないと思います。

あなたが学ぶことの中には、陳腐化したり、革命を起こされたりするものもあるでしょう。でも残るものもある。

だから常に、これまでできなかったことができるようになる機会に目を向けていなければいけない。

以前なら、数学研究の最前線に貢献するには、何年も何年も教育を受けて数学のPhDになっている必要がありました。

でも今では、高校生レベルであっても、あるいはそれに近い段階であっても、数学プロジェクトに参加して、本当に意味のある貢献ができる可能性がかなりあります。AIツールやLeanや、それ以外のものがあるからです。

学び方にも、これまでとは違う、非伝統的な機会がたくさん出てくるでしょう。だから、非常に適応的な心構えが必要です。

好奇心から物事を追ったり、遊びながら探ったりする余地もあります。

もちろん、当面は資格も必要です。しばらくのあいだは、伝統的な教育を受けて、昔ながらのやり方で数学や科学を学ぶことが依然として重要でしょう。

でも同時に、まだ存在していないものも含めて、科学のまったく違うやり方に対しても開かれていなければならない。

怖い時代ではありますが、とてもわくわくする時代でもあります。

締めくくりとして素晴らしい言葉ですね。Terence、本当にありがとうございました。

こちらこそ、楽しかったです。

コメント

タイトルとURLをコピーしました