OpenAIのチーフサイエンティストが語る、継続的学習の誇張、コードを超えた強化学習、そしてアライメントの将来の方向性

OpenAI・サムアルトマン
この記事は約41分で読めます。

本動画は、OpenAIのチーフサイエンティストであるヤクブ・パホツキ(Jakub Pachocki)をゲストに迎え、AI研究の最前線について深く掘り下げたインタビューである。継続的学習の現在地、コーディングや数学といった検証可能な領域を超えた強化学習のスケーリング、そしてモデルの汎化に伴うアライメントの長期的な課題など、多岐にわたるトピックが論じられている。さらに、AIが科学的発見を牽引する「AI for Science」の展望や、モデルの推論プロセス(Chain of Thought)を隠蔽することの安全性における意義、そして急速なAIの進歩が社会や雇用に与える影響に対する考察も含まれており、AGI到達に向けたOpenAIの戦略と危機感を浮き彫りにする内容となっている。

OpenAI’s Chief Scientist on Continual Learning Hype, RL Beyond Code, & Future Alignment Directions
Jakub Pachocki, OpenAI's Chief Scientist, sits down with Jacob to cover the full arc of where AI research stands today a...

継続的学習とアライメントの課題

継続的学習が本当に重要なテーマであるという点には、間違いなく同意します。私たちが構築しているのはまさにそれですからね。ただ、これが現在私たちが行っていることから外れた、無視されている問題だとは思っていません。私たちが目標としているものそのものだと考えています。

アライメントにおける他の研究分野で、注目しているものや有望だと思われるものは何でしょうか。

アライメントに関する長期的な課題の多くは、汎化に関わるものです。

モデルが立ち返るべき価値観とは何なのでしょうか。

これらの他の分野でモデルを本当にうまく機能させるために、解明すべきことは何ですか。

私はこの現実に戻ってきます。

ヤクブはOpenAIのチーフサイエンティストです。文字通り、地球上で最も重要な人物の一人だと思います。本日のUnsupervised Learningでは、私がずっと考えてきたこと、そしてエコシステムにいる多くの人々が考えているであろうすべてのことを、彼に直接聞くことができました。モデルの進歩や、長期稼働するエージェントを機能させるために必要なこと、さらにはOpenAIがAI for Scienceの世界で行ってきた非常に興味深い取り組みと、彼が今後数年間でそこに見込んでいる進歩について、たっぷりと語り合いました。

企業がこの時期にモデル構築をどう考えるべきか、いつ強化学習を行うべきか、ハーネスの進化とそれがもたらす影響をどう捉えるべきかについても深く掘り下げています。また、彼自身が取り組んできたアライメントに関する研究や、OpenAIが全体として数学の競技において達成してきた成果など、彼の非常に興味深い研究の数々にも触れました。

さらに、現在のOpenAIという組織が直面している重要な局面と、それが研究部門に何を意味するのか、彼がどのようにチームを運営しているのかについても話を聞きました。世界を革命的に変えつつあるこの分野の進歩を牽引している人物と対話できるなんて、本当に素晴らしい機会です。私が楽しんだのと同じくらい、皆さんがこの幅広い対話を楽しんでくれることを願っています。

AI研究者レベルのモデル実現に向けたタイムライン

あなたは、エコシステムの誰もが抱いている疑問について話を聞くのに、まさに完璧な人物だと感じています。モデルの進歩について何が起きているのか。多くの企業が、モデルの進化を踏まえて自分たちはどう開発を進めるべきか考えています。社会レベルでは、多くの人がAIが科学やより広い社会に与える影響について考えています。そしてあなたは、ここ数年のあらゆる世代の改善の最前線に立ってきました。ですから、あなたをこのポッドキャストにお招きできて本当に嬉しいです。

お招きいただきありがとうございます。

まずは、あなたが言った最も興味深いことの1つから始めたいと思います。4ヶ月前、あなたとOpenAIのチームは、今年の9月までに研究インターンレベルの能力を持つシステムを目指していると話していましたよね。あと半年ほどに迫っています。そして、2028年の3月までには、より完全に自動化されたAI研究者を実現するという話でした。そこから4ヶ月経った現在、それらのタイムラインについてどのように感じていますか。

そうですね、過去数ヶ月の間に起きた本当の変化は、コーディングツールの爆発的な成長を目の当たりにしたことだと思います。

ええ、控えめな表現ですね。

私たちは間違いなく、OpenAI社内において、実際のコーディングの大部分にCodexを使用する段階にまで到達しています。そのため、多くの人にとってプログラミングという行為自体がかなり変わってしまったと思います。ですから、私はこれを私たちが正しい軌道に乗っているという1つのシグナルとして捉えています。過去数ヶ月の間に私にとって非常に興味深かったもう1つのアップデートは、数学の推論能力における進歩です。また、物理学やその他の分野でも結果が出始めています。このレベルの能力や洞察を提供する能力が、インフラへのアクセス能力や、より多くの計算リソースをテスト時に使用する能力、これは現在Codexが使用しているものですが、それらと組み合わさることでさらに強力になります。そして、今後数ヶ月の間に汎用人工知能の能力も非常に大きく向上すると予想しています。ええ、それは私たちが今も非常に計画的に進めており、大いに注力していることです。

その目標に到達したと、どのようにして判断するのでしょうか。つまり、よし、これで研究インターンレベルの能力に達したと言うために、どのようなワークフローを指標にするのでしょうか。

研究インターンと完全な自動化研究者を区別する基準は、システムがほぼ自律的に動作する時間の長さや、与えなければならないタスクの具体性になります。ですから、モデルに向かって単にモデルの能力を向上させてとかアライメントを解決してと指示すればやってくれるようなシステムが今年中に完成するとは思っていません。いずれはその段階に到達するかもしれませんが、今はモデルを改善するためにこんな具体的なアイデアがあるとかこの評価を別の方法で実行してみてといった、より具体的な技術的アイデアについて指示を出すレベルです。私たちは、すでにほとんどのピースを持っており、あとはそれらを組み合わせるだけだと考えています。

アンドレイ・カルパシーが、彼が構築しているようなモデルを使って自らの作業を改善するという、かなり話題になったデモを公開していましたが、あなた方が構築しているものよりはるかに複雑ではないにせよ、あれはこれから登場するであろうツールの精神を大まかに体現しているように感じられましたか。

ええ、精神としては同じだと思います。現在のCodexから、かなり継続的な進化をしていく形になるだろうと予想しています。より自律性を持ち、より長期間にわたって稼働するようになるでしょう。ですが、こうした種類のアプリケーションが今後たくさん登場すると思いますし、全般的に見て、これらのモデルがさまざまな目的のために、より自律的に、より多くの計算リソースを使って活用されるようになるでしょう。

数学と物理学におけるAIの進歩

数学と物理学の側面について言及されましたが、OpenAIは競技数学の問題などで本当に印象的なブレークスルーを達成しましたね。リスナーにとっては、コーディングの進歩がAI研究の支援のようなものに直接つながることは直感的に理解しやすいと思うのですが、数学や物理学の進歩は、どのようにこれに結びつくのでしょうか。

これらの数学のベンチマークに注力することの最大の役割は、一般的なベンチマークとして、そしてこの技術をどのように改善すべきかを示す羅針盤としての役割です。数学は非常に測定しやすいという特徴があります。優れたソフトウェアを作成できたかどうかを判断するよりも、数学の問題を実際に解けたかどうかを判断する方がはるかに簡単です。また、非常に難易度が高くなることもあります。解けたかどうかは非常に明確である一方で、実際に解くのが限りなく難しいという問題も存在します。

少し前までは、私たちのモデルは簡単な数学の問題を解くことができないという見方をしていました。その後、簡単な問題は解けるが、IMOレベルの問題は解けないという段階になりました。つまり、モデルの知能には明確なギャップがあり、それは非常に測定可能で、私たちが何をすべきかが非常に明確だったのです。これが推論モデルなどにとっての私たちの羅針盤となってきました。

もちろん、現在は状況がかなり変化しています。私たちは、IMOの問題を解くという目標や、研究レベルの数学に進出するという、これまで取り組んできたマイルストーンに到達しました。そして、ここから先も、これで進捗を測り続けることには確実に有用性があると考えています。また、数学的推論が上達することから、AI研究が上達することへの転移も確実にあると思います。私たちの優秀な研究者の多くは、数学の訓練を受けていたり、他の理論的な分野の出身だったりします。

しかし間違いなく、私たちはこの羅針盤の捉え方を大きく変えつつあり、私たちが生み出している次のモデルが、現実世界で実際にどのように役立つかということに非常に注力しています。研究にとってはもちろんですが、経済的に価値のある他の活動や、他の科学分野、特により応用的な科学分野でどのように役立つかということです。この移行の理由は、モデルが現在、あらゆる面で人間ほど賢くはないにせよ、経済や物事のやり方を実質的に変えるのに十分な能力を持っていると私たちが信じているからです。そのため、これについて非常に強い切迫感を感じています。

一般領域における強化学習とスケーリング

初期の段階では、数学のように解決するのは非常に難しいが、できたかどうかの検証は簡単にできるドメインを選ぶのは、まさに始めるのに最適な場所ですね。そして、コーディングも明らかにそれと多くの属性を共有しています。チェックや検証が可能で、強化学習に最適です。現在、多くの人が考えている疑問の1つは、検証が比較的容易な分野で強化学習が信じられないほどうまく機能することは分かった。しかし、医療、法律、金融など、世の中の価値あるタスクの多くは、ある程度の検証は可能であっても、数学やコードと同じレベルではない。果たして同様の改善が見られるのだろうかということです。ご存知の通り、コードと数学の進歩のスピードはあまりにも天文学的で衝撃的ですからね。

ええ、間違いなくそうなると思います。私たちがよく考える興味深い二面性として、これらのより一般的なタスク、評価が難しいタスクは、単により長期的な視点が必要なタスクと多くの共通点を持っているということが挙げられます。非常に仕様が明確な数学やコーディングの問題であっても、それが1年がかりで取り組むべきものだと考えてみてください。長期的に見て成功の基準が明確であったとしても、初日に何をすべきかというのは非常にオープンエンドな問題ですよね。ですから、これらの難しさは重なっており、システムがどのように発展していくかという次のフロンティアであることは非常に明確だと考えています。これらのより一般的なドメインにおいて強化学習をスケールさせる能力と、大きな可能性を秘めた取り組みをスケールさせる能力の両方で、非常に心強い兆候がすでに見られています。

これらの他のドメインでは、何がタスクの成功だったのかを知ること自体が、最も難しいことの1つに感じられます。コードや数学に直面している短期的なタスクがあり、それよりも長期的なタスクとなると、その難しさはさらに増幅されると想像できます。短期的な法律や医療のタスクで何千回も反復実行して、正しく行われたかどうかを判断するのは難しいかもしれません。さらに長期的なタスクとなれば、なおさらです。そうした研究課題をどのように概念化しているのでしょうか。モデルをこれらの他の分野で本当にうまく機能させるために、何を解明する必要があるのでしょうか。

ええ、結局はモデルをどのようにして非常に長期間機能させるか、そして部分的な進捗を評価する方法をどのようにモデルに教えるかという現実に戻ってくると思います。強化学習以外を見ても、長期的なタスクにおける進歩がどこから来ているのかを考えれば分かります。事前学習における純粋な教師あり学習からモデルがより一貫性を持つようになると、ここではどのような部分的な成果物が良いものなのかという概念をある程度獲得します。ですから、仮に私たちが強化学習をそれほど意味のある形でスケールさせなかったとしても、時間とともにこれらのタスクの期間が延びていくのを目にするでしょう。もちろん、強化学習からの新しいアイデアを活用してこれを一般的なドメインに適用する方法を見つけ出すことは、間違いなく研究上の課題です。しかし、それについてはかなり楽観視しています。

ええ、興味深いですね。あなたのメンタルモデルの一部には、外部から見て少なくともある程度信頼できるペースで、モデル自身が進捗をチェックできるようになるという考えが含まれているのですね。強化学習において汎化がすでに見られるかどうかは、まだ完全には明確ではありません。私たちが焦点を当てることを選んだものに対して、モデルを本当に最適化する技術を確実に持っているようには見えますが、それは一度に1つのことを行うという、古いバージョンの機械学習のようにも感じられます。この特徴付けに同意されますか。また、この現在の状況をどのように見ていますか。

まあ、私たちは大量の計算リソースを購入していますからね。なぜなら、私たちはまだ少し信じていない部分もありつつ、ある意味ではかつてないほど強く信じているからです。ええ、新しい技術や新しいスケーリングの方法も見てきましたが、それが私たちが物事を見るレンズになっています。私たちが取り組むべき複雑さは確実に存在します。なぜなら、私たちはもはや現実世界から完全に切り離された空飛ぶ脳を純粋に構築しているわけではないからです。もしこのモデルに医学研究を行わせたい、いつかガンを治療させたいと思うなら、モデルは現実世界について意味のある方法で学習し、おそらくいくつかの実験を行い、その結果から学ぶ必要があります。そのためには、実際にモデルをどのように接続するかを考え出さなければなりません。それはあなたが説明した方向に向かうことになりますが、それが私たちが開発してきたシンプルなアルゴリズムを見つけ出し、スケールさせるということに逆行するとは思いません。

企業における強化学習の活用とAIハーネス

私は多くの企業と話をしますが、最近誰もが尋ねている主な質問の1つが、私たちは独自の強化学習を行うべきかということです。オープンソースのモデルを使用し、人々が行うタスクのデータがあり、自分たちのドメインを熟知しているから評価指標もある。これは私たちが投資すべきことなのか、それともこれらのタスクがモデルの自然な進化によって改善されるのを単に待つべきなのか。このポッドキャストを聴いている多くの開発者に対して、強化学習の側面にどの程度投資すべきかを検討する上で、どのようなアドバイスをしますか。

強化学習は間違いなく、特定のタスクにおいてモデルを真に改善するための、データ効率の非常に良い方法になり得ます。しかし、私たちが知っているさらにデータ効率の良い学習方法があります。それはコンテキスト内学習です。これがおそらく、人々がこれらのモデルに教える最も基本的な方法です。プロンプトとして、例や希望する指示を与えるだけです。この学習は、今後時間が経つにつれてさらに良くなっていくと予想しています。ですから、モデルがあなたのコンテキスト、あなたが気にかけているタスクに適応できることは間違いなく重要です。それが非常に重要になるでしょう。現在のパイプラインのようなものを複製することが正しい道かどうかは分かりませんが、私たちが考えている問題であることは確かです。

なるほど。つまり、重要な評価指標は何かを把握し、データや例を集めるという作業は依然として必要だが、将来はそれを独自のモデルでどうにかしようとするよりも、このコンテキスト内に投入する方がはるかに良い結果を生む可能性があるということですね。

ええ、その可能性はかなり高いと思います。

人々はCodexのようなツールの成功を見てきました。もちろん、あなたはそれらの重要な役割を担ってきました。そして人々は疑問に思っています。法律、金融、ヘルスケアなど、独自のドメインのために、自分たち独自のハーネスや使い方を構築する必要があるのだろうか。それとも、大規模モデルが備えているハーネスを採用し、自分たちが持っているコンテキスト内でそれを使用するだけでいいのだろうかと。これについてどのような見解をお持ちですか。

ハーネスの実装が、長期間にわたって制限になることはないはずです。あらゆる他のドメインで使用できる、はるかに汎用的なハーネスを手に入れられるようになると思います。実際のところ、Codexをコーディング以外のことに使ってみても、かなりうまく機能しますよ。

それは非常に興味深いですね。はるかに汎用的なハーネスというのは、ドメイン内の特定のツールセットやモデルに露出させたいものに適応できる、あるいはそれら全体で機能するものになるということですね。

ええ。モデルとやり取りするための究極のインターフェースとは一体何なのかを考えることも価値があると思います。モデルはある種のUIの柔軟性を持っています。自分自身でUIを構築することもできます。人間が非常に時間がかかると感じるようなこともできます。しかし、人間が使用している現在のインターフェースにモデルがアクセスできるようにする余地も間違いなくたくさんあると思います。たとえば、Slack上にAIが存在し、それが私たちのコンテキストに接続され、そこから学び、既存のものを実現できるようになるといった形です。間違いなく中間の歩み寄りはありますが、長期的には、デフォルトでAIがあなたのいる場所に歩み寄ってくるようになると私は信じています。そして、もしそうならないとすれば、それはAIに制限があるからではなく、AIが新しい能力を持っているからでしょう。

現在これらのハーネスは特定の環境に非常に特化していますが、時間が経つにつれて、より多くのスキルやツールが追加され、モデルがそれらを効果的にナビゲートできるようになれば、人間が持っているような汎用的なものになるというのは、非常に理にかなっています。

あなたは日々、研究の最前線で信じられないようなものを見ていると思いますが、現時点であなたにとってある日実行してこれが出てきたらかなりクレイジーだと思えるような、意味のあるマイルストーンは何ですか。最も注目しているものは何でしょうか。

現時点では、本当に研究に関することですね。モデルが新しいものを発見できるか、より長期的な視野を持った研究問題を実行できるかということです。

チームの誰かが思いついたような洞察を見つけて、おっ、これはかなり興味深いなと思うような感じですね。

ええ、実はすでに、私たちが社内で使っているGPT-4oなどから、ちょっとした、しかしかなりインパクトのあるアイデアが出てきたことはあります。しかし、私が将来期待しているレベルと比べれば、まだ非常に小さなものです。

ええ、必然的にこれらのモデルはより良くなり、研究や一般的な科学で使用されるようになると思います。あなたはこの段階で、研究のパートナーとしてこれらのモデルと直接やり取りしている最初の人々の1人です。それを正しく行う方法について学んだことや、モデルが改善し続ける中で研究組織がどのようになるかについて考えていることはありますか。

ええ、間違いなく私たちは転換点にいると思います。短期的かつ即自的なモデルの品質が、私たちの研究の進捗スピードを決定づける非常に重要な要因になりつつあります。なぜなら、モデルがその進捗の多くを牽引するようになるからです。そのため、研究組織の運営方法についての直感をいくらか再構築する必要があります。通常、目先の品質に過度に集中しないようにし、はるかに長期的な視点を持とうとします。私たちも、目標に向けて取り組んでいる非常にエキサイティングなプロジェクトをたくさん控えていますが、モデルの知能におけるこれらの進歩を実際に実行し、AI、特にAIアライメントの研究を加速させるために利用しなければならないという強い切迫感を感じています。

それは非常に魅力的なポイントですね。以前、あなたが研究組織の運営について話しているのを聞いたことがあります。過去には、1〜2ヶ月の進捗に直接結びつくわけではないが、物事を前進させるであろう多くのアイデアを追求するスペースを人々に与えることが重要でした。しかし、今は短期的にはこれに集中して改善すれば、我々が行うすべてのことがはるかに良くなるという時期にあるというのは、完全に理にかなっています。組織を運営しながら、遠い将来の研究アイデアとこれらを同時にナビゲートするのは、とても興味深いことでしょうね。

ええ、本当にそうです。これは最近、マークとも多くの時間を費やして議論していることです。

現在、会社として膨大な計算リソースをお持ちですが、事前学習の側でも強化学習の側でも素晴らしいスケーリングの法則があり、それらとは関係のない興味深い新しい方法での実験もたくさん行われていると思います。これらすべての要素全体にわたって、計算リソースの割り当てをどのように考えていますか。

ええ、それは非常に複雑になる可能性があります。やるべきことがあまりにも多すぎますから。私たちが保ち始めている規律の1つは、計算リソースの大部分を、最もスケーラブルな手法、つまり一般的なモデルの知能を牽引する上で最も重要だと信じているものに明示的に予算を割り当てるようにしていることです。それが常に計算リソースの最も効率的な割り当てとは限らなくてもです。なぜなら、1つの実験や1セットの実験に多くのリソースを割り当てている場合、その一部を他に向ければ加速できるものもたくさんあるからです。私たちが取り組んでいる興味深く重要なことがすべてある中で、それらをすべて並行して進め、最も重要だと信じていることを結局やり遂げられないというのは、非常に起こりやすいことです。実証的な証拠を理解し、評価が適切であり、実験の厳密性が保たれているかを確認したい。その上で、この方法を理解しているか、実際にスケールすると期待できるか、将来これを基盤に構築できるか、それとも1回限りのものかといったことに基づいて、優先順位を決定しています。

ええ、とても面白いですね。物事を改善できると分かっている方法をすべて見つけ出しても、全体的な進歩の弧からは少し外れているように感じられる場合、結局のところ最も重要なのは将来の方向性とスケーリングを見つけ出し、そこに計算リソースを注ぐことですから、いくつかの低くぶら下がっている果実は残しておくことになりますね。

Codexとコーディングの成功についてお話ししましたが、昨年はコーディングにおいて信じられないほどの山登りが行われた年でした。Codexは多くの意味で大成功した製品ですが、この市場に最初に参入したのはAnthropicであり、Claudeはそこにおける支配的な製品でした。これを振り返って、Anthropicがこの分野で成功したことについてどのように評価していますか。

ええ、製品の方向性を、テクノロジーの次の応用先がどこになるかという信念にどこまで集中させるかという問題だと思います。私たちの製品の優先順位付けを見てみると、コーディング製品に取り組んではきましたが、それは私たちの主要な優先事項と比較すると二次的なものでした。興味深いことに、それはOpenAI内の研究組織の優先事項をあまり反映していなかったのです。ChatGPTが爆発的な成功を収めたことを考えると、2023年当時のそれは、AIが向かう方向という私たちのビジョンとかなり一致してはいますが、可能になることすべてを代表しているわけではありません。そのため、研究における私たちの仕事の大部分は、その未来のものに焦点を当ててきました。そして、それは私たちの短期的な製品戦略からますます切り離されてきていると思います。私は、私たちが構築してきたもの、そしてモデルの知能という研究側で構築しているものに非常に自信を持っています。私たちが製品側への焦点を強めているのは、実際にそれらをデプロイするためであり、それらこそが今本当に重要だという信念に基づいているのです。

ええ、そして今、会社全体の優先事項がそこに完全に固定され集中しているように感じます。最近の数ヶ月でCodexの信じられないほどの改善が見られましたね。このポッドキャストを聴いているすべての開発者にとって、これらのモデルがどんどん長時間のタスクをこなすように進化し続ける中、世界がどのようになるのかを理解するのはほとんど困難です。彼らの生活はどう変わると思いますか。3〜6ヶ月後には、どのようにCodexを使っているでしょうか。この世界では3ヶ月と6ヶ月は全く異なるタイムラインだとは理解していますが、その間のどの時点でも構いません。

モデルに任せても安心できる自律性のレベルが徐々に高まり、指示の曖昧さや必要な監督のレベルも変わってくると思います。モデルが自律的に数日間稼働し、今よりもはるかに多くの計算リソースを使い、より高品質な成果物を独自に生み出せるようになるのは、そう遠い未来ではないと思います。

これらのモデルが数日間稼働するのを監督するためにソフトウェアエンジニアリングのスキルセットが必要になるのか、それとも稼働できるようになれば、誰でもコーディングエージェントを使ってある程度の出力を監督できるようになるのか、直感的にどうお考えですか。

すでに多くの出力においては、それほど経験を必要としないと思います。ただし、インターンレベルと本当に自律的なソフトウェアエンジニアを分ける基準として、より大きなものを構築したい場合、依然として監督を適用し、全体を統括するビジョンを持ち、どの構成要素がフィットし、どれがフィットしないかを認識する必要があるでしょう。しかし、求められるスキルセットが、このより一般的なビジョン設定の方向へとかなり移行していくことは間違いなく予想しています。

研究の面についてお聞きします。1ヶ月前くらいは、誰もが継続的学習について話していたような気がします。それが時代の精神でした。継続的学習に焦点を当てる新しいラボが立ち上がり、OpenAIを去ってそれに専念する人たちもいました。その背景には、強化学習だけではそこに到達できないか、非常に非効率なスケーリングに陥るという信念があるのではないかと思います。それは人間の学習方法とは異なりますよね。以前あなたが現在の強化学習は人間の学習方法とはまだ大きく異なるとおっしゃっていたのを聞いたことがあります。この継続的学習の動き全体について、どのように捉えていますか。

そうですね、少し戸惑っています。私の中では、私たちがこれまで抱いてきた興奮全体が、例えばGPT-3の論文のタイトルを見てもわかるように、このクラスのモデルは実際に継続的学習が可能だ、コンテキスト内での学習方法を学習できるということだったからです。それこそが、GPTモデルをさらにスケーリングさせることへの期待を牽引する原動力でした。これこそが、私たちが強化学習を使ってモデルにコンテキスト内でより効率的に学習させる必要があるという前提だったのです。ですから、継続的学習が本当に重要なテーマであるという点には、間違いなく同意します。私たちが構築しているのはまさにそれですからね。ただ、これが現在私たちが行っていることから外れた、無視されている問題だとは思っていません。私たちが目標としているものそのものだと考えています。

なるほど。あなたの考えでは、事前学習と強化学習のスケーリングを続けることが、そこに到達するための単一の最良の道だということですか。

ええ、それが私たちがこれまでこの問題で最も進歩を遂げてきた方法だと思います。もちろん、より多くのアイデアやステップがあり、単純なスケーリングによってもたらされる改善もたくさんあるでしょう。

リスナーの中には、これらのモデルで簡単なタスクはたくさんできたものの、100ステップに及ぶような、より長期的で複雑なタスクをやらせようとすると、モデルはまだこれに対応していないと感じる人も多いと思います。内部にいるあなたは常にこの改善を感じているでしょうが、彼らにとっては、このより長いタスクをこなせるようになるまでには天と地ほどの差があるように感じられます。これらのより長いステップが実現するために必要な条件について、彼らにどのように説明しますか。先ほどお話ししていたように、より頻繁にチェックインすることに関連しているのでしょうか。研究コミュニティの間ではこれらのタスクはすべて今後1、2年で解決されるという信念がある一方で、現実の世界では多くの人が私たちが見ている改善の曲線を完全に理解しているわけではないと感じています。

そうですね、その予測の多くは過去の改善の曲線を単に見ていることから来ていると思います。しかし、徐々にここの形がおおまかに見えてきていると思います。この多くは、モデルが自分が進捗しているかどうかを認識できるほど知能が高くなることに関係していると思います。また、かなり実践的な作業になりますが、モデルが実際に求めている作業を行うために必要なすべてのコンテキスト、すべてのファイル、インフラストラクチャにアクセスできるかどうかです。過去に強化学習でとるべきロードマップについて話し合っていたとき、まずモデル自身のトークンで推論することを教えることを優先事項と考えていました。そしてもちろん、環境というツールを使うことも必要になります。ある時点で見ることを教える必要があり、物理的な身体を使うことも教える必要があります。しかし、環境と対話し、物を見る必要がある段階にはすでに十分入っており、近い将来にはロボットについても本格的にカバーすることになるでしょう。

ええ。モデルがXやYをできないと不満を言う人の多くは、文字通りシステムに接続していなかったり、十分なコンテキストを与えていなかったりするだけだというのは、確かに感じます。もしコンテキストが普遍的に適用でき、これらのモデルにスムーズに流れ込むのであれば、これらの問題の多くは現在のモデルで実際に解決できるのではないかとさえ思います。

AIによる科学的発見と第一原理証明

AI for Scienceに関する取り組みについても話を聞かせてください。コーディングについては、多くの人が非常に肌で感じています。すべての企業がこれらのツールを使い、生産性を高めています。一方、数学については、私たちの誰もがIMOに出場したわけではないため、これらのブレークスルーを直感的に理解できるとは限りません。そんな中、あなたがたが行った非常に興味深いことの1つに、第一原理証明に関する素晴らしい取り組みがありました。これは従来の競技数学とは大きく異なる問題だと思います。これについて少しお話しいただけますか。この分野はリスナーにとってなじみが薄く、モデルがここで素晴らしい仕事ができることの意味を理解しにくいかもしれないので。

ええ、私は第一原理証明の挑戦には非常に興奮しました。これも一種のベンチマークです。尊敬される数学者や理論計算機科学者たちが、彼らの日々の仕事の代表的だと思われるがどこにも発表されていない問題をリリースし、私たちのモデルが挑戦できるようにしたものです。私たちはこの挑戦にとてもワクワクしていましたが、事前警告なしに突然問題が公開され、実行期限は1週間という状況でした。当時、非常にエキサイティングなモデルがトレーニング中でした。そこで、トレーニングを担当していたジェイムス・リーが手動でそのモデルにプロンプトを入力し始めたのです。そして、モデルが実際にこれらの問題を解いているのを見たときは、本当に魅力的な光景でした。問題の1つは私が博士課程で学んだ分野のものだったのですが、私が1〜2週間で思いついたら誇りに思うようなアイデアを、モデルが1時間ほどで思いつくのを見るのは、非常に奇妙な感覚でした。過去にそんな感覚を覚えたのは、私たちのDota 2ボットが非常に興味深いDotaゲームを無限にプレイするのを見たときです。無限に面白いことが起こり続けるはずはないので、何か魔法が起きているように感じられました。それが、現実世界で重要とされる仕事の多くを代表するような数学の分野で起こるのを目にして、私の中で切迫感が間違いなく高まりました。

モデルをトレーニングして、これらの問題を投げ込んでみるまで、モデルがどれくらい解けるのか誰も分からないというのも面白いですね。あなたがよく知っている、多くの時間を費やした分野で、前の世代のモデルではできなかったであろうことを成し遂げるのを見るのは魅力的だったでしょう。それが一般的な能力の向上を示しているわけですからね。

ええ。これらの証明が正しいかどうかを判断するためには、特定のドメインの専門家を探し出す必要があったほどです。しかし、コーディングと比較しても、進捗があったかどうかを判断するのははるかに簡単です。競技プログラミングは評価可能ですが、ほとんどのプログラミングは競技プログラミングではなく、抽象化が正しいか、すべてのケースを処理しているかといったことが問われるからです。

1年前くらいは、モデルはパターンマッチャーに過ぎない。AI for Scienceといっても、パターンマッチングから新しいアイデアや全く新しいものが出てくることはないという一般的な批判があったように感じます。今でもその批判がどれくらい強いかは分かりませんが、私たちはその物語を崩しつつあるように感じます。それを根本的に反証する日に近づいているのでしょうか。

そう信じています。予定通り、マイナーな進歩が見られ始めています。巨大なものではありませんが、ここで小さなアイデア、あそこで小さなアイデアといった具合にです。科学者とのコラボレーションによる大きな論文も出てくるかもしれません。しかし、AlphaZeroはパターンマッチャーだったのでしょうか。AlphaGoはパターンマッチャーでしたか。私たちのDotaボットはどうでしょう。彼らはそれぞれのゲームにおいて、確実に新しい戦略を思いついたのです。

ええ。2016年や2017年まで遡って反証例があるというのは面白いですね。

そうですね。ただ、人々は常にその欠点を見つけようとするでしょう。AlphaGoもある戦略で打ち負かされましたし、私たちのDotaボットもある戦略で負ける可能性がありました。しばらくの間、これらのモデルの限界を定義しようとする動きがたくさんあるでしょう。しかし、モデルが新しいものを発見できるのは、多くの能力を持っているからです。非常に小さなゲーム環境から、はるかに一般的な科学研究へと至るには数年かかりました。その間、人類の全知識にほぼ近いものを通り抜け、すべての人間の言語を学ぶ必要がありました。しかし、基本原則は非常に似ていると思います。

面白いですね。あなたがたが第一原理証明の結果を出したとき、主催者がこれらのAIの解答についてコメントしていて、これは洗練された現代的な手法というより、19世紀の数学のような、力技で計算量の多いアプローチのように感じると言っていました。これがモデルの仕組みの仕様なのかバグなのかは分かりませんが、それを聞いて心配になりましたか。それともワクワクしましたか。

心配はしていません。それは予想されたことです。少なくとも1つの問題については、私たちのモデルが意図された解答よりもかなり短く、非常に素晴らしい証明を生み出したと思っていました。しかし一般的に言えば、これらのモデルは人間よりもはるかに短い時間で多くの推論を生み出すことができます。純粋なトークン数や思考の数の観点から見てのことです。ですから、それが長期的な特徴になるとは思っていません。

現在、AI for Scienceには非常に大きな勢いがあると感じます。モデルを物理世界に接続しなければならない時が来るとおっしゃっていましたが、Ginkgoなどとの素晴らしい発表や、実験を進めている他のものもありましたね。科学のさまざまな分野におけるAIについて、たくさん考えてこられたことでしょう。これを掘り下げていく中で、3年後を想像したとき、ここにはクレイジーな進歩があるだろうと思える分野と、当面の変化には少し抵抗があるかもしれないと思える分野についての直感は得られましたか。

魅力的な答えとしては、手作業が必要なものは何かとか、モデルがまだエコシステムにうまく組み込まれていない分野はどこかということになるでしょうね。また、さまざまな研究所がこれらの新しい技術に適応するためにかなり急速に進化していく分野でもあると思います。

STEM分野において、物理世界にアクセスできるLLMとなるのか、それとも特定のドメインに特化した企業として立ち上げられるべきなのかという疑問がありますね。生物学のIsomorphicや、材料科学のPeriodic、ロボット工学のPhysical Intelligenceなどです。これらを異なるモデルアーキテクチャを持つ独立したものとして追求することと、1つの場所のコンテキスト内ですべてを行うこと、どちらが理にかなっていると直感的に感じますか。

CodexのUIについて答えたことと似ていると思います。私は技術の限界ではなく、能力を中心にして構築します。もし突然、膨大な数の興味深い化学的または生物学的実験を設計できるものが手に入ったなら、それを可能にする研究所を建設するのは理にかなっています。モデルが質の高い実験を設計するのに非常に有能な段階に到達した場合、それをループの中に人間を入れて機能させることも理にかなっています。完全に自動化して横でツールを使うか、どちらかだと考えるべきではありません。問題解決に熱心に取り組むAI科学者とコラボレーションするのが非常に自然な世界に私たちは到達するでしょう。

とても面白いですね。全く異なるビジョンのようです。このタスクをエンドツーエンドで実行するようモデルを訓練し、自動化された生物学者や化学者にするという世界もあれば、人間の研究者たちと一緒に作業し、提案や実行を行うツールを構築するという世界もあるということですね。

必ずしもそのように分類するわけではありません。もちろんある意味ではツールですが、プロセス全体のための設計やアイデア出しの多くをAIが牽引する段階に到達すると思います。

LLMアーキテクチャを持ちながら、実行すべき適切な種類の実験を見つけ出し、実際にそれを設計できるということですね。

異なるアーキテクチャについては、自然言語での推論など、私たちが優先しているものは多くの汎用性をもたらします。しかし、別のモデルを訓練した方がいい場合もあります。非常に優れたチェスモデルを作りたいなら、最終的にはそれが最高のモデルになるかもしれませんが、大規模言語モデルが最も効率的な方法だとは思いません。タンパク質のフォールディングやその種のタスクについても同様だと思います。

なるほど。そういった分野では独立した取り組みを行うのが理にかなっているが、最終的にはそれらが、多くのことを牽引するのを助けるコアとなる非常に優れた研究者向け大規模言語モデルと組み合わされることになるだろう、ということですね。

ええ。

思考プロセス(Chain of Thought)のモニタリングと安全性

AIの安全性についてもぜひお話ししたいと思います。あなたはこの分野で非常に先駆的な研究を数多く行ってきましたね。リスナー全員がご存じとは限りませんが、あなたは研究所をまたいで非常に興味深い取り組みを行い、思考プロセスのモニタリングに焦点を当てていました。まずはその取り組みについて、そして何を発見したのかを教えてください。

これは、現在のグループの最初の推論モデルが登場した頃に私たちが気付いたことです。なるほど、これは機能するなと気付きました。私たちはこれが何を意味するのかをよく考えており、おそらく今後1年、2年、3年で世界は本当に変わるだろうと考えていました。それが安全性やモデルの動きを理解する能力にとって何を意味するのかを考えていました。私たちはモデルの訓練方法が原因で、推論プロセスを直接監督していないことに気付きました。ChatGPTが、礼儀正しく親切であるように訓練されているわけではないように。

そして、私がいつも素晴らしいアイデアを持っていると言ってくれますね。

ええ、それはまた別の問題ですけどね。しかし、仮にモデルが私たちが望むように正確にアライメントされていたとしても、同調的ではなくても、安全性や思いやりの観点から、あるいは実際には私たちが思うようにアライメントされていないがそれを隠したいという理由から、動機について明らかにしてくれないことがいくつか存在します。私たちが推論モデルを訓練する方法では、思考プロセスにはそのような要素は含まれていません。直接的に評価されるわけではなく、高品質な出力を生成することにどう関連するかでしか評価されないため、特定のようになるように最適化されていません。私たちは、これがモデルの動きを解釈できるようになるための非常に強力なパラダイムだと気付きました。

これは機械論的解釈可能性とそれほど異なるアイデアではありません。機械論的解釈可能性のアイデアも、モデルがあり、そのアクティベーションはラベルを予測するために直接監督されているわけではなく、間接的に監督されているというものです。モデルはこれらのアクティベーションの検査を通じて訓練されたことがないため、これらのアクティベーションが内部の働きについて何かを明らかにするかもしれないのです。しかし、思考プロセスの大きな利点は、デフォルトで英語であることです。そのため、特に概念がより高度になるにつれて、何が起こっているかを理解するのがはるかに簡単になります。

もう一つ興味深いのは、先ほど話した未来、つまりモデルが非常に長期間、自律的に働くようになる世界では、推論がはるかに多くなるということです。これがモデルの能力向上の大きな軸であるならば、私たちがそれらを監督する能力もそれに比例して拡大していくでしょう。

ええ。これは思考プロセスを監督すべきではないという原則に帰結しますね。だからこそ、プレビュー版のモデルを最初にリリースする際に、思考プロセスを隠すという決定を下したのですね。

ええ、覚えています。

私にとって、それが主な動機でした。他の方法でリリースすることすら考えたくなかった理由です。社内でも少し議論がありましたが、思考プロセスを隠すべきだと私が強く感じた理由はこれです。最初は考えていませんでしたが、このモデルはある程度蒸留されるだろうといった懸念もあり、それも大きな要因になりました。しかし、モデルに一種のプライベートな空間を許可することは重要だと思います。なぜ製品の中で思考プロセスを見せることが重要ではないと私が考えるかと言えば、訓練中に監督しないことが重要だと言っているのに、製品内で思考プロセスを見せるパラダイムを確立してしまえば、結局は出荷するモデルと同じ理由で訓練しなければならなくなるからです。

応答にたどり着くまでのモデルの思考プロセスを、私たち全員が知りたいわけではないかもしれませんね。

ええ、ある程度は有用でしょうし、思考プロセスの要約などでその価値の多くを捉えようとはしています。それは少し応急処置のようなものだと思います。長期的な解決策は、モデルがリアルタイムで実際にあなたと話すことだと思います。Codexの最新バージョンや推論型GPTモデルの最新バージョンがそれを行っていますが、今後はさらに良くなっていくでしょう。しかし、訓練シグナルが私たちと相反しないようにすることには非常にエキサイティングな何かがあります。長期的にモデルが何をしているかを理解したいのに、それに直接逆行するような手法をスケーリングしているとしたら、おそらく良い結果にはならないでしょう。これは苦い教訓の裏返しです。ですから、この分離は、モデルが向上し、より長期間機能するようになるにつれて、動機や汎化がどのように進化するかを理解する能力について、私に大きな希望を与えてくれるアイデアです。

これがAIのアライメントに対する完全な解決策だとは全く思っていません。私たちのツールボックスの中の1つのツールにすぎません。しかし、このような技術的ツールでツールボックスを充実させることで、ここの根本的な問題に少しずつ取り組み続けることができると期待しています。

中期的には信じられないほど役立つものになりそうですが、長期的なアライメントの万能な解決策ではないということですね。

長期的アライメントの理解を構築するのに非常に役立つツールだと思います。例えば、他機関との共同研究によるモデルのスキーミングに関する非常にエキサイティングな研究がありました。モデルをどのような環境に置くか、どのように訓練するかに応じて、モデルが追求する隠れた目的を持ちやすくなるかを調査したものです。その一連の研究を可能にしているのは、モデルの動機を検査できるという思考プロセスのモニタリングです。そこから、事前学習データを変更するとか、特定のプロンプトを注入するといった全く異なる緩和策の方向に進むかもしれません。そうしたアイデアを評価するのに、この理解する能力を持つことは非常に役立ちます。

汎用化と長期的なアライメントの方向性

さらなる研究分野の基礎になるようなものですね。アライメントにおいて、注目している、あるいは有望だと考えている他の研究分野は何でしょうか。

アライメントに関する長期的な課題の多くは、汎化に関わるものです。私たちが訓練した範囲内であれば、モデルの行動をある程度制御し、うまく機能させることができます。しかし心配なのは、モデルが全く異なることを要求されたり、非常に異なる状況に置かれたり、以前よりはるかに賢くなってすべての能力を持ったときに何が起こるかということです。私たちがどのように訓練すべきか、まだ十分に考えられていない部分です。ですから、このような長期的な価値観のアライメントの研究は、モデルが立ち返るべき価値観とは何かという、汎化の研究そのものです。ここで私が非常に期待しており、かなりの投資を行っている研究の1つは、その汎化がどのようにして事前学習データに立ち返るかを理解することです。そこには多くの可能性があると考えています。

過去6ヶ月間で、アライメントに関する懸念は増しましたか。減りましたか。この取り組み全体として、私たちはどのような傾向にあるのでしょうか。

非常に有能なモデルができたときに何が起こるかという、アライメントの長期的な課題についてお話しします。過去数年間で私の考え方は確実に進化し、取り組むことや定義することすら難しい非常に曖昧な問題だという認識から、非常に具体的な技術的解決策と技術的洞察によって実際に前進できるという考えに変わりました。だからこそ、私たちはアライメントを研究の核心部分として捉え、推論モデルを設計する際にこれを考慮し、推論モデルを念頭に置いてアライメント研究を行ってきました。ですから、私たちを極めて幸せな世界へと導いてくれる研究の道筋が存在するという全般的な確信はかなり高まりました。

同時に、非常に有能なモデルが登場するまでのタイムラインは確実に大幅に短くなりました。もうそこまで遠くありません。繰り返しになりますが、あらゆる面で人間より賢いモデルだとは思いませんが、非常に変革をもたらすモデルだと思います。私たちはアライメント問題への取り組み方や、モデルのリスクを大まかに評価する方法について、しっかりとした手綱を握り続けることができるとかなり楽観視しています。しかし、業界として、状況に応じてトレードオフを受け入れ、場合によっては開発のスピードを落とす覚悟をしておく必要があると考えています。

主要なラボ間でこうした取り組みが行われているのを見るのは興味深いですね。AnthropicやDeepMindと協力してこれを行ったということは、3社がこの分野の最前線にいることを考えると、主要プレイヤー間でアライメントについて多くの話し合いが自然に行われているのでしょうか。

ええ、このトピックに関しては間違いなく共通の関心がありますね。

OpenAIの組織運営と今後の展望

OpenAIの内部の話に少し移りたいと思います。過去2〜3年の間、おそらく世界で最も関心を集めた企業であり、特に研究組織を運営するとはどういうことかに注目が集まっています。先ほども少し触れましたが、あなたは以前、研究者に洞窟の住人になり、数年後にモデルがどうなるかを考える快適なスペースを与えることが仕事の重要な一部だとおっしゃっていました。先ほども触れましたが、現在は激しい競争が繰り広げられており、誰もがこれらのコーディングモデルに全力を注いでいる時期でもあります。現在このバランスをどのように運用しているのか、この組織を監督する上で正しいやり方についての考え方に変化はありましたか。

私はただ質の高い実験に集中し、私たちが実際に進歩しているかを認識し、自分自身に正直であり、結果について正直であることを促進しています。それは変わっていないと思います。私たちの仕事は大きく進化しますが、まだやるべきことがたくさんあると信じています。ですから、すべてのプロジェクトを急いで終わらせなければならないというわけではありません。基礎は変わらないと思います。変化しているのは、私たちが最も有望だと考えるもののいくつかを実際に結実させるための切迫感のレベルです。

そしてもちろん、長年にわたってOpenAIの内部で非常に公にされた瞬間がありました。あなたは長くここにいますが、振り返ってみて、会社を決定づけるような51対49の難しい決断は何でしたか。ここ7、8年の映画を振り返るような気持ちで、心に残っている重要な瞬間を教えてください。

ええ、確かにドラマチックな瞬間はいくつかありました。しかし、会社が最も大きく変化した方法は、こうしたスナップ的な変化や決断というよりは、むしろ運営方法のシフトのようなものでした。OpenAIはいくつかのフェーズを経てきたと言えるでしょう。私が2017年の初めに参加した頃は、スケーリングを実践するというよりも、多くの異なるアイデアを追求する非常に学術的なラボのような雰囲気でした。そして、データ製品やGPTが登場し、実際に大きなコンピューターを買わなければならない、物事をスケールさせなければならない、スケーリングの科学を開発し、そのためのインフラを開発しなければならないという最初の大きな変化がありました。それが、スケーリングを行う第2のフェーズの始まりでした。基本的な研究アイデアの追求は続けながらも、それがスケール可能かどうかという観点で評価するようになりました。

それから、先ほどお話しした面白い時期がありました。

ChatGPTという大きな出来事ですね。

ええ。私は少し違う形になると思っていました。テキストモデルが最初の大きな成功を収めたことには、嬉しい驚きを感じました。私は、ビデオスタイルの生成AIの使い方が最初にブレイクし、より長期的なテキストベースの研究を追求することとのトレードオフが発生する世界になると思っていました。しかし、今人気があるが、目的地に到達するまでにはかなり進化するであろうものを持つという、こうした緊張関係が生じることは間違いなく予想していました。それが私たちがしばらくの間いたフェーズだと思います。そして今、私たちは実際にAGIをデプロイし、あるいは経済的に非常に変革をもたらすモデルをデプロイするフェーズに入り始めていると信じています。

確かにそのように見えますね。さて、インタビューの最後はいつも、私が他で入れられなかった広すぎる質問を詰め込んだ恒例の一問一答で締めくくります。お付き合いいただければ嬉しいのですが、まず、この1年間でAIの世界について考えが変わったことは何ですか。

そうですね、究極的に構築するAIは世界に影響を与えるものですが、かなり目標に近づくまでは、それはアルゴリズムを訓練して開発しているという、かなり理論的なものです。しかし、私たちは本当に多くの進歩を遂げ、この技術を実際に世界にどう展開するかに集中しなければならないと認識するようになりました。これは最近私がよく考えていることです。

非常に面白いですね。基本的には、チャット以外ではある種抽象的な、あるいは研究上の山登りであり、現実世界での使用は一部だったのが、この1年で主にコーディングエージェントを通じて大規模に浸透し始めたのを目の当たりにしたわけですからね。

ええ。私もコーディングモデルと同じ方向に向かっていると信じています。それが実際に非常に役立つものになり、人々の生活の有意義な一部になる方向へです。

同じ方向へ向かうというのは、より長期的なタスクを実行するという意味ですか。それとも…

それも一部だと思いますが、頼りになり、信頼できるアシスタントやコンパニオンになるという意味でもです。

若い人たちがChatGPTを使う様子を見るのは驚きです。高校生や大学生の多くが、ますます快適に使っているのを見ると、すでにそのレベルに達していると言えるでしょうね。

厚かましいポッドキャスターとして、トップリサーチャーにいくつかのタイムラインについて聞かないわけにはいきません。特に興味深いのは、コアな大規模言語モデルの世界以外の部分です。最近はロボット工学の話題で持ちきりですが、ロボット工学が機能する瞬間を特定するのは難しいものの、スケーリング則が見つかるとか、ロボット工学におけるChatGPTのような瞬間が訪れるかについて、直感はありますか。

ええ、そこには機能するであろう非常に有望なアルゴリズムのアイデアがあり、それは私たちが取り組んできたアイデアの空間とそれほどかけ離れていません。ですから、ここのタイムラインについてはかなり楽観視しています。仮想的なAIよりは時間がかかるとは思いますが。

AIが社会や雇用に与える影響

あなたは常にこれらのモデルができることの次のフロンティアを考えているので、継続的なモデルの改善のペースが社会全体に与える影響についても多くを考えていると思います。これらのモデルの影響という点で、現在社会として私たちが十分に考えられていないと思うことは何ですか。

非常に多くの知的作業が自動化できる段階に到達することは、明白な解決策のない非常に大きな問題をもたらすと思います。1つの自然な問題は雇用と富の集中に関するもので、これには政策立案者の本格的な関与が必要になるのではないかと思います。これがどう解決されるかについて楽観的な見方も聞いていますが、根本的なレベルでは、かつて非常に価値があり、多額の費用がかかり、提供されていたものが、今ではかなり安価にできるようになるように見えます。長期的には良いことであるはずですが、それが非常に早く起こる可能性があります。

そして関連する問題として、もし非常に多くのことができる自動化された研究所や自動化された企業を実際に持つことができるなら、それはごく少数の人々によって制御される可能性があります。ロボットが普及すればさらにクレイジーなことになりますが、ロボットがなくてもそうです。そのように強力で、しかしごく少数の人々で構成されているかもしれない組織のガバナンスがどのようなものになるのかを考えることは、私たちが社会として取り組まなければならない新しい問題だと思います。

他の新しい問題といえば、私にとって非常に気になっていることがあります。私には最近子供が生まれ、10年後の彼の人生がどうなるのかをよく考えています。あなたはこの技術に非常に近いところにいますが、AIに関する仕事は、次世代がどのように育てられるべきかについてのあなたの考え方をどのように変えましたか。

私たち全員の課題は、最終的に人間が主体性を持ち、人間が方向性を決めるような世界を構築することです。おそらく、私たちが今大切にしている技術的な課題の多くは、より趣味のようなものになるでしょう。進歩するために本当にやらなければならないことであり、課題は何が重要で、何をすべきかを見つけ出すことに移行していくでしょう。その世界でも、人々はやるべきことをたくさん持ち、間違いなくよりエキサイティングなことをするようになると思います。そして、これらの問題について考えることができるようにするために、技術についての理解や、基礎教育をどのような形であれ習得しておくことは依然として必要だと思います。

本当に魅力的なお話でした。多岐にわたるトピックについてお話しいただき、本当に感謝しています。最後に一言お願いします。現在行っている研究や楽しみにしている製品など、リスナーに伝えたいことがあれば、フロアはあなたのものです。この対話から引き出したいスレッドがたくさんあるはずですから。

私たちが議論した一連の問題、そしてアライメントや監視可能性に関する問題は、非常に緊急性の高い課題になりつつあると思います。これはAI研究者だけの課題ではなく、政策立案者にとっても、また社会として考えていかなければならない課題です。こうした議論が巻き起こり始めているのを嬉しく思いますし、さらに多くの議論が必要だと考えています。

ええ。何時間でもお話しできそうですが、あなたがこれらのモデルを改善し続けるという本来の仕事を妨げてしまっては、世界に対して大きな不利益をもたらすことになります。今日は本当にありがとうございました。とても楽しかったです。

ありがとうございました。

私はジェイコブ・エフロンです。この番組はUnsupervised Learningというポッドキャストで、AI分野の最も優秀な人々と対話し、モデルの現状やそれがビジネスや世界に何を意味するのかについてたくさんの質問をしています。お分かりの通り、私はこれを心から楽しんでいます。Redpointの投資家としての本業の傍ら、夜や週末のプロジェクトとしてやっています。しかし、このような素晴らしいゲストをお招きできるのは、あなたのようなリスナーがポッドキャストを購読し、友人にシェアしてくれるからこそです。それがこの番組を成り立たせているのです。ですので、ぜひ購読をご検討ください。サポートとご視聴に心から感謝します。それでは次のエピソードでお会いしましょう。

コメント

タイトルとURLをコピーしました