この動画では、GoogleのAIが国際数学オリンピックで金メダルを獲得したことについて詳しく解説している。実際にはOpenAIとGoogleの両方が同じスコアを獲得して同点となったが、発表のタイミングを巡って両社間で論争が発生した。また、強化学習の重要性や、2034年にはアインシュタインレベルの人工知能が登場する可能性についても議論されている。

GoogleとOpenAI、数学オリンピックで同点獲得
皆さん、数日前にワシがOpenAIが国際数学オリンピックで金メダルを取ったって話したんやけど、実はな、GoogleのGeminiも金メダル取ってるんや。しかもな、この業界にはちょっとした騒動というか、ゴシップみたいなもんがあるんやで。せやから今日は何が起こってるか、そして将来的にいつ頃人工知能がアインシュタインレベルに達して相対性理論みたいなもんを作り出せるようになるかの予測も含めて、一緒に理解していこうやないか。
それじゃ行くで。いつものように、いいね押してくれた皆さん、チャンネル登録してくれた皆さん、ありがとうやで。特にこのAIチャンネルをスポンサーしてくれてるチャンネルメンバーの皆さんには感謝しとる。メンバーは独占的なインテリジェントエージェントの動画にアクセスできて、そこではWhatsApp統合、文書読み込み、MCP統合の方法を教えてるし、早期アクセス動画も見れるんやで。
発表タイミングを巡る論争
さてな、面白いことに状況がちょっと変わったんや。数日前にワシがこの動画作った時は、OpenAIが国際数学オリンピックで金メダル取ったって言うてたんやけど、昨日こんなニュースが出たんや。OpenAIとGoogleも数学選手を上回ったけど、お互いを上回ったわけやない、ってな。
何が起こってるか理解しよう。OpenAIとGoogle DeepMindが2025年数学オリンピックで金メダルスコアを記録してるんや。この数学オリンピックは地球上で最も難しいイベントの一つやからな。超天才だけがこんな問題解けるんや。簡単やとか、もう学習済みやとか、そんな甘い話やない。
全部の対策は取られてるし、ワシらは本当に人間を超えたレベルの挑戦について話してるんや。これはどこでも起こるような簡単なことやない。この辺りまではもう話してたんやけど、Googleは2024年に銀メダル取ってて、その時は形式的なシステム使ってたんや。
これは別のAI戦略で、もっと技術的なやつやな。そのシステムは答えにたどり着くまでに3日間処理してて、銀メダルで終わったんや。今年は何が変わったかって言うと、OpenAIもGoogleも、試験を解くためのより汎用的なシステムを作ったんや。2024年にGoogleが使ったようなスペシャリストシステムやなかったってことや。
同点という皮肉な結果
運命の皮肉やで。両社とも自分らのAIモデルがIMOテストの6問中5問に正解したって主張してるんや。さらに悪いことに、全く同じスコアやったんやで。せやから今はOpenAIが先行してるとも、Googleが先行してるとも言えへん。
両者引き分けや、って言うしかないんや。一番重要なことは、実際に今、これらのモデルがAGIに到達してる、その道筋にあるっていう、より真剣な議論が始まったってことや。これから取られる小さな歩みは、以前のような巨大な跳躍やなくて、もうちょっとゆっくりとしたペースになるってことを理解するのが大事やな。
せやけどGoogleを怒らせて、めちゃくちゃイライラさせたのはこれやったんや。GoogleはOpenAIがIMOでの金メダルパフォーマンスの発表をどう行ったかについて疑問を投げかけてるんや。基本的に揉め事はこういうことやった。結果発表の特定のタイミングについて合意があったんや。
OpenAIはライブストリームで優勝者が発表されるとすぐに、X(旧Twitter)で結果を投稿して、コメントすべきことをコメントして、金メダル獲得を発表したんや。せやけど明らかに何かもっとあったようや。例えば、GoogleのDemis Hassabisがこんな発表をしたんや。
Googleの反撃と技術詳細
今年、Gemini Deep Thinkの高度なバージョンを使って、この印象的な結果を達成したで。これは複雑な問題のための強化推論モジュールやな。ワシらのモデルは自然言語でエンドツーエンドで動作して、公式な問題記述から直接、厳密な数学的証明を生成したんや。全て競技時間の4.5時間以内でやで。
信頼できるテスター、数学者も含むグループにDeep Thinkモデルのバージョンを提供して、その後Google Ultra AIの加入者にリリースする予定や。せやから50ドルのプラン(めちゃくちゃ高いって言わんとけば、高いでほんま)の加入者は、数学オリンピックで使われたこのモデルにアクセスできるようになるんやで。
せやけどここで、皮肉を込めてこう言うてるんや。「ちなみに、金曜日に発表せんかったのは、全てのAIラボが独立した専門家によって公式結果が検証され、学生が当然受けるべき称賛を受けた後にのみ結果を共有するという、IMO理事会の元の要請を尊重したからや。」
論争の詳細と企業間の駆け引き
ここが論争のポイントで、行き違いが起こったところや。明らかに、7月21日のGoogleの公式ニュースを技術的に見ると、こう言うてるんや。「Deep Think搭載のGeminiの高度バージョンが国際数学オリンピックで公式に金メダル基準を達成」ってな。
この「公式に」って言葉は、結果を先に発表した連中への当てこすりとして置かれてるんや。これはOpenAIの研究者Alexander Wayが言うてることと対比してるんやで。彼はこう言うてる。「各問題について、3人のIMO元メダリストがモデルの証明を独立して評価し、全員一致の合意後に最終スコアが決まった」ってな。
せやから揉め事はこれやったんや。OpenAIの結果はこの3人の元メダリストによる評価に基づいてて、Googleは公式結果を待って発表したんや。チャンネルを長いこと見てる人は分かると思うけど、OpenAIはGoogleにこういう横槍入れるの好きやし、今日始まったことやない。Googleの発表の前日にリリースして注目を奪おうとするんや。
例えば、音声モデルの発表の時、火曜日にGoogle I/Oがあるって知ってるのに月曜日にリリースしたんや。Googleの注目を奪うためやな。こんなことが何回もあったんや。今回もその中の一つや。OpenAIが冗談でやってるんやないってことを理解してもらいたいんや。本気で注目を集めようとしてて、メディアの関心を得るためなら何でもするし、そのためにちょっとした策略を使って、やったこと、やらんかったことの言い訳をするんや。
OpenAIの反論と結果の詳細
せやけどOpenAIは何て言うたか、OpenAIの研究者Noam Brownもこう言うてる。「表彰式終了後、太平洋時間で約1時間後に発表した。誰からもそれより後に発表するように要請されてないし、表彰式がもう終わってる以上、正しいタイミングで発表したと言おうとしてるし、何も悪いことはしてない。表彰式の後で結果が変わることもないしな」って。
皆さんのコメント待ってるで。OpenAIは意地悪でやったんか、それとも無邪気にやったんか。皆さんが判断してや。ワシの結論はこうや。OpenAIが火曜日にGoogleの発表があるって知ってて月曜日にリリースした例では、偶然やったとは言えんやろ。今回のは疑わしいけど、あの時は明らかやった。
とにかく、更新されたニュースはこうや。同じポイント数で2社が同点やってことや。Googleは「合計35ポイント獲得で金メダルパフォーマンスを達成」って言うてるし、OpenAIも同じく「42ポイント中35ポイントで金メダル獲得に十分」って言うてる。
Google DeepMindが待ち望んでたマイルストーンを達成して、35ポイント中35ポイント獲得したことを確認できるってここで言うてる。彼らの解法は多くの面で驚くべきものやった。IMOの評価者たちはそれを明確で正確、そして多くの場合フォローしやすいと考えたんやで。
2024年から2025年への技術進歩
ここで2024年のIMOでの進歩を示してるんや。2024年は証明が形式的やった形式数学システムやったんや。さっき話したように、試験完了に3日必要やった。2025年の非形式的方法では、基本的にGeminiを試験解答用に訓練してこの新システムで、通常の試験時間内にやったんや、他の皆と同じようにな。
せやけど大事なのは、物事がどこに向かってるか、どこに到達してるか、そしてこれらの結果が何を考えさせてくれるかを理解することや。例えば、このOpenAIの研究者Dan Robertsは、9年後にはアインシュタインレベルの人工知能ができるって言うてるんや。
強化学習の重要性とスケーリングの新たな方向性
どうやってこの結論に至ったんか。この二つの曲線見てや。この傾きを見て。これは特定の角度があるやろ。こっちはもうちょっと急で、最初のよりちょっと大きい角度や。最初のは、AIモデルを力任せに訓練してるときや。データ投入して、ChatGPTに学習させて、それだけや。これは訓練時間での計算やな。
一方でこっちは、テスト時間での計算で、AIにもうちょっと考えさせる、推論させる、反省させる、人生について考えさせる時や。せやからこのグラフから分かるのは、訓練時間はテスト時間ほど学習せんってことや。これが理解できたら、モデルが既に訓練された後に、こっちに努力を投資する方がずっと価値があるかもしれんってことや。
脳が知識をたくさん学習して、その知識から、新しいことを教えることにそんなに気を使わんでも、もっと長時間考え始める方が価値があるような感じやな。もう十分な情報があるから、もっと長時間考えてどんどん賢くなれるんや。
これがOpenAIの研究にどう影響したかって言うと、こんなアイデアになったんや。GPT-4は基本的に事前訓練されてて、この白い丸が追加の強化学習なしの事前訓練やったんや。O1モデルを作った時は、GPT-4の上に開発されたO1モデルのために、GPT-4の訓練にかけた努力と同じくらいの強化学習を入れたんや。
GPT-4を取って、この赤い小さな丸くらいの強化学習を後からやったんや。これがO1モデルになったんや。完璧やな、ここまで付いてきてるやろ。基本的なアイデアは、強化学習のスケーリングを続けることや。将来のGPT-Nでは、強化学習の量をどんどん増やしていくと考えてるんや。
事前訓練部分は大体同じままで、強化学習がベースモデルよりもずっと大きくなるポイントに到達するんや。これはめちゃくちゃ面白いで。Yann LeCunのスライドと比較してるんや。LeCunは強化学習をケーキの上のさくらんぼで、ケーキ全体が教師あり学習と自己教師あり学習やって比較してたんや。
知能の本質についての新しい理解
さくらんぼは小さくて、ケーキは巨大やと。OpenAIの意図は、基本的に小さなケーキの上に巨大なさくらんぼを作ることや。このアイデア、結構理にかなってると思わへん?こんなシナリオ想像してみい。ここに幸せな人がいて、脳があるやろ。
この脳は、誰も質問してない間は、使ってない能力があるような感じや。例えば、小さなアリの考えがあったとしよう。脳の別の部分には、イーロン・マスクの宇宙船、Starshipみたいなロケットがあるとしよう。せやから脳は止まってる状態で、この二つの情報と他にもわからん情報がたくさんあるんや。
別の生き物が来て「アリを月まで運ぶにはどうしたらいい?」って聞いたら、その瞬間に「このアリを取って、イーロン・マスクのSpaceXに入れたら月に到達できる」って言えるんや。
面白いことに、この質問をしてなかったら、アリと月とロケットが脳の中にあっても、この接続は絶対に起こらんかったんや。分かる?止まってる脳があって、質問し始める。その質問に報酬を与え始めると、脳をいじらんでも、もっと賢い答えを出し始めるんや。
知能と環境の相互作用
もちろん強化学習する時は、この脳に小さな調整をするんや。違いは調整の質やな。もう事前訓練がやってたような、めちゃくちゃ強力な学習調整やない。今の調整はずっと小さくて、ずっと単純やな。
これが起こりうるって認識から、めちゃくちゃ強力な洞察が得られるんや。主要なもんは、知能は脳にあるんやない。知能は情報との相互作用にあるんや。分かったか分からんけど、ワシには水のように明らかや。
多くの場合、人は知能が脳の接続プロセスにあると考えるんやけど、実際は誰も質問せんかったら、環境に刺激がなかったら、環境との相互作用が貧弱やったら、新しいもんを見ることがなかったら、新しい情報を追いかけることがなかったら、新しい接続を作ることは絶対にないんや。
これらの接続は自然発生的やない。環境から、人から来て、学習で大きな違いを作るんや。一方で、ある分野でめちゃくちゃ賢くなりたかったら、情報への露出を増やして、たくさんの情報を読み始めたら、その情報が質問を投げかけ始めて、質問を投げかけ始めたら、接続してなかったものを接続し始めるんや。
これが知能を向上させる最もシンプルな戦略の一つで、実証も証明も簡単で、受動的やなくて能動的やな。新しい経験をする努力をして、その経験から今まで接続したことのないものを接続する質問を投げかけ始めなあかんのや。
2034年アインシュタインレベルAIの予測
AIにとってもこれは理にかなってる。こんなことが起こるとは誰が想像したやろな。せやけどアインシュタインの話はどうやったかって?アインシュタインの件はこうや。推論時間を増やすことで、モデルがより賢くなり始めて、様々なモデルをタイムラインに置いて、どう進化してるかを理解し、AIが解決し始めてる問題がどんどん長くなってることに気づいたんや。
基本的なアイデアはこうや。スーパーで2つの商品を買いたい時は、2つの商品の合計をして、支払う値段が分かる。超速くできるけど、地球から月まで行く計画を立てたい時は、もうちょっと複雑で、そんなに速くできへん。いろんなことを考慮せなあかんから、もうちょっと長いタスクやな。
問題の大きさとモデルが開発された年(GPT-3.5、GPT-4、GPT-4o、O1、Sonnetなど)の評価をしたら、2020年ちょっと前から2026年まで続くこの直線、この傾向を発見したんや。この直線を延長して、アインシュタインが相対性理論を作るのに8年かかったことを考えると、2034年には人間が8年かけて解決する問題を解決できるAIができるという数字に到達するんや。
もちろん2034年にこれが本当に起こるかは分からん。2034年まではまだまだ時間があるけど、この傾向が続いて、物事が今のペースで進み続けたら、OpenAIのStargateプロジェクトを見るのは理にかなってる。彼らは現在のデータセンターでは作れないような、もっと巨大なものを作るために、巨大なスーパーサーバーを作ろうとしてる。
新たなスケーリング法則への転換
スケーリング法則を適用するんやけど、今度は強化学習バージョンのスケーリング法則や。単純にデータ量を増やして、計算量を増やして、メモリを増やすスケーリング法則やない。今度は強化学習の量を増やすスケーリング法則やな。
どう思う?理にかなってる?2034年は面白い数字やと思う?約10年後にアインシュタインレベルのAIや。一番面白いのは、この数字がどんなに空想的で間違ってても、現在の実際のデータに基づいて可能な道筋の論理的推論の一部やってことや。誰かが何かを思うからって単なる推測やない。
面白いことに、Ray Kurzweilが2029年について話したことを思い出したら、彼が説明したのは、2029年にはAGI、人間レベルの知能ができるってことやった。コンピューターが現在の脳と同じ接続数をデジタルで作れるようになる時やからや。
せやから2029年はハードウェア、つまり脳と同じ接続能力を持つマシンってことで、今はまだやないけど、計算すると、その5年後がアインシュタインが使ったレベルでその脳を使えるようになる時やってことや。
めちゃくちゃ面白いやろ。これについてどう思ってるかコメントしてや。将来アインシュタインができるんやろか?これうまくいくんやろか?コメント待ってるで。
こんな動画を見続けるためにチャンネルをサポートしたかったら、メンバーになってや。メンバーはインテリジェントエージェントの独占動画と早期アクセス動画が見れるんや。それじゃ、いいね押してや。


コメント