Metaが人工知能開発に本格的に乗り出し、マンハッタンほどの巨大なデータセンター建設を発表した。一方でオープンソース戦略からクローズドソースへの転換も示唆している。同時期にOpenAIの内部モデルが国際数学オリンピックで金メダル相当の成績を達成し、AI研究者らの間で大きな話題となっている。しかし急速な進歩の陰で、専門家らはAIの制御可能性について懸念を表明している。

Metaの巨大データセンター計画
よっしゃ、ついにMetaがAIに本腰入れてきたで!もうマジで、マンハッタンほどの大きさのデータセンター作るっちゅうねん。それでな、その上でオープンソース完全にやめるかもしれへんねんて。
一方でOpenAIの内部モデルが国際数学オリンピックで金メダル取ったんや。これ、みんなまだ数年先やと思っとったんやけどな。しかもどうやってやったかっちゅうのがまた凄いねん。
推論とかエージェント機能がガンガン進歩しとる中で、心配になる新しい論文が出てきたんや。専門家らが警告しとんねんけど、私らもうAIをコントロールできんようになってきてるかもしれへんねんて。さあ、詳しく見ていこか。
Metaのデータセンター報告書から見ていくと、マーク・ザッカーバーグが宣言しとんねん。人工知能製品開発に数千億ドル使うって。そんでマンハッタンほどの大きさのデータセンター建設するっちゅうねん。
これマジでヤバいで。Metaはもう最初のマルチギガワット データセンター「Prometheus」持っとって、2026年に稼働予定や。もう一つ「Hyperion」っちゅうのもあって、ザッカーバーグによると時間かけて5ギガワットまでスケールアップできるらしいねん。
それで将来的に計算能力へのアクセスがめちゃくちゃ増えるっちゅうことで、Scale AIのCEOも味方につけて、トップAI研究所、特にOpenAIから数えきれんほど研究者引き抜いとんねん。今週だけでもJason WeiとHyong Wan Chungっちゅう2人も引っ張ってきたで。
そんで今度はお金稼げるクローズドソースAI会社に転換する計画もあるっちゅうことで、MetaがマジでGoogleやOpenAIの強力なライバルになりそうやねん。GoogleとOpenAIが油断しとったら、もしかしたらMetaがリーダーになるかもしれへんで。ザッカーバーグのこと、マジで甘く見たらあかんと思うわ。
OpenAIの数学オリンピック金メダル達成
GoogleとOpenAIの話やけど、今のところ国際数学オリンピックで銀メダル以上取ったAIモデル持ってるんは、この2社だけやねん。世界で最もエリートな数学競技の一つやからな。せやけど今週、OpenAIがさらに一歩進んだんや。実験的推論LLMが金メダルレベルの成績達成したんやって。
これなんでそんなに凄いかっちゅうと、OpenAIの研究者Alexander Weiが説明しとんねんけど、IMO(国際数学オリンピック)の問題は、これまでのベンチマークと比べて全く新しいレベルの持続的創造的思考を要求するねん。
推論時間の幅っちゅうもん見てみ。基本的にモデルがどんだけ長く集中して首尾一貫した推論できるかっちゅうことやねんけど、GSM8Kで人間のトップが大体1分、数学ベンチマークで大体1分、Amyで大体10分、そんでIMOで大体100分や。各段階で推論の深さが10倍ずつ跳ね上がっとんねん。
つまりこれらのモデルは賢くなってるだけやなくて、はるかに長時間推論できるようになってきてるっちゅうことやねん。
二つ目に、IMOの提出物は検証が難しいねん。やからここでの進歩は、明確で検証可能な報酬っちゅう強化学習のパラダイムを超えていく必要があるねん。そうすることで、人間の数学者レベルで複雑で完璧な論証を組み立てられるモデルを手に入れたんや。
これマジで新しいパラダイム見せられとると思うで、みんな。
Sam Altmanがツイートで言うとるように、2025年IMO競技で汎用推論システムを使って金メダルレベルの成績達成したんやって。強調しとくけど、これは数学やっとるLLMであって、特定の形式的数学システムやないねん。
つまり、これは専門的な数学エンジンやなくて、単純にLLMが金メダルレベルの成績達成したっちゅうことやねん。
比較のために言うとくと、Googleが去年銀メダル取った時は、Alpha Geometry 2とAlpha Proofっちゅう2つの別々のモデル使ったんや。せやけどそれでも、人間が手書きで問題分解プロンプト書いて、各問題でモデルを導く必要があったんやで。
やから完全に自律的やなかっただけやなくて、複数のモデルが連携しとったんや。OpenAIの汎用LLMとは違ってな。
OpenAIの最大のアンチであるGary Marcusが「それは印象的やな」って言うとるくらいやから、これがブレイクスルーなんは間違いないわ。
GPT-5と新モデルのリリース予定
いつモデルが出るかっちゅうことについては、Sam Altmanがこう書いとんねん。GPT-5をもうすぐリリースするけど、正確な期待値設定したいって。これは将来のモデルで使う新しい研究技術を組み込んだ実験的モデルやねんて。
GPT-5は気に入ってもらえると思うけど、IMO金メダルレベルの能力を持つモデルをリリースする予定は何ヶ月も先やねんて。
やからこのモデルはGPT-5やないけど、GPT-5はもうすぐ来るで。せやけどこのモデルは何ヶ月も先までリリース予定ないねんって、残念ながら。
ChatGPT Agentとその他の開発
OpenAIの他のニュースとしては、今週ChatGPT Agentっちゅう完全自律AI エージェントも出したんや。これは自分専用のコンピューター持っとんねん。
ウェブ閲覧もできるし、深い調査もできるし、画像、スプレッドシート、グラフィック、なんでも必要なもん生成できるねん。ChatGPTを使う人間が持ってるツール全部にアクセスできるオールインワンAIエージェントと考えてもらったらええわ。そんでまた、操作できる専用のクラウドベースコンピューターも持っとんねん。
詳しくは前の動画で完全に取り上げたから、今は深く入らんとくわ。画面に出しとくから、チェックしたい人は見といてや。
せやけど見てのとおり、ベンチマークでもめっちゃええ成績出しとんねん。人類最後の試験でGrok-2レベル近くやし、Frontier Mathで27%取っとる。エージェント系ベンチマークでは当然ながら抜群の成績やし、Spreadsheet BenchとかInternal Banking Benchmarkとかの実世界ベンチマークでもめちゃくちゃええ成績やねん。
それと面白いんが、このスライドデッキも実はライブプレゼンテーション中にChatGPT Agent自体が生成したもんやねん。
AmazonのCairとAI開発環境
ほんまにAI業界では大きな週やったけど、まだ終わらんで。他のニュースとして、Amazonが今週突然Cairっちゅう独自のAI IDE出してきたんや。
知らん人のために説明しとくと、AI IDEっちゅうのは基本的にCursorやReplit みたいなコーディング作業場やねんけど、AI ネイティブ時代用に作られたもんや。
Cairにはエージェント機能が内蔵されとって、AWSサービスとの密な統合もあるし、開発ワークフロー内でAIエージェントと直接コラボできるスリックなユーザーインターフェースもついとんねん。マルチエージェント相互作用もサポートしとるし、リアルタイムプレビューもあるし、プロジェクトメモリー機能もあるねん。
正直、AI IDEについてはそんなに詳しくないねんけど、CursorやReplit みたいなこの分野の大手で確立されたプレイヤーに対してどう勝負するか興味深いわ。
実際にこういうツール定期的に使ってる人おったら、コメントしてや。Cairがどんな感じか聞きたいねん。まだ早い段階やけど、Amazonは明らかにこの分野に食い込みたがっとるわ。
AnthropicとAI活用の効果
AIコーディングの話ついでに、これが目に留まったんや。AnthropicがClaude Code企業ユーザー向けに分析ダッシュボード立ち上げたんやって。
最近の報告によると、これで売上が5.5倍増加したらしいねん。これが重要やと思う理由は、企業がAIツールに対して持つ最大の不満の一つが、人々がどう使ってるかとか、効果的に使ってるかどうかが本当に分からへんっちゅうことやからや。
使用状況、影響、結果をビジネスフレンドリーな明確な指標で追跡できるっちゅうのは、絶対的なゲームチェンジャーやと思うわ。これで企業での導入が全く別次元まで静かに押し上げられそうやねん。
xAIの新戦略
見逃したかもしれへんことがこれや。Elon Muskがツイートしとんねん。xAIでマルチエージェントAIソフトウェア会社作ってるって。Grokが何百もの専門的なコーディングや画像・動画生成・理解エージェントを生み出して、全部一緒に作業するんやって。そんで結果が素晴らしくなるまで、バーチャルマシンでソフトウェアとやり取りする人間をエミュレートするんやって。
これマジでヤバく聞こえるやん。もうシミュレーション作ろうとしとるみたいやで。そんで彼はこう続けるねん。これはマクロな挑戦で難しい問題で、激しい競争があるって。この会社の名前、当てられるか?って。
そうや、マクロな挑戦で難しい問題や。文字通りこれを「Macro Hard」って呼ぶつもりやねん。
AI安全性への懸念
最後に、冒頭で軽く触れた心配な論文がこれや。タイトルは「Chain of Thought Monitor:AI安全性のための新しく脆弱な機会」や。
貢献者がたくさんおるねん。OpenAIのMark Chen、Yoshua Bengio、Daniel Kokotajlo、Shane Legg、その他大勢や。ここにも専門家推薦者として、AnthropicのSamuel R. Bowman、AIの神様Jeffrey Hinton、John Schulman、Ilya Sutskeverが名前載っとるで。
明らかにこれは極めて信頼できる論文やし、この分野のトップ人物がこんなふうに協力するんはめったにないことやねん。
論文の核心的アイデアは、言語モデルが思考の連鎖を使って声に出して考える時、実際に彼らの推論を覗ける貴重な窓が開いて、有害な行動が起こる前にそれを捕まえるチャンスがあるっちゅうことやねん。
せやけど問題は、この窓が脆くて急速に閉じてきとるっちゅうことや。もしこれらの思考プロセスをより透明で管理可能にするために今行動せんかったら、そのレバレッジを完全に失う可能性があるねん。
これが基本的にこの論文の全本質や。他のトップAI研究所への警告で、私らが文字通りこれらのモデルが何考えとるか理解する能力を失いつつあるっちゅうことやねん。
彼らの思考を理解したり見たりする能力がなくなったら、明らかに望まれへん、potentially危険な行動を防ぐんがはるかに難しくなるわ。
Sam Altmanの地政学的懸念
せやけど今週特に心配になったんは、OpenAIのCEOであるSam Altmanが日本でのライブ会議で言ったことやねん。今から流すこのクリップと、さっき見た論文を合わせると、AI研究者らが実際にもう手遅れかもしれへんって気付き始めとるんちゃうかと思うねん。見てみ。
国家安全保障、米国、中国、中東、ロシア、人々は意見の違いや思想の違いで互いに戦って、人々は互いを撃ち合っとる。戦争はまだ終わってない。
これは完全に私の専門分野外やねんけど、同感やわ。これは極めて強力で、地政学的権力の最高次項目になるかもしれへん。
核兵器みたいに、世界が結束して「おい、これはめちゃくちゃ強力なもんや。真剣な国際基準が必要やし、予測できる破滅的結果を避けなあかん」って言った歴史上の他の時代もあったからな。
世界が核に関して結束して、非常に長い間戦争で爆弾を爆発させてないっちゅうことに感銘受けとんねん。
世界はAI兵器でも同じことができるやろか?そう望んでるし、そう信じてる。せやけど1940年代とは違う時代やし、それが全部どうまとまるかは分からんねん。
結論:加速する変化
そうや、もう指数関数的カーブがスタートしとって、後戻りはできんって感じやねん。
反対意見の人もおると思うし、コメントで意見聞かせてほしいねんけど、今の進歩のペースはマジで狂っとる。怖いくらい狂っとんねん。
ソフトウェアで大きな飛躍しとる間に、ハードウェア側もゆっくりと追いついてきとんねん。中国から出てくるヒューマノイドロボットのデモは驚かされっぱなしや。
走ることからスポーツすること、戦うことまで、ヒューマノイドロボットが実世界での能力を身につけ始めとんねん。こいつらの一体が走って、リロードして、特許申請する方法覚えるんも時間の問題やわ。そしたらもうゲームオーバーや。
とにかく、見てくれてありがとうな、みんな。今週の振り返り楽しんでもらえたら嬉しいわ。楽しめたんやったら、ライクボタン押してもろて、下にコメントも残してや。そしていつものように、こんなAIニュースを今後も最新情報で知りたかったら、チャンネル登録ボタンを忘れんといてな。


コメント