MetaのAI天才がついに退職――ザッカーバーグも驚いた模様

Meta・マイクザッカーバーグ
この記事は約20分で読めます。

Meta AIの主任AI科学者であり、チューリング賞受賞者のYann LeCunが退職を決断した背景には、Metaの戦略的転換と深刻な内部対立がある。Yann LeCunは畳み込みニューラルネットワークの発明者であり、現代AIの基盤を築いた人物だが、大規模言語モデル(LLM)がAGIへの道ではないと一貫して主張してきた。一方、ザッカーバーグはLLMを中心に据えた戦略へと大きく舵を切り、長期的な基礎研究よりも迅速な製品展開を優先する方向に転換した。Llama 4の失敗は業界で広く批判され、Meta AI研究チームの信頼性を大きく損なった。さらに、Yann LeCunは若手で研究者でないAlexander Wangの下で働くことになり、学術的権威の面で明らかに格下の人物に報告する立場に置かれた。このような状況下で、Yann LeCunはLLMではなく、JEPA(Joint Embedding Predictive Architecture)という次世代のワールドモデルに基づくAI開発に専念するため、Metaを離れ、自身のスタートアップを立ち上げることを決断した。この退職はMetaにとって深刻な打撃であり、同社のAI戦略の将来に大きな疑問符を投げかけている。

Meta’s AI Genius Just Quit — Even Zuckerberg Seems Surprised.
Want to stay up to date with ai news - 🐤 Follow Me on Twitter 🌐 Checkout My website - http...

現代AIの巨人が去る

世界トップクラスのAI科学者の一人が、Meta AIを退職しました。この話について深く掘り下げる必要があります。この人物はYann LeCunです。この人は文字通り、現代AIが流行する前から、その基盤を築いた人物なんです。彼は畳み込みニューラルネットワークを発明しました。これは、コンピュータビジョン、顔認識、自動運転車の背後にある技術です。

彼は、学界がそれを笑っていた頃から深層学習のパイオニアでした。彼とGeoffrey Hintonは、他の誰もが諦めたときにニューラルネットワークの訓練を続けていました。彼はまた、1990年代にLeNetを作成しました。これは手書きの数字を読み取るもので、基本的に現代のすべてのビジョンモデルの祖先と言えます。これは、今みんなが追いかけているトレンドを作った人物なんです。

この人物が、Meta AIラボを退職したばかりなんです。この話は、私が思っていたほど注目を集めていません。というのも、これは本当に重要な話で、私が予見できなかった形でAIの未来を変えることになるからです。ご存知のように、チューリング賞は基本的にコンピュータサイエンスのノーベル賞です。これはコンピューティングにおける最高の栄誉であり、その仕事がコンピューティングを根本的に変えた人々に授与されます。

ノーベル賞が物理学にとってそうであるように、チューリング賞はコンピュータサイエンスにとってそういうものなんです。そして、Metaで働いていたこの人物が、退職したんです。だから、先ほど言ったように、記事を見ることができます。Metaの主任AI科学者であるYann LeCunが退職を計画し、自身のスタートアップを立ち上げると書かれています。これはMetaにとってかなり弱気な材料です。というのも、MetaはAIにおいて最高の評判を持っていなかったからです。

彼らは追いつくのが遅れています。彼らはかなり長い間、後手に回っていました。そして基本的に、彼らは最高の武器、人間レベルの知能を達成するための最高のチャンスを持っていました。私の意見では、誇大広告を追いかけず、トレンドを追いかけず、次世代の人間レベル知能に焦点を当てている人物が、退職してしまうんです。

これはかなり、かなり悪いことです。では、記事に少し入り込んでみましょう。記事では、ザッカーバーグが、Yann LeCunが2013年から率いてきたMetaの基礎AI研究ラボの長期的な研究作業から方向転換し、Metaが競合他社に遅れをとっていると判断した後、AIモデルとAI製品をより迅速に展開することに集中するようになったと述べています。

ここで彼らが基本的に話しているのは、Metaの基礎AI研究ラボのことです。これはYann LeCunが責任者を務めてきたラボで、残念ながらLLMに関しては少し遅れていました。そして突然、Metaは物事を再び動かそうと慌てています。そうする中で、彼らはLLMに焦点を当て、Yann LeCunが関わっていたFAIR(Fundamental AI Research)ではなくなってしまいました。

Yann LeCunが去る理由

では、なぜこの人物はMetaを去るのでしょうか。かなりクレイジーなことですが、全体的に見て、重要な決定の一つだと思いますし、実際には二つの決定があると思います。では、この二つのポイントを挙げさせてください。一つ目は、Yann LeCunがAlexander Wangに報告することになっているという事実です。Yann LeCunのような人物にとって、それは地位と権威の格下げなんです。

Yann LeCunはチューリング賞受賞者です。彼は文字通りコンピュータサイエンスにおける最高の栄誉を持っており、深層学習の三人のゴッドファーザーの一人です。彼はMeta AIのチーフサイエンティストであり、Mark Zuckerbergに匹敵する存在であり、トップレベルの研究リーダーです。さて、Alexander Wang、この新しい人物は、優秀で若く、データラベリングにおいて力を持っていますが、彼は研究者ではありませんし、チューリング賞受賞者でもありませんし、チューリング賞に値する科学者でもありませんし、Yann LeCunの学術的な同等者でもありません。

ですから、Yann LeCunがAlexander Wangに報告しなければならないということを理解する必要があります。Yann LeCunの視点から見ると、それは世界クラスの教授が、先に金持ちになった学生に報告するように言われているように感じるんです。敬意を欠くわけではありませんが、階層が合っていないんです。そして、Yann LeCunは科学的自律性を重視する人物であり、企業の階層を重視しません。

彼は年上で、より確立されていて、より資格があり、30年間その分野を形作ってきました。そして、より若く、学術的に達成度の低い人物の下に置かれることは、まあ、もう分野をリードしていないように感じられるんです。さて、これを覚えておいてください。この人物もまた、そしてこれが私の二番目のポイントにつながるのですが、つまり、学術的に同等ではないと感じている人物に報告すること以外に、それは完全に公平なことですが。

Yann LeCunはまた、LLMに懐疑的な人物でもあります。ここには、Yann LeCunは大規模言語モデルに懐疑的であり、それらは超知能への道であると書かれています。まあ、彼は超知能への道としてそれらに懐疑的なんです。しかし、Metaのラボで何が間違っていたのかを理解する必要があります。というのも、これは一度きりのことではないからです。これは、その人物が去ることを決めただけではありません。

これは長期的な決定でした。Metaの製品だけでなく、純粋な意思決定の継続的な悪化の後、だと思います。重要なことの一つは、失敗と見なされたのがLlama 4のリリースでした。Llama 4は、いくつかの重要な理由で失敗したリリースとして広く見なされました。これには、期待外れのパフォーマンス、倫理的論争、そしてGPT-4oやDeepSeek R1のようなトップ競合他社と比較して、誤解を招くベンチマークと実践の疑惑が含まれます。

さて、皆さんの多くは、Llamaモデルが何であるかさえ覚えていないかもしれません。なぜなら、それは非常に忘れ去られていて、Llama 1、Llama 2、Llama 3さえあったことすら知らないかもしれません。これらは当時まともなモデルでしたが、どういうわけかLlama 4は完全に台無しになってしまいました。そして基本的に起こったことは、ラボがDeepSeekに遅れをとり、Deepseekは基本的に彼らより数ヶ月先を行っていて、彼らはどうやって追いつくかを理解できなかったということです。

Llama 4は文字通り、論理的推論能力が劣っていることを示し、特にADAポリグロットコーディング評価のような業界ベンチマークでは一貫性のないコーディングパフォーマンスを示しました。そこでは16%しかスコアできず、特に推論のために設計された他のモデルと比較して、プロフェッショナルな展開には信頼できないものとなりました。そしてそれはかなりクレイジーでした。

モデルは長文のライティング品質に苦労し、冗長で魅力に欠ける出力を生成し、代替モデルに遅れをとりました。そして理解する必要があるのは、これはChatGPT 4.5またはGPT-5が完全に失敗したリリースを行い、他の企業が先を行っているようなものだったということです。さて、これはMetaなので、MetaはAIチームを見て、「よし、我々にはAIチームがある。彼らはLlama 4を作った。Llama 4に一体何が起こったんだ?」と思うでしょう。そして皆さんは、これがYann LeCunとどう関係するのか?と思うかもしれません。

Llama 4のリリースがあまりにも悪かったので、非常に多くの人々が文字通り、Metaから辞任すると言っていました。MetaのVPが辞任しました。Metaで辞任した個人がいました。そしてそれがあまりにも悪化したので、人々は「ちょっと待って、Yann LeCun、AIの神様、Llama 4に何が起こったんだ?」と言っていました。まあ、彼は文字通り出てきて、「皆さん、私はLlama 4やLlamaモデルには取り組んでいません。皆さんが言っていることは分かります。」と言わなければなりませんでした。

そして皆さん、私は彼らに何の貢献もしていません。Llama 3については何の功績も受けるべきではありません。まあ、私たちのモデルをオープンソースにすることを確実にしたことについては、少しの功績があるかもしれませんが、しかし技術的な貢献は、非常に多くの人々からのものであり、非常に非常に小さいです。ここでもYann LeCunが、私はLlamaには関与していません、Llama 1に間接的に関与していたことと、Llama 2のオープンソース化を推進したことを除いて、2023年初頭から最近まで、Llama 2、3、4はこれらのGen AI組織の手にあったと話しているのが分かります。

そして今、それはTBD Labという新しいラボの手にあります。私はFAIR、基礎AI研究組織で働いており、LLMを超えた次世代のAIシステムに取り組んでいます。さて、これを覚えておいてください。これは単に誰かが、距離を置きたいと言っているだけではありません。Llama 4に取り組んだという事実を、異なる仕事に応募する際に文字通り削除した人々がたくさんいました。なぜなら、それがあまりにも悪かったので、彼らの評判を傷つけることになったからです。Llama 4は大失敗でした。

そして、年間数百万ドル、AIに数十億ドルを費やしているフロンティア企業が、トップモデルと競合する基盤モデルをまとめることができず、中国がGPTを打ち負かすモデルを作っているときは、これは悪いことです。Qwen、Qimmy、Deepseekがあります。これはラボにとって本当に悪い印象です。そして、トップの人々が辞任しています。そして、「見てください、私はこれには関与していませんでした」と言う人々がいます。かなりクレイジーです。

Yann LeCunの退職を決定づけた最大の理由

しかし、今、Yann LeCunがMetaで働きたくなくなるようなもう一つのことに移る必要があります。なぜなら、これが最大の理由であり、おそらく棺桶の最後の釘だったと思うからです。おそらく、彼が望まない理由の80%を占めています。記事では、Yann LeCunが、ザッカーバーグが戦略の中心に置いたLLMは有用だが、人間のように推論し計画することは決してできないと主張していると述べています。そしてこれは、ザッカーバーグのビジョンと対立しています。

もし皆さんがこれに詳しくないなら、LLMは興味深く、それらがAGIにつながるかどうかについては常に議論があります。つながると信じる人もいます。つながらないと信じる人もいます。そして、Yann LeCunは、LLMはAGIにつながらないと言う、最も強力で声高な少数派の一人です。それらは基本的に、人間がどのように考えるかという点で、アーキテクチャ的に完全に間違っているため、ある程度時間の無駄です。

そしてそれを人間の思考方法と比較すると、全く異なるんです。このビデオで、彼はAIバブルについて話しています。実際には株式バブルではなく、LLMバブルがあるという事実について話しており、LLMはAGIへの行き止まりであり、ほとんどの人々がバブルについて混乱しているという事実です。それは、現在のLLMのパラダイムが人間レベルの知能を持つところまで押し進められるという考えです。私は個人的にはそれを信じていませんし、あなたもそうではありません。

そして、私たちは、人間だけでなく動物にも観察される知能を本当に持つ機械を手に入れる前に、いくつかのブレークスルーが必要です。猫と同じくらい賢いロボットは、私たちにはまだありません。そうですよね? ですから、私たちはまだ何か大きなものを欠いているんです。だからこそ、AIの進歩は、より多くのインフラ、より多くのデータ、より多くの投資、そして現在のパラダイムのより多くの開発だけの問題ではありません。

それは実際には、次世代のAIに向けてどのように進歩するかという科学的な問題なんです。さて、彼はまた、このビデオを引用しており、そこでLLMはAGIへの道の行き止まりであると話しています。そして理解する必要があるのは、これが2024年6月だったということです。これはFrancoisを引用しています。これはAGIベンチマークを作成した人物です。現在のLLMにとって非常に難しいベンチマークです。

ほとんどのLLMは、最近のベンチマークでさえ、30%から20%程度のスコアを出していると思います。そしてそのベンチマークは基本的に人間の推論に本当に関与しています。そしてそれは、モデルが人間の推論をどのようにエミュレートしようとするかに本当に焦点を当てています。そしてそれは、彼らの脆弱な領域を露呈するだけで、次のモデルセットを開発する際に、本当に絞り込んで人間レベルの推論を得ることができるようにします。

さて、この人物は基本的に、LLMは明らかにAGIにつながらないと言っていました。そして、LLMは行き止まりであり、OpenAIがLLMに非常に多くの焦点を当てていることは、AI業界を失敗に導く設定のようなものです。なぜなら、みんなが一方向を見ていて、実際に重要な方向を誰も見ていないからです。そしてこれが、Yann LeCunが引用していたものです。

最先端の研究がもはや公開されなくなったのは、実際には本当に悲しいことです。4年前を振り返ると、すべてがオープンに共有されていました。すべての最先端の結果が公開されていました。そしてこれはもはやそうではありません。そしてそれは非常に、OpenAIが単独でゲームを変えたと言えます。そして私は、OpenAIが基本的にAGIへの進歩を数年、おそらく5年から10年ほど遅らせたと思います。二つの理由があります。

一つは、彼らが研究、最先端研究の公開の完全な閉鎖を引き起こしたことです。しかしまた、彼らはLLMを巡る誇大広告の最初の爆発を引き起こしました。そして今、LLMは部屋の酸素を吸い尽くしてしまいました。みんながLLMをやっているだけです。そして私はLLMをAGIへの道の行き止まりとして見ています。

Yann LeCunの研究方針とJEPA

さて、Yann LeCunは、生成モデルを放棄する必要があると引用されています。今、生成AIは非常に非常に人気があります。しかし、このプレゼンテーションで彼は講演を行い、ジョイント埋め込みアーキテクチャを支持して生成モデルを放棄すると言っています。エネルギーベースモデルを支持して確率モデルを放棄し、正則化モデルを支持して対照的手法を放棄し、予測モデル制御を支持して強化学習を放棄すると言っています。

これらすべてをすぐに説明します。しかし、ここで大きな太字の赤い文字で、もし人間レベルのAIに興味があるなら、LLMに取り組むなと彼は言っています。そして私がこれについてビデオを作ったとき、それは実際にかなりバイラルになりました。なぜなら、これは大きなタブーではありませんが、一般的な群衆が考えていることに非常に反していたため、ほとんどの人々が注目することを決めたからです。推奨事項です。

生成モデルを放棄してください。今日、誰もが取り組んでいる最も人気のある方法です。これに取り組むのをやめてください。JEPAに取り組んでください。これらは生成モデルではありません。それらは表現空間で予測します。確率モデルは扱いにくいからです。エネルギーベースモデルを使用してください。Mikeと私は、これについて20年間にわたって論争的な議論をしてきました。

正則化手法を支持して、手法を放棄してください。強化学習を放棄してください。しかし、私は長い間言ってきましたが、それが非効率であることは分かっています。あなたのモデルが不正確であるか、あるいはコスト関数が不正確である場合、本当に最後の手段として強化学習を使用する必要があります。しかし、もし人間レベルのAIに興味があるなら、LLMに取り組むだけではだめです。

意味がありません。つまり、実際には、もしあなたが学界にいるか、あるいは、あなたは数万のGPUを持つ数百人の人々と競争しているので、あなたがテーブルに持ってこれるものは何もありません。何か別のことをしてください。そして、皆さんが尋ねるかもしれないことの一つは、よし、もしYann LeCunがLLMを放棄していて、それに取り組んでいないなら、彼は実際に何に取り組むのか?ということです。まあ、これが彼が取り組んでいるものです。

それはV-JEPAと呼ばれており、現在のLLMとは少し異なります。それらは基本的に、人間が行うのとまったく同じように理解し、予測し、計画します。それは人間がどのように推論するかに触発されています。本当に違います。では、皆さんにこのビデオをお見せします。なぜなら、人々が実際に何を構築しているかを理解することが重要だと思うからです。

そして、彼のスタートアップはおそらく数十億ドルで評価され、資金調達ラウンドを管理できるようになればすぐに、実際に理にかなっているからです。そして、すぐにそれに飛び込みますが、見てください。V-JEPA 2は、達成しようとしたことに関してはかなり良かったからです。

AIエージェントの世界では、人間と同じくらい効率的に学習し、推論し、計画するのを助けるモデルが必要です。V-JEPA 2、高度な機械知能のための基盤ワールドモデルです。人間と動物のメンタルモデルに触発され、ワールドモデルは現実を表現し、時間とともにどのように進化するかを予測します。

ワールドモデルがあれば、AIシステムは効率的に推論し、予測し、目標を達成するために計画することができます。V-JEPA 2は、100万時間以上のビデオから自己教師あり学習を通じて訓練されたワールドモデルです。V-JEPA 2はジョイント埋め込み予測アーキテクチャです。Jeepa、このモデルには二つの主要なコンポーネントがあります。生のビデオを受け取り、観察された世界の状態についての意味的に有用なコンテンツをキャプチャする埋め込みを出力するエンコーダーと、ビデオ埋め込みと何を予測するかについての追加のコンテキストを受け取り、予測される埋め込みを出力するプレディクターです。

ピクセルを予測する生成モデルとは異なり、V-JEPA 2は学習された埋め込み空間で予測を行い、はるかに効率的です。V-JEPA 2は、実世界のエージェントにとって重要な最先端の能力を示します。複雑な動きと時間的ダイナミクスを理解し、コンテキストの手がかりからアクションを予測します。予測を行う能力に基づいて、ワールドモデルは、与えられた目標を達成するアクションのシーケンスを計画するのに役立ちます。

現在のほとんどのAIは特定のタスクのための専門的な訓練を必要としますが、V-JEPAの自己教師ありアプローチは、タスクとドメインを超えた例外的なパフォーマンスを可能にし、新しい能力を獲得します。わずかな例だけで、新しい環境でロボットアームにモデルを展開し、広範なロボットデータやタスク固有の訓練なしに、到達、把握、オブジェクトの拾い上げと配置などのオブジェクト操作タスクを解決できます。

モデルをリリースすることで、私たちは、実世界で効率的かつ安全に理解し、動作できるAIアシスタントとロボットへの進歩を加速するコミュニティを構築することを目指しています。また、このクリップも見ることができます。そこで彼は基本的に、これらのAIラボを運営しているほとんどの人々は完全に誇大広告に乗っていると言っています。

彼らは、データセンターに天才の国を持つことになると言っていますが、彼は実際にこれは完全なデタラメだと信じています。それは起こらないでしょう。そして彼の推論は正直なところ公平です。典型的には、ありえません。そして、私のより冒険的な同僚の何人かから聞くことができるかもしれませんが、今後2年以内にそれが起こることは絶対にありません。

地獄のようにあり得ません。フランス語を許してください。データセンターに天才の国を持つというアイデアは完全なデタラメです。絶対にあり得ません。私たちが持つことになるかもしれないのは、十分に大量のデータで訓練されたシステムであり、合理的な人が尋ねるかもしれない質問が、それらのシステムを通じて答えを見つけることができるというものです。

そして、隣にPhDが座っているように感じるかもしれませんが、隣にいるのはPhDではありません。それは、巨大な記憶と検索能力を持つシステムです。さて、私はこのビデオを作っているときに自分自身にこの質問をしました。よし、Yann Lecは基本的にLLMは単なる生成モデルだと言っています。

それらは訓練されています。次の単語を予測するように訓練されています。では、どうやって本当に新しい数学のようなものを生み出すことができるのでしょうか? 今画面に表示されているのは、Alpha Evolveです。これは、高度なアルゴリズムのために設計されたGemini駆動のコーディングエージェントです。そして、人間が明示的に書いていない証明、予想、またはアルゴリズムを生成することはかなり難しいですが、数学がそれを行うことができた時がありました。

ですから、LLMが実際に学習するものは、次の単語の予測よりも実際には深いということを理解する必要があります。次の単語を予測するように訓練されていますが、実際には、その訓練目標は、言語が世界についての情報をエンコードしているため、世界の潜在的な構造を学習することを強制します。例えば、LLMが円の円周は2πrという文の次の単語を予測するとき、それは内部的に円の概念と乗法的な関係を表現しなければなりません。何兆もの例を通じて、それは人間の推論パターン、論理、さらには数学の巨大なチャンクを、テキスト圧縮から効果的に再構築します。

ですから、それが生成的であっても、アイデアがどのように関連しているかの意味モデルを構築しています。そしてその潜在的なモデルは、時には見たものを超えて一般化することができます。さて、Alpha Evolveに戻ると、新しい数学は魔法ではなく、創発的な一般化です。

ですから、人々がGoogleのAI、DeepMindやAlpha Tensor、Alpha Geometryが新しい数学を発見すると言うとき、実際に起こっているのは、彼らが数学的関係の学習された構造内を検索しているということです。そして、彼らは既存の概念を新しく有効な方法で再結合することができます。これは数学者も行うことです。

さて、これはYann Lecを完全に反駁するものではありません。なぜなら、Yanの批判は、LLMが創造的または印象的なことを何もできないということではないからです。明らかにできます。それは、彼らの理解が、一般的な知能に必要なものと比較して、根拠がなく浅いということです。彼らが新しい数学を発見するときでさえ、彼らは記号の抽象空間で動作しています。

彼らは物理的な現実と相互作用していません。彼らは実世界で仮説をテストしたり、力、物理学、知覚がどのように結びついているかという因果的なワールドモデルを形成したりすることはできません。彼らのブレークスルーは、ブルートフォースの再結合から来ており、好奇心や目標によって駆動される目的のある探索からではありません。言い換えれば、彼らの創造性は偶発的であり、意図的ではありません。

Metaの将来への懸念

さて、皆さんは疑問に思うかもしれません。Metaは終わりなのか?と。なぜなら、これは良くないからです。このような人物を失うことは、長期的に考えると本当に良くありません。つまり、もちろん、短期的にはLLMの製品などはまだ順調でしょうが、ザッカーバーグは数十億ドルを費やして新しいリーダーを連れてきました。

彼は高給で、数百万ドルです。そしてMetaは、コストを削減し、官僚主義を排除し、製品をより迅速にリリースするために、AI研究ユニットから約600人を解雇しました。ですから、Metaはこの奇妙な方向に進んでいるということを理解する必要があります。知能の面で見ることもできます。Llama 4 Maverickがどこにいるかを見ることができます。

人工知能領域では、しっかりと後方の位置にあります。そして、オーケー、Metaはまだ正しい方向に進んでいるのか?と思います。まあ、確信が持てません。彼らがどんな種類の製品を構築しているのか、私には本当に分かりません。そしてほとんどの人々もそうだと確信しています。

これが私がFacebookで見た最新のものでした。ロシアの女の子、義理の母、Wausのようなものでした。つまり、これはあなたが何百万回も製品を使用させようとしている多くの人々に展開したい種類の製品ではありません。誰が知っているでしょう?たぶん、たぶんこの種のボットは非常に非常に人気が出るでしょう。

しかし、つまり、Metaにとってはとても混乱した時期です。彼らはLlama 4のリリースに失敗し、今ではトップ科学者の一人が去り、その上、正しい製品を作ることすら苦労しています。Yann LeCunはおそらく自分のAIラボを立ち上げるでしょう。それらはおそらく非常に非常に成功し、数十億ドルを調達し、最終的にはMark Zuckerbergが、AI競争における競争力を維持するために、そのラボを買い戻さなければならないかもしれません。

コメント

タイトルとURLをコピーしました