本動画は、Ilya Sutskeverが何を見て、なぜSam Altmanの解任にまで踏み切ったのかを、AI史そのものと重ねながら描く内容である。ニューラルネットワークが長く異端視されていた時代から、Geoffrey Hinton、Alex Krizhevsky、Ilya Sutskeverによるブレークスルー、OpenAI創設の理想と変質、そしてChatGPT以後に加速した商業化と安全性の衝突までを一気にたどり、AI開発の中心にいた者たちが最後に何を恐れたのかを浮かび上がらせる。

- Ilyaが見たもの
- Geoffrey Hintonと、忘れ去られた研究分野
- 人工知能という分野の誕生
- Symbolic AI対ニューラルネットワーク
- 過剰な期待と、Perceptronの夢
- 厳しい現実と、Minskyの一撃
- Ilya Sutskeverの登場
- Deep Belief Netsと、限界の先へ
- 大きくすることは可能だと証明された
- GPUという偶然の鍵
- Alex KrizhevskyとAlexNetの前夜
- 画像認識への賭け
- ImageNetとAlexNetの衝撃
- 84.7%という一枚のスライド
- スケーリングの法則と、Googleの影
- AI安全性という現実の問題
- OpenAI創設の誘い
- OpenAIの理想と、その最初の綻び
- DeepMindの成功と、Ilyaの気づき
- Teslaに入るか、理念を守るか
- Microsoft資本と、GPTへの道
- GPT-3、商業化、そして安全性の後退
- ChatGPTの登場と、すべての変化
- OpenAIの文化変質と、Samへの不信
- Superalignmentと、約束されなかった計算資源
- Helen Tonerの論文と、決定的な嘘
- 2023年11月17日、Sam Altman解任
- OpenAIの外へ、そしてSSIへ
- Hintonの後悔
Ilyaが見たもの
2023年の夏です。こちらはIlya Sutskever、OpenAIのチーフサイエンティストであり、実質的にChatGPTの立役者といえる人物です。この9か月で、ChatGPTは史上最速で成長した消費者向け製品になりました。専門家たちは会社の価値を290億ドルと見積もり、Sutskeverは思いがけず有名人になっていました。
しかし私たちが彼を見つけたのは、OpenAIのオフィスで、防空壕の設計図を確認している場面でした。
彼が作ったAIが制御不能になったとき、そこへ身を隠すための防空壕です。彼はほとんど眠っていません。4か月後、彼はOpenAIの取締役会を招集し、CEOのSam Altmanを解任しようとします。もしこれが制御を失ったとき、Samが指揮を執っていることを彼は恐れていたのです。
すべての始まりは、その11年前に彼の教授がかけた、ささいな一本の電話でした。
Geoffrey Hintonと、忘れ去られた研究分野
こちらはGeoffrey Hintonです。夏の週末、彼はパソコンの前にかがみ込み、コードを書いています。彼はトロント大学でAIラボを率いていますが、Googleから何百万ドルもの転職オファーを受けているわけではありません。そもそもラボには、ろくな資金もありません。
彼は80年代以来、注目に値するような大きなブレークスルーを出していませんでした。もっとも、それは彼だけではありませんでした。Hintonが研究しているのはAIだと言いましたが、正確にはニューラルネットワークです。人間が学ぶようなやり方で、コンピュータに学習させようとするAIの一分野です。
当時の平均的なAI研究者からすれば、ニューラルネットワークを本格的なAI研究と同一視するのは、占星術を物理学と比べるようなものでした。
ですが、最初からここまでひどい扱いだったわけではありません。少し前までは、それはシンギュラリティへ至る道だと見なされていました。ところが、その後とてもまずいことが起きたのです。
それでもHintonは信じていました。何十年にもわたる失望を経ても、彼は研究に夢中になるあまり、食事を忘れるほどでした。
しかも彼は、自分がただの玩具のようなアイデアに人生を費やした男として記憶されることも望んでいませんでした。彼は60歳に近づいており、背中の症状は深刻で、ある朝は麻痺したまま目覚めることすらありました。時間との戦いだったのです。
そんな夏の週末、人気のないHintonのAIラボを訪ねてきたのは、いったい誰だったのでしょうか。
私はIlyaです。ニューラルネットワークを勉強したいんです。
そのノックが、人類史の進路を変えることになるとは、誰も知りませんでした。Hinton自身ですら、まったく知りませんでした。
人工知能という分野の誕生
時は1956年。アメリカは戦争に勝ち、次のフロンティアは宇宙とロボットでした。
ほんの数年前には奇跡だった発見が、今日では当たり前のものとして受け入れられています。
これは、宇宙医学と呼ばれる新しい科学分野に関わることです。
ありがとう、Garo。
この1年後、アメリカはロシアとの宇宙開発競争に突入します。未来は、すでに始まっていました。舞台はTomorrowlandです。
その夏、ニューハンプシャーで10人の男たちが集まり、こう問いかけました。
では真面目な話として、教授、機械がいつか本当に考えられるようになると思いますか。
私はそう思います。ただ、この点についてはまだ意見が分かれています。
こうして人工知能という分野が誕生しました。
しかし、数学や物理学とは違い、AIには受け継がれた知恵も、実証済みの枠組みもありませんでした。ただ10人の男が部屋の中で議論しているだけです。
その議論から、自分たちこそ進むべき道を知っていると考える二つの陣営が生まれました。そして彼らは互いを嫌っていました。
最初の陣営を率いていたのは、MITの教授Marvin Minskyです。後にAIのゴッドファーザーと呼ばれる人物です。
Symbolic AI対ニューラルネットワーク
Minskyの手法はSymbolic AIと呼ばれていました。人間の知識、ルール、論理、意思決定木を取り出し、それを機械に符号化するというやり方です。たとえばコンピュータにチェスを教えるなら、ルールと最善手を選ぶアルゴリズムをプログラムします。
あの人、コンピュータとチェッカーをしてるんじゃないですか。
その通りです。しかもかなり強いんですよ。
それは非常に整然としていて、論理的でした。そしてMinskyはAI研究コミュニティ全体の支持を受けていました。
対立側が研究していたのが、ニューラルネットワークと呼ばれるものです。そして彼らは劣勢でした。MinskyとSymbolic AIの支持者たちは、人間の知識をコンピュータに直接書き込もうとしていました。一方、ニューラルネットワークの人たちは、赤ん坊のコンピュータを育てようとしていたのです。
彼らはルールや知識をプログラムしませんでした。本物の知能は与えられるものではなく、学習されるものだと考えていたからです。
人間の脳は、100兆個もの小さなダイヤルからできています。その一つ一つの位置が、何年にもわたる経験と学習を通じて精密に調整されていきます。ニューラルネットワークは、その粗い模型でした。ダイヤルの数ははるかに少ないものの、核心にある原理は同じでした。知能はプログラムされるのではなく、反復的に調整されるものだということです。
簡単な課題を考えてみましょう。猫の写真と犬の写真を見分けることです。Minsky率いるSymbolic AI的な方法では、犬に特有の特徴をコード化するでしょう。垂れた耳、しっぽ、濡れた鼻といった具合です。しかし境界事例では簡単に騙されてしまい、そのたびに人間がルールを更新し続けなければなりません。
一方、ニューラルネットワークには、犬と猫のラベル付き画像を何千枚も見せ、毎回どちらかを推測させます。間違えるたびに、人間の脳を模したダイヤルを少しずつ調整して、次には正解しやすいようにするのです。これを何千回も繰り返すと、そのシステムは猫と犬という概念を学習します。
それはちょうど、人間の赤ん坊が家の犬に対する直感を身につけるのと同じです。特徴のチェックリストを通してではなく、何度も何度も犬を見る経験を通して身につけるのです。
この、人間らしさともいえる性質、つまり経験から学ぶという性質は、より堅実なSymbolic AIの手法よりもずっと早く、大衆の想像力をかき立てました。
過剰な期待と、Perceptronの夢
1958年、ニューラルネットワークの最初の試作機、いわゆるPerceptronが公開された翌日、ニューヨーク・タイムズはこう書きました。
海軍は本日、将来、歩き、話し、見て、書き、自分自身を複製し、自分の存在を意識できるようになると期待される電子計算機の胚を公開した。
Perceptronの生みの親であり、ニューラルネットワーク運動の指導者でもあったFrank Rosenblattは、その後タイムズ紙にこう語りました。
後のPerceptronは、人を認識してその名前を呼べるようになるでしょう。印刷されたページ、手書きの手紙、さらには音声命令すら理解の範囲に入ります。さらに一段階、難しい段階を経れば、この装置はある言語の音声を聞き、それを瞬時に別の言語の音声または文章へ翻訳できるようになるでしょう。
しかし現実には、初期のPerceptronの試作機は原始的なものでした。四角形と円を見分けるといった玩具のような問題しか解けませんでした。
それでも重要だったのは、概念実証に成功したことです。コンピュータが人間らしい方法で学習したのです。約束されていたのは、その装置が大きく育ったとき、いったい何ができるようになるのかという未来でした。
1958年当時、それは狂気のように聞こえました。その懐疑に対して、ニューラルネットワークの研究者たちはこう言い返したかもしれません。あなたは、なぜ母親の顔を一瞬で認識できるのか説明できますか。髪の色や鼻の形のような特徴を、一つずつチェックしているのでしょうか。違います。ただ直感的にわかるのです。
ニューラルネットワークの研究者たちが自分たちのシステムに組み込みたかったのは、まさにその直感であり、あいまいなパターン認識でした。
厳しい現実と、Minskyの一撃
しかし時がたつにつれ、Rosenblattやこの分野の研究者たちは、ニューラルネットワークが人間レベルの知能に到達するまでには、難しい一段階どころではない隔たりがあることに気づき始めます。
人々が難しいと思っていることは、実はかなり簡単で、人々が簡単だと思っていることは、実は非常に難しいのだということがわかり始めたのです。
1950年代の技術楽観主義は、60年代に入ると現実主義へと変わっていきました。
後続のニューラルネットワークは、試作機からわずかな前進しか見せませんでした。相変わらず、玩具のような問題しか解けなかったのです。一方で、Minsky率いるSymbolic AIは着実に成果を伸ばしていました。人間の熟練者に勝つチェッカーエンジン、最初の汎用ロボット、さらにはChatGPTとまではいかないものの、多くの人に相手が人間だと思わせた原始的なチャットボットまで登場していました。
この結果、分野誕生以来初めて、ニューラルネットワークへの資金提供が危うくなります。当時、まだ明確なビジネス用途がなかったAI研究のほとんどは政府資金でまかなわれており、その資金はSymbolic AIとニューラルネットワーク研究者の間で分け合う必要がありました。
これがMinskyを激怒させました。形を見分けるのがやっとのシステムが、まだ資金を受け取っていたからです。
もともと彼はニューラルネットワークへの嫌悪を非常に大声で表明していました。そして彼は、とどめの一撃を考え始めます。それを行うのに誰よりふさわしいのは、伝説的なMarvin Minsky、AIのゴッドファーザーである自分自身でした。
彼は同僚とともに『Perceptrons』という本を書きます。この本は、強力なニューラルネットワークの構築は不可能だと、ほとんど断言する内容でした。ニューラルネットワークの能力には数学的な上限がある、というのです。
分野の事実上の指導者から発せられた、この断定的で確信に満ちた主張は強烈でした。AI研究の主要な出資元だったDARPAは、すぐにニューラルネットワーク関連プロジェクトへの資金を削減し始めます。やがて学術誌も学会も、ニューラルネットワークの論文を受け付けなくなりました。
そしてMinskyの本が出てからわずか2年後、Frank Rosenblattはボート事故で亡くなります。この分野は資金も、評判も、そして指導者も失いました。
ニューラルネットワークは、正式に死んだのです。彼らはSymbolic AIとの戦いに敗れました。そして何十年たっても、Minskyの本は、Hintonのような数少ないニューラルネットワーク研究者たちの上に影を落とし続けていました。
みんな、ニューラルネットワークはうまくいかないと知っていて、忘れてしまったのです。
Hintonを除いては。
Ilya Sutskeverの登場
Hintonが博士課程を始めたのは、そのわずか1年後の1972年でした。
そして現代、2003年のHintonの研究室に戻ります。17歳の、妙に自信満々なロシア系の少年が、どうしてもHintonに会いたいと言い張り、すぐに自分の有用性を示し始めます。
Hintonは、また来るかどうかを見るためだけに、Ilyaにいくつかの研究資料を渡しました。
数日後、彼は戻ってきて、ニューラルネットワークの訓練に関する、ベテラン級の洞察を口にしました。
私は彼に論文を読ませたんです。backpropagationに関するNatureの論文でした。すると彼は戻ってきて、理解できませんでしたと言いました。私はがっかりしました。賢そうには見えたのに、あれは単なる連鎖律ですから。そんなに理解が難しいものではありません。
すると彼は、いやいや、そこは理解しました。ただ、なぜ勾配を中央の、まともな関数最適化器に渡さないのかがわからないんですと言ったのです。私たちがその発想にたどり着くまでに、何年もかかりました。彼の物事に対する生の直感は、いつも非常に優れていました。
Hintonは、Ilyaをただの憧れ組だと見誤っていたのです。
大学に入ったばかりの17歳で、ニューラルネットワークの勉強を始めたばかりにもかかわらず、彼はHintonの優秀な学生たちですら苦戦する概念を、あっさり吸収していました。数年のうちに、IlyaはHintonにとって最も価値ある弟子になっていきます。難しい研究課題の先頭に立ち、Hintonが抱える最重要問題に、実際に貢献するようになったのです。
Deep Belief Netsと、限界の先へ
最近、彼らが取り組んでいたのは、それまでのHintonのキャリアを決定づける執念ともいえるテーマ、Deep Belief Networksでした。
Hintonにとって最大の問題は、大規模なニューラルネットワーク、つまり本当に驚くような能力を持つネットワークを作ることが、どうにも不可能に見えることでした。ネットワークのサイズがある程度を超えると、モデルはそれ以上うまく学習できなくなってしまうのです。
Deep Belief Networksは、その問題に対するHintonの解法でした。巨大なモデルを直接訓練するのではなく、小さなモデルをいくつも訓練して、それらを継ぎはぎしてつなげるのです。
うまくいくには単純すぎる話に聞こえます。誰かが以前に試していてもおかしくなさそうです。
ところが、誰もこの特定の形では試していませんでした。当時、地球上でこれを本気で研究していたのは数十人程度しかおらず、彼ら全体の研究資金を合計しても、Googleの年間社員食堂予算より少ないほどでした。
Minskyが『Perceptrons』を出してからの34年間で、ニューラルネットワークは、形の認識のような玩具問題しか解けなかった状態から、実用的ではあるが目立たない、小規模な商業的用途を持つ程度までは進歩していました。
1980年代のBell Labsでは、Yann LeCunがニューラルネットワークを作り、AT&TがそれをATMに利用しました。Hintonはウォール街の企業と組んで株価予測にも取り組み、しばらくは実際に利益も出していましたが、そのシグナルはやがて混み合いすぎて通用しなくなりました。
私は実際、小さな投資信託で技術担当をしたことがあります。あるニューラルネットワークが市場のどの局面にいるかを判断して、別のニューラルネットワークが6か月後に市場平均を上回る銘柄を教えてくれました。実際、それは非常によく機能しました。
さらに1980年代の日本では、欧米からほとんど見えていなかった静かなニューラルネットワーク革命も起きていました。手ぶれ補正のためにビデオカメラへ組み込まれ、溶接の欠陥検出のような産業用途に使われ、さらには炊飯器の中に小さなニューラルネットワークを入れて、ご飯の好みの粘り具合を学習させることまでしていました。
Hintonにとって問題だったのは、ニューラルネットワークが目立たず、地味だったことです。役には立っていても、それは私たちが当たり前だと思っている裏方の仕事にすぎませんでした。それは、1950年代にRosenblattが数年で人間レベルの知能に届くと予言した姿とは、あまりにもかけ離れていました。
私は自信を持って期待しています。10年か15年のうちに、研究所から、SFで知られるロボットにそう遠くないものが現れるでしょう。
何十年もわずかな前進しかなかったにもかかわらず、Hintonはなおも、Rosenblatt的な、いつかニューラルネットワークが人間の能力に到達し、あるいは追い越すというビジョンを信じていました。
しかし、数字認識や炊飯器の好み学習に使われるような幼いモデルでは、そこへは行けません。当時のモデルは、せいぜいショウジョウバエの脳程度に相当するものでした。ざっくり計算すると、人間の脳の規模に達するには、その50万倍ほどの大きさのモデルが必要です。
Deep Belief Networksは、その山を登り始める最初の一歩でした。
大きくすることは可能だと証明された
トロント大学のHinton、Ilya、そしてラボの仲間たちは、ここ数年Deep Belief Networksに取り組んできました。そしてこの年、Hintonはこのテーマに関する最初の研究、「A Fast Learning Algorithm for Deep Belief Nets」を発表します。
大学のスーパーコンピュータで3週間モデルを訓練し、当時の最先端よりかなり大きいモデルを作りました。大規模なニューラルネットワークを作るという実験は、ぎりぎり成功したのです。
性能は数字認識の正確さで評価され、たしかに小さなモデルより改善していました。その意味では、価値ある概念実証でした。しかし、画期的というほどではありませんでした。改善は指数的ではなく、限界的なものでした。
つまり、より大きなモデルはより大きな脳になるというHintonの仮説は正しく、この論文はより大きなモデルを訓練するための設計図を示しました。ただし、それによってできたのは、同じように地味な裏方の問題を、少しうまく解くことだけでした。
そこで次の問いが生まれます。次は何か。どうすればRosenblattのビジョンに近づけるのか。
見て、話して、考える機械というRosenblattの夢を実現するには、奇跡が必要でした。そしてその奇跡は、Best Buyの棚に499ドルで置かれていたのです。
GPUという偶然の鍵
Mooreの法則に従うなら、家猫レベルの知能に近いモデルを訓練できるようになるまで、コンピュータは何十年も進歩を待たなければならないはずでした。Hintonは60歳に近づいており、そんな時間はありません。別の道が必要だったのです。
そのどこかの時点で、誰かが比較的地味な事実に気づきました。主にGrand Theft AutoやCounter-StrikeのようなPCゲームに使われていたGPUが、ニューラルネットワークで使う数学に偶然ぴったりだったのです。
行列積です。
理論的には、500ドルのGPUを使うことは、10年から20年先のスーパーコンピュータを手に入れるのに等しいはずでした。そしてその理解が広まり始めたちょうどその頃、NvidiaがGPUをプログラム可能にします。突然それは、グラフィックス専用の装置ではなくなったのです。
問題は一つだけでした。Hintonの研究室には、GPUをプログラムできる人が誰もいなかったのです。
それはJohn Carmackのような人の仕事でした。AI研究者は数学の証明を書き、ロボットの反乱について哲学的な議論をする人たちです。低レベルのシステムプログラミングなどしません。
だから彼らには、Carmack的な技能と、ニューラルネットワークの専門知識を併せ持つ、極めて珍しいタイプの人材が必要でした。2007年当時、そんな人は存在しませんでした。
もう一人の、風変わりな旧ソ連系の若者がHintonのオフィスに現れるまでは。
Alex KrizhevskyとAlexNetの前夜
彼の名はAlex Krizhevsky。IlyaともHintonともまったく違うタイプでした。Alexは、AIがいつかどうなるかを夢見ていたわけではありません。ただプログラミングと問題解決が好きだったのです。
彼が自室で行っていた実験、つまりGPU上でニューラルネットワークを訓練する試みは、すでにHintonのいくつかのモデルよりも印象的な結果を出していました。しかも、それは母親の家にある1000ドルのゲーミングPCでやっていたのです。
もしこれがうまくいけば、計算能力における巨大な飛躍になります。Minecraftで木の道具から鉄の道具に変わるようなものです。Counter-StrikeでグロックからAKへ持ち替えるようなものです。
ただ、それが本当にうまくいくかはまだわかりませんでした。NvidiaやSilicon Graphicsのような企業は、90年代からGPUを作っていました。もしそれがAIへの魔法の鍵なら、誰かがとっくに気づいていたはずです。
それでも、理論的にうまくいかない理由はありませんでした。ニューラルネットワークの暗黒時代には、こういう瞬間が何度もありました。振り返れば明らかなブレークスルーが、何十年も放置されていたのです。
ですが、世界中で本気でニューラルネットワークを研究している人がせいぜい数十人、しかも予算も小さかったため、多くの機会が見逃されたままでした。
HintonがDeep Belief Netsから学んだことが一つあります。ニューラルネットワークの規模を大きくすることは、ある程度うまくいくということです。ボトルネックは、どれだけサーバー機材に金をかけられるかであって、必ずしも研究者の巧みさではありませんでした。
理論研究は、そのことを裏づけていました。そして今、GPUがMooreの法則を数十年分先送りしてくれるとわかり、ようやく本当に役に立つことができる部品がそろったのです。
ただし、急がなければなりませんでした。Hintonはさらに年を重ね、すでに64歳。IlyaとAlexは博士課程を終えようとしていて、まもなく研究室を去る予定でした。Googleは無尽蔵の資金を背景に、画像認識でニューラルネットワークをひそかに試し始めていました。他の大学研究者たちも、GPUに気づき始めていました。
もし彼らがブレークスルーを起こせなければ、別のラボがやるはずでした。
画像認識への賭け
そこで必要になったのは、GPU上でニューラルネットワークを訓練するための標的、すなわち概念実証の題材でした。
そして幸運にも、Hintonはとても意地っ張りでした。
ニューラルネットワークに懐疑的な、ある友好的なライバルが、公の場でその技術を疑っていたとき、Hintonは彼に電話をかけて挑発します。そして勢いで、自分と学生たちならAIの最難関の一つ、画像認識を解けると口走ってしまったのです。
1950年代以来、研究者たちは、犬の写真を見せたら、これは犬ですと答えられるような、画像内の物体認識をニューラルネットワークや他のAIモデルに学習させようとしてきました。この問題を解ければ、何十億ドル規模の価値がある可能性がありました。自動運転、X線のような医療画像、監視の自動化などに使えるからです。
ところが60年後の時点でも、既存の解決策は非常にもろいものでした。明らかな誤りを犯し、認識できる物体の種類も少なかったのです。
画像認識の真のキラーアプリとは、汎用的で高精度で、人を何人もつけて監視しなくても動くシステムのことです。しかし、そんなものはまだ存在せず、近いうちに実現するという公的な期待もほとんどありませんでした。
Hintonが挑発電話をかけた相手、Jitendra Malikは、その画像認識を実現しようとして人生を捧げてきた研究者でした。それでも進歩はわずかでした。あらゆる手法を試してきた彼にとって、ニューラルネットワークはまったく有望ではありませんでした。
その一方で、コンピュータビジョンの分野にほとんど馴染みのないHintonは、Malikに向かって、お前のライフワークは数か月のサイドプロジェクトで解けるとでも言っているようなものでした。
外から見れば、Hintonは傲慢で苦々しい人物に映ったことでしょう。人生を変える問題を解けるといつも主張しているのに、ニューラルネットワークはまだ日常的な用途にすら十分届いていないのですから。
しかし、MalikもAIコミュニティの他の人々も、HintonのGPUでの突破を知りませんでした。問題がニューラルネットワークではなく、コンピュータそのものにあったことを知らなかったのです。そしてその問題は、少なくとも彼らの期待では、今や解決されたはずでした。
ImageNetとAlexNetの衝撃
2010年代初頭に、コンピュータに目を与えられることを証明したいなら、ImageNetで訓練する必要がありました。ImageNetは、それまで集められた中で最大の画像データセットです。何百万枚もの画像が、何千ものカテゴリーに分類されています。
もしAIモデルがこのデータセットを学習できれば、何十億ドルもの価値がある問いに答えたことになるでしょう。
ただ問題は、試そうとする人がほとんどいなかったことです。当時の標準的なデータセットと比べて、あまりにも巨大だったからです。
たとえば、当時最も人気のあった画像データセットPascalは、20クラス20,000枚の画像にすぎませんでした。クラスとは、犬、猫、トラック、人といったものです。
それに対してImageNetは、20,000クラス、1,400万枚の画像です。犬を認識させるのではありません。Norfolk Terrierを認識させるのです。しかも、それをNorwich Terrierと混同しないようにしなければなりません。この二つを並べて見ても、自分の目で違いがわかるでしょうか。
当時、AIコミュニティがコンピュータビジョンの最先端を測る方法は、毎年のコンテストでした。PascalやImageNetのような同じデータセットを全員が使い、その画像でAIモデルを訓練するのです。写真がどのクラスに属するかを最も正確に当てたモデルが勝者になります。
小さなデータセットであるPascalのコンテストには、毎年数十チームが参加していました。ところが、2011年のImageNetコンテストにはわずか4チームしか参加しませんでした。そして優勝モデルの精度は74.3%。現実世界で役立つにはほど遠い数字です。
Hintonたちが挑もうとしていたのは、そんな課題でした。あまりに難しすぎて、多くの人が挑むことすらしない課題です。しかも、提出までに残された時間はわずか数か月。さらに彼らのハードウェア予算は、Alexの母親の家にある1000ドルのゲーミングPC程度しかありませんでした。
競合チームの側には、何十万ドルもするサーバーラックがありました。
HintonのポケットにはUSBメモリが入っていました。その中身は、AGIへの道か、研究者としての自殺行為か、どちらかでした。
500人ほどのコンピュータビジョン研究者が集まる会議で、ニューラルネットワークが使えると信じていたのは十数人ほどです。残りは、彼らが失敗するのを見に来ていました。外から見れば、失敗しそうにしか見えませんでした。
その年、ImageNetに挑んだのは、勇敢にもわずか7チームだけでした。Pascalには24チームが参加していました。
会議のあちこちでは、ImageNet競技に参加している6チームのうち1つが、ニューラルネットワークを使っているらしいという噂が流れていました。それが混乱を呼んでいたのです。そんなことはこれまで一度もなかったからです。Pascalが6年間、ImageNetが2年間続いてきて、100を超えるチームの中で、ニューラルネットワークを出してきたチームは一つもありませんでした。
そして最初にそれをやったのが、ニューラルネットワークという狭い世界では最大の名前だったJeff Hintonだったのです。
多くの研究者にとって、ニューラルネットワークと画像認識の組み合わせで最後に記憶に残っていたのは、おそらく90年代のYann LeCun、つまりAT&Tが使っていた数字認識の話でした。なのにHintonは、まるで10年以上の進歩を一気に飛び越えたかのように、しかも誰もが尻込みするほど難しいImageNetにいきなり出てきたのです。
もっとはるかに簡単なPascalには見向きもせずにです。
当然、人々は憶測しました。Hintonたちはタイムマシンでも見つけたのか、それとも大恥をかくのか。
84.7%という一枚のスライド
金曜日、会議の実質的な最終日です。1週間の発表を終え、この日は二つの大きな競技の日でした。まずPascal、次にImageNetです。
Pascalの競技中、講堂はいつものように半分ほど空いていました。このコンテストは2006年から続いており、もう大きな発見はあまり残っていなかったからです。
しかし画像競技の時間になると、会場に空席は一つもありませんでした。床に座る人、入口に立つ人、肩越しにのぞき込む人までいました。
ビジョンのコンテストで、これほど人が集まることはありません。みんな何かが起きるとわかっていたのです。問題は、それが何かでした。
司会は、Alex Krizhevsky率いるチームSuperVisionを呼び上げました。壇上に現れたAlex Krizhevskyは、明らかに発表するよりコードを書いているほうが好きそうでした。
Alexは自己紹介をします。声は上ずり、まったく舞台映えしません。
僕の名前はAlex Krizhevskyです。今日は、僕と素晴らしい共同研究者であるIlya SutskeverとJeff Hintonが行った研究についてお話しします。
それでも、誰一人メールを確認していません。何か来るとわかっているかのように、全員が集中していました。
彼はニューラルネットワークのアーキテクチャを説明します。使ったGPUについて話します。そこまではごく普通の内容です。
モデルはかなりシンプルです。完全に教師ありです。深い畳み込みニューラルネットワークで、5つの畳み込み層があります。全結合層が2つあります。ええと、それから、ごく普通のSGDで訓練しています。NvidiaのGPUを2枚使いました。実際には、僕の寝室で訓練しました。
ところが3枚目のスライドに進むと、太字で示された数値が一つありました。84.7%です。
それまでの最高記録は74.3%でした。彼らは初挑戦で最先端を完全に粉砕したのです。そして会場は騒然となりました。
議論があちこちで起きました。データセットに欠陥がある、コードは再現できない、この方法はスケールしない、と研究者たちが言い出したのです。Hintonが最初に賭けを持ちかけた相手、Jitendra Malikですら、まだ懐疑的でした。彼は別のデータセットでも動くところを見たがっていました。
ですが、その1年後には、彼自身がニューラルネットワークの論文を書いていました。
本来なら、その次のチームが発表するはずでした。しかし彼らが何を見せたかを覚えている人はほとんどいません。たった一枚のPowerPointスライドで、20年分のコンピュータビジョン研究が時代遅れになってしまったからです。
この瞬間以降、コンピュータビジョン研究のほぼすべてはニューラルネットワークになっていきます。分野全体が、今後はHintonの言語を学ばなければならなくなったのです。
40年に及ぶ荒野、何十年もの嘲笑、資金削減、黙殺。Hintonがニューラルネットワークの話をするたびに、誰もがMinskyの本を持ち出してきました。そのHintonが、64歳で、時には麻痺した状態で目覚めるほど深刻な背中の問題を抱えながら、最後の瞬間に歴史を作ったのです。
スケーリングの法則と、Googleの影
懐疑的な聴衆とHintonがやりあっていたその間、Hintonの頭の中ではおそらく、ある計算が進んでいたはずです。
そこへ至るまでのすべての実験が、一つのことを明確にしていました。訓練に計算資源を投入すればするほど、モデルは賢くなるのです。それはほとんど線形に見えました。
しかも彼らは、1000ドル分のGPUだけで分野全体を変えてしまいました。ならば10万ドルや1000万ドルなら何ができるのでしょうか。
前年のGoogleの売上は380億ドルでした。AlexNetを1万倍にすることなど、Googleにとっては端数処理にすぎません。
この含意は明白でした。Alexの発表から数時間もしないうちに、参加者が100人ほどしかいない会議の外で、シリコンバレーのベンチャーキャピタリストたちはIlya Sutskever、Alex Krizhevsky、Geoffrey Hintonという名前を知っていました。準備する間もなく、彼らは取るに足らない存在から、何十億ドルもの資金の流れを左右する存在になったのです。
数週間のうちに、何百万ドルもの金が動き始めます。企業買収、GPUの発注、そしてあらゆるテック企業がそれを始めました。
レシピはとても単純でした。GPUを増やし、データを増やす。それだけです。抑制も規律もなく、誰が最速でスケールできるかという競争になりました。
彼らは30年間死んでいた分野の学者でした。それが突然、何百万ドルのオファーや白紙委任の予算を与えられて、モデルを訓練する立場になったのです。好きなものを作れるようになりました。
彼らは、業界に対して懐疑的であるように訓練されてきたわけではありません。それまでそんな必要がなかったからです。
そして、最も素早く動いたのはGoogleでした。AlexNetからわずか2か月で、GoogleはHintonのチームを4400万ドルで買収します。製品も資産もありませんでした。Googleが買ったのは、Alex、Ilya、Hintonの頭脳そのものでした。さらに2014年には、AIラボDeepMindを5億ドルで買収します。
Larry Pageは部下の一人に、単純な命令を出しました。世界中を飛び回って、有望なAIチームは予算上限なしで何でも買ってこいという命令です。
あの頃、面白いAI論文を一本出せば、Googleのリクルーターから連絡が来て、NFL選手のような報酬を提示されていました。
そしてAlexNetが示したあのレシピは、その後も効き続けます。GPUとデータをどんどん投入して、何か恐ろしいことが起きるまでスケールさせるというやり方です。
初めて、ニューラルネットワークが大規模に実運用され始めました。Google Photosの画像認識、Google検索の言語モデルなどです。大学の研究室に閉じていたものが、もはや理論ではなくなっていました。
AI安全性という現実の問題
そのとき、一部のAI研究者たちは気づき始めます。何十年もの間、AI安全性というアイデアは、基本的には思考実験にすぎませんでした。いつかロボットが反乱を起こすかもしれないという、楽しい空想だったのです。
ところが今、それは、危険なモデルがいつGoogleを通じて数十億人へ届けられるかという問題になりつつありました。
これらの研究者たちは、ただ数式が動くように、ただ何かが動くようにという一心でキャリアを費やしてきました。しかし今や、自分たちは何を作っているのか、それは危険なのか、それを誰が支配すべきなのかを考えなければなりませんでした。
Googleが支配すべきなのでしょうか。
しかし、その問いにはすでに答えが出ていました。社是からDon’t be evilを削除し、NSAの大規模監視に協力し、自らも監視マシンのような企業であるGoogleが、いつの間にか分野全体を買い集めてしまっていたのです。社会にとってそれがよいことなのかを、誰も立ち止まって問う前にです。
そしてGoogleの社員であるIlya自身が、そのことを最も強く感じ始めていました。
彼は、このAI競争を始めるきっかけになったブレークスルーの一端を担いました。そして今、その勝者のもとで働きながら、誰よりも速くスケールが進み、その含意を誰も考え切れていない様子を見ていたのです。
OpenAI創設の誘い
2015年の夏。シリコンバレーのRosewood Hotelの個室で、IlyaはY Combinator社長のSam Altmanと向かい合って座っていました。Y Combinatorはシリコンバレーで最も強力なスタートアップ育成機関です。そこに、元Stripe CTOのGreg Brockmanもいました。
テック業界でも屈指の頭脳が三人、ただ待っています。
そしてようやく、主賓であるElon Muskが1時間遅れで現れます。彼が入ってきた瞬間、店全体がざわつきます。Elonは席に着く前からもう話し始めていました。
彼がここにいた理由はIlyaであり、伝えたいことはほぼこうでした。Ilya、人工超知能はやって来る。
人工知能によって、私たちは悪魔を召喚しているんです。
おそらく10年以内にです。
Googleがそれを作ろうとしている。そして君もその一助を担っている。しかも、それを止める者がいない。だから、誰か別の勢力が対抗軸として動かなければならない。
Elonはすでに、この話題でLarry Pageとの友情を壊していました。
Larry Pageは私のほうを向いて言ったんです。もし今日、自分がバスにはねられたら、そのすべてをElon Muskに託すべきだろうって。
本当にですか。
ええ、そう言ったんです。
Larryは私の親しい友人です。私は彼がベンチャー資金を得る前から知っています。
Pageは、AGIによる人類絶滅を気にかけるElonを、人間中心の差別主義者だと呼びました。人類の存続を気にするのは視野が狭く、部族的だというのです。
そんな人たちが、これを作っているのです。
そこでElonの提案はこうでした。何百万ドルものGoogleでの給与も、無限に近い計算資源も捨てて、非営利組織へ来てくれ。給料は新卒並みだ。職場はサンフランシスコの古いチョコレート工場だ。新しい上司はこのSam Altmanで、AI経験はゼロだが、凄腕のテック投資家だ。もっとも、非営利研究所では正直あまり役に立たないかもしれない。
一方でGreg Brockmanも、AI経験はゼロです。ただ彼は巨大で成熟したコードベースを最適化するのが非常に得意です。しかし、コードすら存在しない、立ち上げたばかりの研究ラボには、まさに必要ない種類の能力ともいえました。
その提案は、ひどく雑で、筋も通っておらず、まったく意味がないように思えました。ただし二つの点を除けばです。
一つは、Elon Musk本人が世界を救う手伝いをしてくれと頼んでいること。
もう一つは、そう言ってくれる人が彼しかいなかったことです。
OpenAIの理想と、その最初の綻び
2015年12月、カナダ・モントリオールで開催されたNeural Information Processing Systemsの会議で、Ilyaは承諾します。
彼はOpenAIの信用そのものでした。Ilyaが加わることで、他の研究者たちも参加を決めました。Ilyaがいなければ、それはAI経験のない二人とElon Muskが、研究者たちに大幅な年収ダウンを受け入れろと頼んでいるだけの話でした。
彼らはその年最大のAI会議で、OpenAIを紹介するブログ記事とともに発足を発表しました。しかし、それは危うく実現しないところでした。GoogleのDeepMindが会場で研究者たちを文字どおり囲い込み、その場でカウンターオファーを出していたからです。
それでも十分な数の研究者が集まりました。Elonのビジョン、強まりつつあった安全性への懸念、そしてIlyaの存在。この組み合わせが、新卒並みの給与や最低限の待遇を上回ったのです。
OpenAIのミッション・ステートメントにはこう書かれていました。
OpenAIは非営利の人工知能研究会社です。私たちの目標は、人類全体にとって最も利益となる形でデジタル知能を前進させることです。金銭的利益を生む必要に縛られないため、私たちはよりよい人類への影響に集中できます。
その発想は、20世紀の偉大な研究所、Bell LabsやXerox PARCを再現することでした。世界で最も賢い人たちを一つの部屋に集め、利益動機やプロジェクトマネージャーに縛られずに未来を築かせるというものです。
ただ、その理想主義は最初から少し傷んでいました。彼らがまだ存在する前の段階から、Sam AltmanはMuskに対し、何をオープンソース化し、何をしないかについて継続的な議論をしているとメールで書いていました。
しかもIlya自身も早い段階から、研究者を採用するためにオープンソースの理想を利用していることを十分認識していました。2016年1月にMuskへ送ったメールの中で、彼はこう書いています。
AIの構築に近づくにつれ、より非公開にしていくのが理にかなうでしょう。OpenAIのopenとは、AIの成果が皆に利益をもたらすべきだという意味であって、科学そのものを共有しないことはまったく問題ありません。すべてを共有するのは、採用目的において短期的には、そしておそらく中期的にも、確かに正しい戦略です。
つまり、オープンソースは最初から採用のための道具でもあったのです。
Elon Muskが資金を出すAI非営利団体という新鮮味が薄れると、OpenAIは方向性を失いました。AI分野のトップ研究者たちは集まっていたのに、ビジョンもリーダーシップもありませんでした。みな自分の個人的なプロジェクトに散っていたのです。
彼らはBell Labsについて読み、賢い人を集めて自由を与えれば、あとは待っていればブレークスルーが起きると考えました。しかし実際には、そうはなりませんでした。
研究者の焦点は複数のプロジェクトへ分散し、最新のDeepMind論文をなぞったり、ロボットハンドにルービックキューブを解かせるような gimmick をやったりしていました。
OpenAIの目標は何かと聞かれたとき、Greg Brockmanはこう答えています。
今の私たちの目標は、やるべき最善のことをやることです。
少し曖昧ですね。
その輝きは、明らかに色あせ始めていました。
DeepMindの成功と、Ilyaの気づき
2016年3月、OpenAI発足からわずか4か月後、GoogleのDeepMindがGo世界王者を破ります。Goは、計算だけでなく直感を要するため、コンピュータには不可能と思われていたゲームです。6000万人以上がAlphaGoが李世乭を打ち負かす様子を見ました。
一方のOpenAIは、Pythonライブラリを作っているだけでした。
そしてIlyaは気づきます。2016年、彼は1980年代以来最大のニューラルネットワークのブレークスルーを起こしていたのに、その核心を自分で十分に理解していなかったのです。
AlexのGPUは、彼らがそれまで使っていたCPUマシンの数倍の性能を持っていました。そのおかげで、より大きなモデルを、より多くのデータで、より長く訓練できたのです。その後に続いたニューラルネットワーク革命も、まさにその発想に基づいていました。だからこそGoogleやFacebookは巨大なGPUデータセンターを作っていたのです。
しかし、その突破を成し遂げた三人の一人であるにもかかわらず、Ilyaはその根本的な教訓を取り逃していました。その転換点で、彼はGoogleの世界最高水準のGPU群を離れ、数十台のMacBookしかない、立ち上げたばかりのスタートアップへ来てしまったのです。
Googleに対抗するには、数十億ドル規模の計算資源が必要であることが、日に日に明らかになっていきました。彼らをここまで連れてきた、非営利・オープンソースの構造こそが、いまやスケールの最大の障害になっていたのです。
Elonの資金だけでは足りません。テック億万長者全員に寄付を乞うても足りません。
しかも、そのことはほぼ全員がわかっていました。2017年末までに非営利の構造を捨てる計画を、経営陣はすでに内部で進めていました。Greg Brockmanの内部メールには、その計画がはっきり残っています。
彼らはオープンソースやGoogleへの対抗、Bell Labsへの郷愁といった理想で研究者を引きつけました。しかし今や、Googleと戦うにはGoogleになるしかなかったのです。
Teslaに入るか、理念を守るか
2017年9月20日。IlyaとGregは、ほとんど不可能な選択を突きつけられます。
Elonが提案を持ち込んだのです。OpenAIをTeslaに組み込もう。そうすれば無制限の計算資源、同世代最高の起業家によるリーダーシップ、Googleと戦うために必要なものはすべて手に入る。
ただしOpenAIはTeslaの子会社になります。
Elonは単独支配権を持ち、CEO権限と取締役会での超多数支配権を得ることになります。つまり、まさにOpenAIが防ごうとして設立された、権力の集中そのものです。
代わりに断れば、Elonは去ります。資金と採用力の最大の源泉が消えます。
Elonは、TeslaをOpenAI研究の資金源にする覚悟でした。しかしその代償は、完全な支配でした。
最後の瞬間に、Ilyaはどうしてもそれを受け入れられませんでした。彼とGregは、率直で、弱さもさらけ出した詳細なメールをElonに書きます。
このプロセスは、Gregと私がこれまで参加した中で最も重大な対話でした。そしてこのプロジェクトが成功するなら、世界が見た中で最も重大な対話だったということになるでしょう。
私たちは交渉の中で、自分たちの本当の考えを完全には話しませんでした。言い訳はありますが、それはプロセスにとって有害でしたし、その結果としてSamもElonも失うかもしれません。
Elonの返答はその日のうちに届きました。
もう十分だ。これが最後だ。自分たちで何かやるか、OpenAIを非営利のまま続けるかのどちらかにしろ。君たちが残ると確約するまでは、私はもうOpenAIに資金を出さない。でなければ私は、君たちがスタートアップを作るための無料資金を出している愚か者ということになる。議論は終わりだ。はっきり言うが、これは以前話していた条件を受け入れろという最後通告ではない。あれはもうテーブルの上にない。
不可能な選択は、Elonのほうが彼らに代わって下したのです。
Microsoft資本と、GPTへの道
2018年1月には、彼らはICOまで検討するようになっていました。Elonの小切手帳から、今度はミームコインに望みをつなぐような状態です。そこへReid Hoffmanがつなぎ資金として給与を肩代わりしますが、寄付金ではGoogleに対抗できません。
皮肉なのは、再び同じことでした。研究者たちをオープンソースと非営利の純粋さで引き寄せたのに、その原則こそが今や、必要なものを作るための障害になっていたのです。
繰り返しますが、Googleと戦うにはGoogleになるしかなかったのです。
2018年5月、OpenAI内部の研究は、Ilyaが直感的に知っていたことを裏づけます。AlexNet以来、画期的なAI研究で使われる計算量は30万倍に増えていました。年間約10倍です。
スケーリングは、うまくいくだけでなく必須条件だったのです。
しかし問題はデータでした。ImageNetは1,400万枚のラベル付き画像を人手で整理したデータセットでしたが、彼らが必要とする規模にはそれに相当するものが存在しませんでした。
そんな中、Googleの論文「Attention Is All You Need」が出回り始めます。核心となる発想はこうでした。テキスト列の次の単語を予測するようにニューラルネットワークを訓練すれば、翻訳を改善できるというものです。たとえば英語から中国語への翻訳です。
しかしIlyaらOpenAIの面々は、そこにもっと大きなものを見ました。言語は普遍的です。Pythonコードも、科学論文も、議論の形式も、説明書も、すべて表現できます。テキストにできるものなら、訓練に使えるのです。
理論的には、キュレーションされた専用データセットは不要になります。何でも学習に使える。もしかすると、インターネット全体すら使えるのです。
この仕組みを発明したのはGoogleで、彼らにはそれをスケールさせる無限の計算資源がありました。しかもGoogle Searchのおかげで、事実上インターネットの複製まで持っていました。
ですが同時にGoogleには、汎用AIが壊しかねない1000億ドル規模の広告ビジネスもありました。OpenAIには、そのような利益相反はありませんでした。
そしてIlyaには、初めて、汎用人工知能への道筋が見えたのかもしれません。
2018年6月、彼らはこのアーキテクチャに基づく最初の概念実証モデルを発表します。それがGPT、Generative Pre-trained Transformerです。現代の基準から見れば非常に小さく、AlexNetの2倍ほどの規模しかありませんでした。しかも学習に使ったのは、数千冊の自費出版の本にすぎません。
それでも、ときどき首尾一貫した文章を作り、ときどき正しく質問に答えることができました。しかしAIコミュニティの大半は、それを無視しました。
ただ内部では、結果がいつもの教訓を示していました。性能は計算資源とともに伸びる。もっと大きくし、もっとデータを与えれば、もっとよくなる。
彼らのブログ記事にも、それは明確に書かれていました。
これは、より多くの計算資源とデータという、十分に検証されたアプローチによって、なお大きな改善の余地があることを示唆しています。
つまり翻訳すると、やり方はわかっている。必要なのは、スケールのための何十億ドルだけだということです。
そしてその数か月前、彼らは非営利の原則を守るために、Elonの何十億ドルを断ったばかりでした。いまやAlexNet以上の可能性を持つかもしれない突破口を手にし、その実現に必要なのはまさにその何十億ドルであり、最大の障害は捨てられずにいた非営利の原則そのものだったのです。
2019年7月、SamはOpenAIに何十億ドルもの資金源を見つけます。ただし、それには大きな代償が伴いました。
Microsoftと契約し、10億ドル、さらに今後もっと増える可能性のある資金を得たのです。引き換えに、MicrosoftはOpenAIのモデルを商業化できることになり、収益の一部を受け取り、さらに独占的な計算資源提供者にもなりました。
IlyaがElonには認めなかった妥協を、SamはMicrosoftにはそのまま差し出したのです。
違いがあるとすれば、Elonは安全性を確保するため、少なくともそう主張して、支配権を求めていました。Microsoftが安全性を気にしているなどと、本気で信じている人はいませんでした。彼らには満足させなければならない株主がいたのです。
GPT-3、商業化、そして安全性の後退
2020年5月。彼らはMicrosoftの資金でGPT-3を訓練します。GPT-2の100倍以上、初代GPT-1の1000倍の規模です。
それは、単純なスケーリングが機能することを完全に証明しました。より多くの計算資源とデータを与えると、知能のようなものが立ち現れるのです。首尾一貫したエッセイを書き、コードをデバッグし、高校レベルの試験にも合格できました。
彼らが追い続けてきたブレークスルーでした。
しかし、それを作ったチームの大半は、公開したがりませんでした。世界が準備できていなかったからです。そして彼ら自身も準備できていませんでした。これは徐々に起きた変化ではありませんでした。知的なAIが、ほとんど一夜にして現れたのです。
ところがSamは、それを素早く製品化したがっていました。APIアクセスを販売し、収益を得て、さらにMicrosoft製品にも入れたいと考えていたのです。
GPT-3チームを率いていたのはDario Amodeiでした。彼は後に、出荷を急がせるSamからの圧力によって心理的に虐待されたように感じたと述べています。
2020年末までに、DarioはOpenAIを去り、競合ラボAnthropicを立ち上げます。そしてGPT-3に関わった彼のチームの多くも後に続きました。
OpenAIはついに資金を手に入れました。しかし、その資金を最も責任ある形で使うことを気にしていた人々を失ったのです。
Ilyaを除いては。
Ilyaは残りました。彼はまだ信じていたのです。
ChatGPTの登場と、すべての変化
2022年11月30日。ルイジアナ州ニューオーリンズで開かれたNeurIPSのOpenAI採用パーティーです。OpenAIチームの大半は交流し、酒を飲み、楽しんでいました。
しかし、一人の研究者だけは、ノートPCから離れようとしませんでした。あるOpenAIの採用担当が、飲み物でも飲んで普通に社交しなよと言います。
その研究者は答えます。いや、GPUが全部焼けそうなんです。全部落ちています。
その日、OpenAIはちょっとしたデモを公開していました。8か月前のモデルであるGPT-3.5に、チャットインターフェースをかぶせただけのものです。それまで彼らのモデルはAPI経由でしか使えず、開発者向けに限られていました。これは一般の人がGPTモデルで遊べるようにした、小さなお試し版にすぎませんでした。新しいものではありませんでした。
古いモデルに、ただWebインターフェースをつけただけです。
彼らはそれをChatGPTと名づけました。そして内部の期待値は非常に低く、エンジニアたちが想定した最大シナリオですら10万人のユーザーでした。Sam Altmanは、公開することを取締役会にすら伝えていませんでした。
ChatGPTが出たとき、2022年11月ですが、取締役会には事前に通知がありませんでした。私たちはTwitterでChatGPTのことを知りました。
その後、日本のTwitterが目を覚まします。そして、ChatGPTが日本のビジネス文化で非常に重要な、形式ばった丁寧なお礼メールを書けることがわかりました。しかも、それがとても上手だったのです。
それで口コミが広がりました。日本だけではなく、世界中でです。
数時間のうちにサーバーは過負荷になりました。2日で100万人。2か月で1億人。偶然にも、史上最速で成長するテック製品になったのです。
パーティー会場でGPUが焼け落ちそうになるのを見ていたその研究者は、その瞬間、すべてが、おそらく永遠に変わったことを理解していました。
OpenAIは一夜にして、研究所からシリコンバレー最大のスタートアップになったのです。
ChatGPTは、ピーク時のUberよりも速い速度で成長していました。だから、もう後戻りはできません。投資家がそれを許しません。チューブから絞り出した歯磨き粉は、もう戻せないのです。
内部ではGoogleがコードレッドを宣言し、何らかの対抗策を急ぎます。MetaはオープンソースのチャットボットLlamaを急いで出しました。そしてGoogleが自社のチャットボットBardを出したとき、それは大失敗でした。
私たちは、私たちは携帯電話を失いました。見つかりません。では次に進みましょう。携帯が見つかりません。
一方ウォール街は、AI対応が遅いとしてAppleを罰していました。今や何兆ドルもの時価総額が、Sam Altmanのツイートや、企業がOpenAIやSamとどういう関係にあるかという認識によって動くようになっていました。
Samは突然、あらゆる場所に現れます。雑誌の表紙、議会公聴会、大統領との会食、何十億ドル規模の資金調達会議。資源は研究からChatGPTの維持に振り向けられていきました。Googleに対する優位を守るつもりで、Samはそれを手放す気がありませんでした。
安全性は、優先順位の中でどんどん下がっていきました。
OpenAIの文化変質と、Samへの不信
急成長によって、彼らは大規模採用を余儀なくされました。そして採用される人材のタイプも変わっていきます。新しく入ってきた人たちは、AIアラインメントについて10年考えてきた人たちではありませんでした。PDoomの見積もりを持ってもいませんでした。LessWrongも読んでいませんでした。彼らが持っていたのはストックオプションであり、それが権利確定するのを見届けたかったのです。
採用のたびに、ミッションは薄まっていきました。
もともとのチームを引きつけた文化、最初に給与を下げてでもここで働こうと思わせた理由は、いまや蒸発しつつありました。
Ilyaは、Samの振る舞いもかなり劇的に変わってきたことに気づき始めます。もはや彼の口約束を信じることはできませんでした。彼は相手ごとに都合のいいことを言い、結果として社内に派閥を作り出していました。
彼はある取締役に、GPT-4 Turboの公開について安全性の承認を得たと伝えました。GPT-4を小型化したバージョンです。しかし実際には承認など得ていませんでした。完全に嘘をついていたのです。
また彼は、OpenAI Startup Fundというベンチャーキャピタルファンドを立ち上げ、OpenAIのパートナー企業に投資していましたが、それを完全に自分個人の名義で行い、OpenAIとの金銭的関係を開示していませんでした。
さらにIlyaは、Samにガスライティングされたように感じます。SamはIlyaに、会社の研究方向を君が主導すると言いました。しかし同時に、別の同僚にもまったく同じことを言っていたのです。
その結果、二つのチームが同じプロジェクトを並行して進めることになり、何か月分もの時間と計算資源が無駄になりました。
パターンは明らかでした。SamはOpenAIを、もともと彼らが築いたミッション駆動型の非営利組織ではなく、Y Combinator流の、まず動いて壊してから考えるような従来型スタートアップとして扱い始めていたのです。
Superalignmentと、約束されなかった計算資源
IlyaはSamへの信頼を失う一方で、AGIは差し迫っているという確信を深めていきました。2023年の夏には、AI開発そのものに関する研究の大半を棚上げし、AI安全性にフルタイムで集中するほどでした。
考え方は単純です。AGIが来る前にアラインメントを解けなければ、それはおそらく人類にとって非常に悪いことになる。
そこで彼はSuperalignmentを発表します。人工超知能を制御可能にするための大規模プロジェクトで、期限は4年です。SamはこのプロジェクトにOpenAIの計算資源の20%を割り当てると約束しました。公に見てもかなり大きな約束です。
世界中でChatGPTが席巻する中、そのブログ記事にはこう書かれていました。
私たちは、自分たちよりはるかに賢いAIシステムを導き、制御するために、科学的・技術的ブレークスルーを必要としています。この問題を4年以内に解くために、Ilya SutskeverとJan Leikeが共同で率いる新しいチームを立ち上げ、これまで確保した計算資源の20%をこの取り組みに充てます。
しかし、その計算資源は来ませんでした。少なくとも約束された量では来なかったのです。
月日が過ぎても、ChatGPTが優先され続けました。企業向け契約、Googleに対する優位の維持。Samにとってはそちらのほうがはるかに重要でした。安全性は次の四半期へ、また次の四半期へと先送りされていきます。
Helen Tonerの論文と、決定的な嘘
2023年10月、OpenAIの取締役Helen Tonerが、AI安全性に関する論文を発表します。かなり地味な学術的内容で、ニッチな雑誌に埋もれていました。
しかしその論文のたった一行が、この後に起きるすべての引き金になります。
そこにはこう書かれていました。Claudeの公開を遅らせたAnthropicは、ChatGPTの公開が促したように見える、あの種の性急な手抜きを避ける意思を示していた。
これはOpenAIへのかなり控えめな皮肉でしたが、安全性研究者であり、OpenAIを取締役として監督すべき立場の人間としては、そこまで異常なことではありませんでした。
ところがSamは不快に感じました。彼はTonerに電話をし、話し合って、その問題は解決したように見えました。
少なくとも、そう見えただけでした。
数週間後、SamはIlyaに対し、取締役のTasha McCauleyが、Tonerの論文は解任に値する行為だと考えている、Tonerはこの件で取締役を辞めさせるべきだと言っていると伝えます。
IlyaとTashaはほとんど話すことがありませんでした。しかし偶然にも、その週、IlyaはSamのリーダーシップについての懸念を取締役会に伝えていました。そしてIlyaがSamの発言をTashaに伝えると、彼女は非常に困惑しました。そんなことは一言も言っていないと言うのです。
つまりSamは嘘をついていました。取締役会の構成を操作し、安全性重視のメンバーを自分により友好的な人物へ置き換えようとしていたのです。そして、その嘘が発覚しました。
そこでIlyaは、これまでのすべてを数え上げ始めます。
Superalignmentの計算資源の約束を破ったこと。20%を約束して、守らなかったこと。いくつかのモデルの公開前に安全性の承認を得たと嘘をついたこと。会社に開示せず、OpenAIの名前を使った個人のVCファンドを立ち上げたこと。Ilyaには研究を任せると言い、別の同僚にも同じことを言って、互いを競合させたこと。継続的に安全性から資源を奪い、ChatGPTのスケールへ回したこと。そして今度は、取締役会の構成を操作するために嘘をついたこと。
普通のタイヤ会社ですら、このうちのどれか一つで解雇理由になります。まして、歴史上最も強力になり得る技術を作っている会社であれば、何をすべきかはほとんど明らかでした。
だからIlyaはスマートフォンを手に取り、電話をかけ始めます。
その時が来たのです。
2023年11月17日、Sam Altman解任
2023年11月17日。Samがビデオ通話に入ってきます。そこにはHelen Toner、Adam D’Angelo、Tasha McCauley、そしてIlyaが待っていました。
待ち伏せでした。
取締役会は、SamをCEOから外すことを決めていました。その理由として公表されたのは、取締役会に対して一貫して率直でなかったというものでした。企業用語で言えば、それは嘘つきだという意味です。
ビデオ通話が終わるとすぐに、Samは電話をかけ始めます。数時間もしないうちに、シリコンバレーの大物たちが一斉にSam支持で動き始めました。
Brian Chesky、Reid Hoffman、Paul Graham、Eric Schmidt、さらにはElon Muskまでもが、先進AIの危険性と力を考えれば、なぜ取締役会がそこまで劇的な行動を必要だと考えたのかを公衆に説明すべきだと発言します。
そしてOpenAI内部では、全社会議が悲惨なものになりました。社員の一人がIlyaに尋ねます。Samが解任された理由は、私たちは今後知ることになるのでしょうか。
Ilyaの答えは、ただ一言でした。
いいえ。
取締役会は証拠書類を持っていましたが、それを共有しようとしなかったのです。
そのため、即座に反乱が起きます。会社ではGreg Brockmanが辞任し、研究責任者も辞め、上層部は次々と退職をほのめかしました。
さらに社員たちは、自分たちの株式売却の話が危うくなっていることを知ります。Thrive Capitalが、900億ドル評価で彼らの株式を買い取ろうとしていました。人生を変えるほどの金が、取締役会が説明なしにSamを解任したせいで危険にさらされていたのです。
そこへMicrosoftが、SamとGregを雇って新しいAIラボを作ると発表し、OpenAIの全社員に対し、参加しても持分は維持できるというオファーを出します。
この時点で、Mira Muratiですら立場を変えました。Sam解任の証拠を提供していたにもかかわらず、今度は後退して、あれは建設的な批判にすぎず、自分は解任を実際には支持していなかったと主張し始めたのです。
最後の決定打は、OpenAI社員の90%以上が、SamとGregを復帰させろ、さもなくば私たちは全員Microsoftへ行くという公開書簡に署名したことでした。
最終的には、Ilyaでさえその書簡に署名します。
彼は1か月かけて準備し、完璧なケースを築き上げました。それなのに、わずか5日後にはSamに戻ってきてほしいと懇願する手紙に署名していたのです。
解任から5日で、SamとBrockmanは復帰しました。しかも以前よりはるかに強い立場でです。
Samの解任を試みた取締役たちは去りました。TonerとMcCauleyは外され、D’Angeloだけが残りました。IlyaはSamに権力が集中しすぎるのを止めようとしたのに、結果としてSamに完全な支配権を与えてしまったのです。
OpenAIの外へ、そしてSSIへ
Sam、Greg、MiraはIlyaに連絡を取り、OpenAIへ戻ってくるよう提案しました。Ilya自身もそれを検討していました。OpenAIは、まだ彼の人生そのものだったからです。
ところが最後の最後に、Greg Brockmanが電話をかけてきて、その提案を取り下げます。Ilyaが二度とOpenAIのオフィスに足を踏み入れることはありませんでした。
取締役会クーデターの後、Ilyaは姿を消します。
彼は秘密の核施設で監禁されているんですか。
いいえ。
普通の秘密施設ではどうですか。
違います。
核ではないけれど秘密ではない施設ならどうですか。
それでもありません。
何か月も沈黙した後、2024年5月、Ilyaはついに姿を現し、新しいAIラボ、Safe Superintelligenceの立ち上げを発表します。
プレスリリースには、目標は一つ、製品も一つ、安全な人工超知能であると書かれていました。そして、私たちの単一の集中は、経営上の雑務や製品サイクルによる気の散りを排し、私たちのビジネスモデルは、安全性、セキュリティ、進歩のすべてを短期的な商業圧力から切り離すものだとも書かれていました。
現在、SSIの評価額は320億ドルです。製品は一つも出しておらず、研究成果も発表していません。
さらにちょうど1年後、SSIのCEOだったDaniel Grossは、MetaのAIラボへ移るために巨額の買収提案を受け入れました。IlyaはCEOに就任し、Metaによる会社全体の買収提案を拒否しました。
Hintonの後悔
その20年ほど前、17歳のIlyaが夏の週末にGeoffrey Hintonのドアを叩きました。
あのノックが、すべてを変えたのです。
何年も後に、自分のライフワークについて尋ねられたとき、Hintonはこう答えました。
悲しい気持ちになります。40年前にAIを開発していたことに、特別罪悪感があるわけではありません。当時は、こんなことがこんなに速く起こるとはまったく思っていなかったからです。こうした問題を心配する時間は十分にあると思っていました。
自分が、これは私たち全員を滅ぼすかもしれないとわかっていながら、それでもやろうと思ってやったわけではありません。
ええ。
でも、それが単に良いものになるだけではなさそうだというのは、少し悲しいことです。


コメント