
9,186 文字

OpenAIのCEOサム・アルトマンが、Yコンビネーターの社長兼CEOのゲイリー・タンと対談しました。とても興味深い対談で、皆さんにもぜひ見ていただきたいのですが、この動画では特に印象的だった部分をいくつかご紹介したいと思います。
まず、ゲイリー・タンの interviewer としての手腕を評価したいと思います。これまでサム・アルトマンにインタビューした中で、おそらく最高の interviewer だったと言えます。なぜなら、彼は話題について深い理解があり、自分の主張を押し付けることなく、サムの意見を引き出そうとしていたからです。
また、二人ともテクノロジー企業やスタートアップの scaling について豊富な知識を持っているため、共通の理解基盤がありました。この対談の大きなテーマの一つは、機械が考え始めるとどうなるのか、というものでした。
早い段階で、サム・アルトマンによる「超知能の実現まであと数千日かもしれない」という予測について触れられます。数千日というのは驚くべき数字です。確かに大胆な主張で、多くの人々がまだ懐疑的ですが、OpenAIの歩みを振り返ってみると、非常に興味深い展開がありました。
サム・アルトマンと、創設メンバーの一人であるイーロン・マスクは、業界の一部からは冗談のように見られていた小さなスタートアップを、現在のAI分野における原動力へと変貌させました。
インタビュー全体を通じて一貫して見られるのは、ほぼ全員が疑念を抱いていた時期でさえ、OpenAIが自分たちのアプローチに揺るぎない信念と確信を持ち続けていたということです。
これは、しばしば「AIの教父」と呼ばれるジェフリー・ヒントンを思い起こさせます。彼もまた、もっと早い時期に同様の揺るぎない信念と確信を持っていました。彼の場合、数十年にわたり、ニューラルネットワークがAIの鍵の一つになると信じ続けました。当時、AI研究に携わっていた業界の研究者のほとんどが、それは行き止まりだと考えていた中でも、彼は自分の信念を貫き通しました。そして、そのことが、彼が「AIの教父」と呼ばれる理由の一つとなっています。
OpenAIが始まった当初、サム・アルトマンによると、業界の他のAI専門家たちは彼らのことを「無責任な若者たち」と呼び、まるで自分たちが理解していないものを持て遊んでいるかのように見ていました。これは、彼らが最初からAGI(人工汎用知能)の構築を目指すと明言していたからです。AGIとは、平均的な人間と同等の知能と能力を持つ機械のことです。
AGIの明確な定義はまだ確立されていませんが、OpenAIはそれを「人間が行える経済的に実行可能なタスクのほとんどをAIが実行できる段階」と定義しています。
彼らがAGIの構築について語り始めた頃のAI業界は、現在とは全く異なっていました。ImageNetが登場したばかりで、画像認識の面では印象的でしたが、当時のAIの主流は物事を分類することでした。例えば、猫と犬を見分けることができるかといったレベルでした。
OpenAIはそれをはるかに超えた先を見据えていました。彼らはディープラーニングと計算能力の拡大に大きな賭けをしました。それが画期的な何かへの道筋だと考えたのです。多くの人々は、一つのアプローチに多額の資金とリソースを投入することは無謀だと考えました。当時の常識は、リスクを分散させ、複数の選択肢を持つことでした。しかし、OpenAIは全てを賭けました。
この集中的なアプローチこそが、現在の彼らの地位を築いた要因だと言えるでしょう。典型的なスタートアップのストーリーです。大きなリスクを取り、大きな賭けに出る。失敗すれば壊滅的ですが、成功すれば大きな勝利を手にすることができます。
大きな勝利と言えば、このインタビューでは、OpenAIにとって計算能力へのアクセスがいかに重要だったかが強調されています。特に当時のスタートアップにとって、それは夢のようなことでした。これも、OpenAIに対する批判の一つとなりました。人々は、長期的な見通しが不確かなプロジェクトにそれほどの資源を投入することを無駄だと考えたのです。
しかし、アルトマンは振り返って、ほとんどの人々がまだその極端な確信の価値を過小評価していると語っています。これはAIに限らず、あらゆることに当てはまる強力な教訓です。全てを同時にやろうとせず、エネルギーを集中させることが、大きな違いを生み出すのです。
AIの外側でも、私たちはアイデアに本気で取り組むことをためらうことがよくありますね。たとえ心の奥底でそれを信じていても、安全な道を選ぶのが人間の性です。しかし、本当に革新的なことを成し遂げようとする時には、そのような揺るぎない信念が必要になることがあります。
興味深いことに、これとは少し話が異なりますが、テクノロジー革命で億万長者となった人々の一人で、PayPalマフィアの一員であるピーター・ティールは、最高のテック企業の創設者の多くが自閉症スペクトラム(アスペルガー症候群など)の傾向があることを指摘しています。彼らは他人が何を言おうと自分の信念を貫く傾向があります。
彼らの強みの一つは、打撃を受けても立ち上がり続け、他の人々が諦めるべきだと言うような変わった考えを追求し続ける能力です。だからこそ、勝つときは大きく勝つのです。
ここで重要なのは、OpenAIには確信があり、計算能力もありましたが、興味深いことに、彼らは当初、ChatGPTのような大規模言語モデルをAGIへの鍵とは考えていなかったということです。彼らはロボット工学やゲームAIなど、様々な分野に注力していました。
OpenAIの主要な研究者の一人であるアレック・ラドフォードについての興味深いエピソードがあります。彼は素晴らしいAI研究者として知られていますが、私自身、彼のインタビューや写真をあまり見たことがありません。彼はAmazonのレビューを使って実験を行っていた際、偶然「教師なし感情ニューロン」を発見しました。
教師なし感情ニューロンは専門的に聞こえますが、これは何でしょうか?基本的に、Amazonのレビューを分類していたニューラルネットワークのニューロンが、レビューの感情(製品に対するポジティブな評価かネガティブな評価か)を理解できるようになったのです。しかも、明示的な指示なしに、自力でそれを学習したのです。
これは小さな詳細で、ほとんど偶然の発見でしたが、この小さな発見がGPTシリーズ全体のきっかけとなりました。GPTシリーズの基礎的な発見だったのです。ご存知の通り、GPTはAIの世界を完全に変えました。
ちなみに、NVIDIAのジム・ファン博士も別の投稿でこのことについて触れています。これらのモデルは特定のことを明示的に教えられるのではなく、暗黙的に学習し、自力で理解するという考え方です。
私はこれを、子供の例で考えるのが好きです。子供に「これをしてはいけない」「あれをしてはいけない」と明示的に教えることはできますが、ご存知の通り、子供たちは暗黙的にも学習します。あなたや他の人々の行動を観察し、周りの世界について自分なりの判断を下します。彼らは暗黙的に学習しているのです。
これがアレック・ラドフォードが教師なし感情ニューロンで発見したことです。このニューロンは暗黙的に、良いレビューと悪いレビュー、ポジティブとネガティブを区別することを学習したのです。
アマゾンのレビューで感情を理解するこの小さなニューロンが、GPTのような巨大なアーキテクチャにつながったというのは、ある意味で驚くべきことです。次のブレークスルーがどこから来るかは分からないものです。
その小さな火花は、かなり破壊的なものへとつながりました。GPT-3がリリースされた時、誰もがそれを印象的だと思いましたが、GPT-4のように爆発的に普及するような明確なビジネスユースケースはありませんでした。少なくとも企業側では、そうでした。
GPT-3は「できることを見て」という段階でしたが、GPT-4は「それを使って何ができるか、何が作れるか」という段階でした。これは大きな違いです。
また、彼らはジェイク・ヘラーについても言及しています。彼はGPT-4を使って法務テック企業を設立し、後に6億5000万ドルで買収されました。これはクールなデモンストレーションだけでなく、実世界に影響を与えるものでした。
ここから物事は本当に急速に動き始めました。ここで私たちは、OpenAIが説明するAIのレベルでいうところの、レベル2のシステム(推論や問題解決ができるシステム)からレベル3のシステムへの移行を目の当たりにしています。レベル3のシステムは、複雑なタスクを処理できるエージェントとして機能します。GPT-4とそれを使って構築されているものは、まさにこの飛躍を示しています。
インタビューでアルトマンは、AGIの5つのレベルについて説明しています。これはOpenAIが提唱している、AI開発の現状を理解するためのフレームワークです。
レベル1は基本的なAIで、これは何年も前から存在しています。レベル2から興味深くなります。推論し、問題を解決し、概念を理解できるAIです。
そして先ほど述べたレベル3、これはエージェントレベルです。おそらく最新リリースの01モデルによって示されていると思われます。タスクを考え抜いて行動し、長期的なタスクを完了するためのエージェント能力をより多く持っているように見えます。
レベル3のAIは、考えるだけでなく、独立して行動し、決定を下し、複雑なタスクを完了することができます。例えば、予定を調整するだけでなく、あなたに代わってより良い取引を交渉したり、個人の目標に基づいて投資を管理したりできる個人アシスタントを想像してみてください。これが私たちが話すエージェンシーの種類です。
次にレベル4があります。これをアルトマンは「イノベーター」と呼んでいます。基本的なタスクを実行するだけでなく、イノベーションを推進し、新しいアイデアを生み出し、科学的発見を行い、基本的に人間の創造性の境界を押し広げることができるAIです。
そしてレベル5が最大のものです。企業規模の知能、本質的には大規模で複雑な組織を運営できるレベルのAGIです。リソースを管理し、戦略的な決定を下すことができるAIについて話しているのです。
もちろん、これはまだ非常に推測的な領域にありますが、興味深いことに、アルトマンは多くの人々が予想するよりも早くレベル5に到達すると考えているようです。実際、これを裏付ける証拠が、意外なところから出てきています。
それは、Yコンビネーターが主催したOpenAIハッカソンです。このハッカソンで、あるスタートアップがGPT-4を使って翼型(エアフォイル)を設計しました。航空機の翼のような、実際に揚力を生み出して操縦できる機能的な翼型です。
ここでは、マーケティングコピーを書いたり法的文書を要約したりすることではなく、AIが複雑な技術部品を設計しているのです。通常なら何年もの専門的なエンジニアリングの専門知識が必要とされるようなものです。これは、私たちが思っているよりも、イノベーターレベル4のシステムに近づいているかもしれないことを示唆しています。
このような急速な進歩、コードを書くことから実際の物理的なオブジェクトを設計することへの飛躍が、アルトマンやゲイリー・タンのような人々を、より高度なAGIレベルに到達するタイムラインについて楽観的にさせているのでしょう。
このOpenAIハッカソンについて聞いて、イノベーターレベル4のシステムについて深く考えさせられました。GPT-4が実際に機能する翼型を設計できるというのは大きな飛躍です。次は何が来るのだろうかと考えずにはいられません。
例えば、Google DeepMindのデザイナータンパク質や、AIモデルがAIを動かすコンピューターチップの設計を始めているのを見ると、そのような進歩がますます見られるようになってきています。
彼らは、このイノベーターレベルのAIが大きな影響を与える可能性のある分野についても話し合いました。科学研究はその一つです。AIを使って大量のデータセットを分析し、人間の研究者が見逃すかもしれないパターンを特定し、潜在的な新しい仮説を提案することができます。
例えば、気候変動に関する膨大なデータを分析し、最も重要な要因を特定したり、私たちがまだ考えもしなかったような解決策を提案したりするAIを想像してみてください。これは特に、何十年も科学者たちを悩ませてきた複雑な問題にとって、画期的なことになるかもしれません。
しかも、これはデータの分析だけではありません。AIは実験の設計、シミュレーションの実行、さらには実験装置の制御にも役割を果たす可能性があります。まるで科学的プロセスにおけるパートナーのようです。AIが科学者のための単なるツールではなく、発見とイノベーションのペースを加速させる協力者となる未来が想像できます。
そして、これは新しい技術に適応し、それらと協力して働く方法を見つけることがいかに重要かを強調しています。未来は、このAIの波に適応し、新しいスキルを学び、自分の仕事やビジネス、生活にAIを前向きで生産的な方法で統合する方法を見つける人々のものになるようです。
このインタビューは、私たちが大きな社会的変革の寸前にいることを示唆しています。AIが、これまであまりにも大きすぎる、あまりにも複雑すぎると考えられてきた課題に取り組むのを助けてくれる時代に入ろうとしています。AIは、私たちがまだ想像もできないような方法で、人間の潜在能力の新しいレベルを引き出すことができるかもしれません。
もちろん、このような興奮や楽観主義と共に、AIの安全性や倫理の問題もあります。これらはAIからのリスクを軽減しようとするものです。ますます強力なAIシステムを開発するにつれて、それらが私たちの価値観と一致することを確認し、意図しない結果を防ぐための安全策を確実に整備する必要があります。
この分野で働いていた多くの人々がOpenAIを去っています。最近、AIの安全性に特に取り組んでいたOpenAIの研究者であるマイルズ・ブランデージのインタビューを見ました。彼は必ずしもOpenAIの行っていることが悪いとか安全でないとは言っていませんが、AIの開発にブレーキをかける方法を全体として真剣に考える必要があると言っています。
彼は「ブレーキのない車を運転しないでしょう。『加速して、何か悪いものが前に見えたら、どうやってこの車を止めるか考えよう』とは言わないはずです」と言います。つまり、危険な領域に入ったときに急減速できるように、今のうちにブレーキを設置する必要があるということです。彼によると、現在はそのような仕組みが整っていないとのことです。
もちろん、OpenAIをより批判的に見ている人々もいます。彼らは特にOpenAIを、AI安全性を最優先するよりも、市場のインセンティブに、つまり利益に動かされているとして非難しています。
Anthropicは、OpenAIの姉妹会社のような存在として見られており、最近まで安全性により重点を置いていました。しかし最近、アメリカ政府を含む他の国々と密接に協力しているAI企業であるPalantir(スパイ/軍事/セキュリティ企業)と提携しました。多くの人々がこれについてどう感じるべきか迷っています。
それはさておき、OpenAIハッカソンでは、翼型以外にも、「未来は私たちが考えているよりも近いかもしれない」と人々に考えさせるような興味深い「アハ体験」がいくつかありました。
先ほどの翼型について言えば、GPTシステムは反復的に改良を重ねることができました。基本的にゼロから始めて、非常に効率の良いものへと進化させ続けたのです。これは確かにイノベーターレベルのAIシステム、あるいはレベル4のプロトタイプ的なAIシステムと呼べるものかもしれません。
しかし、ハッカソンの別のチームは、OpenAIのモデル(GPT-4か01モデルか、この詳細について申し訳ありませんが確信が持てません)を使用して、新しい暗号化アルゴリズムを開発しました。サイバーセキュリティの分野です。
このアルゴリズムは、これまで見たことのないほど複雑で異なるものだったため、経験豊富な暗号学者でさえも解読できませんでした。OpenAIのモデルがこれを突然生み出したのです。
正直なところ、これは少し不安を感じさせます。AIが私たちの能力を超える暗号化を作り出せるとすれば、それは将来のサイバーセキュリティにとって何を意味するのでしょうか。
最初のクアンタム・アプリケーション・リーク(QAR)を思い出してください。噂の一つは、これが既知の暗号化を全て破ることができる可能性があるというものでした。振り返ってみると、それは可能性が低い偽の噂だったかもしれませんが、高度なAIが私たちの知らないショートカット、まだ到達していない数学を見つけることで、暗号化システム全体を破る可能性があるという考えはあります。
現在の暗号化の多くは、文字や数字、文字を追加するたびに、そのパスワードや暗号を推測する確率が指数関数的に高くなるという事実に依存しています。例えば、7文字のパスワードは総当たり攻撃でミリ秒単位で解読される可能性がありますが、8文字なら5時間かかります。これは大きな飛躍です。9文字なら5日です。
一文字追加するだけで、複雑さと所要時間が指数関数的に増加することに注目してください。10文字なら4ヶ月、11文字なら10年、さらにもう1文字追加して12文字なら2世紀かかります。
ご覧の通り、コンピューターがより良く、より速く、よりスマートになっても、一文字追加するだけで複雑さは大幅に増加します。しかし、「PとNP」という考え方があります。これは基本的に、この指数関数的な複雑さの増加を必要としない解決方法があるかもしれないということです。
簡単な例で考えてみましょう。ある数が奇数か偶数かを判断する場合を考えてみましょう。1桁の数字、例えば2から始めると、それは偶数だと分かります。では、兆の単位で始まる数字ではどうでしょう?2で終わっていれば、それは偶数です。
つまり、数字の桁数を増やしても、解読の難しさは変わりません。なぜなら、私たちは小さなショートカット、小さなトリックを見つけたからです。数全体を見る必要も、数全体について計算する必要もありません。最後の文字、最後の数字だけを見れば良いのです。偶数なら数は偶数、奇数なら数は奇数です。
これは非常に単純化した例ですが、「PとNP」の考え方は、コンピューターが私たちの暗号化やサイバーセキュリティを解くためのそのようなトリックを見つけ出すかもしれないということです。それが実現すれば、すべてが即座に可視化されてしまいます。金融システム全体、あなたの銀行口座、インターネットに接続されているすべての国家安全保障システムが影響を受けます。
世界はまだそれに対する準備ができていません。私たちは、桁を追加すればするほど解決が難しくなるという考えの上に、世界経済や生活様式の多くを構築してきました。
ハッカソンからのもう一つの素晴らしい例は、AIのポジティブな側面を強調しています。あるチームはこのGPTアーキテクチャを使用して、衛星画像を分析し、山火事の広がりを予測できるシステムを開発しました。カリフォルニアのような場所に住んでいる人なら、山火事がいかに壊滅的な問題になり得るかご存知でしょう。その動きを実際に予測できれば、命を救うことができます。
このシステムは不気味なほど正確でした。機械学習を使用してデータのパターンを識別し、人間の分析者が見落としがちな要素を考慮に入れました。風速、地形、植生を考慮に入れて、非常に正確な予測を行いました。
これはAIが私たちを助けるというだけでなく、特定の分野では実際に私たちよりも優れているということです。考えさせられますね。自然災害の予測、交通管理、さらには病気の発生予測など、この予測能力が有用な分野は他にもたくさんあるでしょう。これは問題解決や科学的発見の新しい時代の幕開けとなっています。
一方で、information.comの記事では、OpenAIの次世代モデルの開発が減速している可能性があると報じています。おそらく私たちは進歩のピークに達し、これからは指数関数的な飛躍ではなく、漸進的な改善を重ねていくことになるのではないかと示唆しています。
サム・アルトマンが物事を誇張しようとしていて、現実は異なるのではないかと示唆する人もいます。時が経てば分かるでしょう。
しかし、重要なのは、科学者や他の研究者、開発者たち(OpenAIにいる人もいれば、去った人もいます)が、所属に関係なく、サム・アルトマンの言葉により近い立場を取っているということです。OpenAIを去った人々は「AIの進歩は終わったから落ち着いていられる」とは言っていません。そのように言う人を一人も聞いたことがありません。
ほとんどの人が「これは急速に来ている、加速している、そして私たちはそれにどう対処するかをより深く考え始める必要がある」と言っています。もしこれが誇張だとすれば、これらのAI安全性研究者たちも誇張していることになります。彼らにはそうする動機がないように思えます。
再度申し上げますが、これがどこに向かうのか、私は100%確信が持てません。時が経てば分かるでしょう。しかし確かなのは、MicrosoftやGoogleなどを運営している人々が、計算ハードウェアだけでなく、より多くの資金と時間を投資しているということです。
例えばMicrosoftの場合、これらのモデルのトレーニングと実行のために、スリーマイル島の古い原子力発電所を再稼働させて、より多くの電力を開発しようとしています。一つの見方として、私たちはまだこれを本格的にスケールアップし始めていないのかもしれません。
ここまで見ていただき、ありがとうございます。コメントでご意見をお聞かせください。チャンネル登録とグッドボタンもよろしくお願いします。また次回お会いしましょう。


コメント