ハリウッドは今日のAIを予測していたのか?

AGIに仕事を奪われたい
この記事は約12分で読めます。

この動画は、ハリウッドのSF作品が描いたAI予測と現実のAI発展の歴史を振り返り、指数関数的成長の理解の困難さを論じている。1950年代のチューリングテストから始まり、ルールベース時代、機械学習時代、そして現在の深層学習時代まで、AI発展の重要な転換点を時系列で詳述している。特に2007年のNvidia CUDAリリースを真の加速開始点として位置づけ、その後のGPT、AlphaGo、ChatGPTなどの急速な進歩を説明している。最終的に、AIがAI自体の発展を助ける現在の状況において、人々が常に「AIの定義」を後退させている現象を指摘し、既に人間の予想を大きく超えた段階に到達していることを示唆している。
6,489 文字

The complete history of Artificial Intelligence: Alan Turing to ChatGPT
The world of AI is growing at such an insane pace, so I wanted to make a video that takes a step back and looks at the e...

サイエンスフィクションの歴史を通じて、作家、著者、監督たちは未来がどのようになるかについて数多くの予測を生み出してきました。『宇宙家族ジェットソン』、『バック・トゥ・ザ・フューチャー』、『ターミネーター』、『2001年宇宙の旅』、『ウォー・ゲーム』、『ブレードランナー』、『her/世界でひとつの彼女』。これらの予測は例外なく、現実からますます遠のいていくように感じられていました。

そして、ある時点で、私たちは大きなブレイクスルーを目にするようになりました。特にAIの分野においてです。その瞬間がいつであったにせよ、それは完全に状況を一変させました。今では、予測が遠のいていくのではなく、予測がどんどん早く実現されるのを目にしています。かつて2年から3年先のことだったものが、今では2ヶ月から3ヶ月で実現されています。

私たちはパンチカードからここまで進歩しました。パーセプトロンからこの動画生成技術まで進歩しました。昔の電話交換手からAIアバターが私たちの代わりにインタビューを行うまでになりました。しかし、指数関数的成長が始まり、ポップカルチャーや人間の認識さえも追いつけないほどのスピードで物事が起こり始めた転換点はいったいどこだったのでしょうか。

実のところ、人間がこのAI関連の動向についていき、どこに向かうのかを予測することは事実上不可能です。なぜなら、私たちは指数関数的成長が実際にどのように機能するかを十分に理解していないからです。

これを本当に視覚化するためには、最初に戻って、AI史におけるすべての重要な瞬間と大きな進歩を見る必要があります。まず、1950年代から1970年代のルールベース時代と呼ぶものから始めましょう。この時代をルールベース時代と呼ぶ理由は、当時のAIは基本的に「もしこうなら、そうする」という一連の文だったからです。

1950年から始めると、これはアラン・チューリングがチューリングテストを提案した年です。元々は模倣ゲームと呼ばれていましたが、これは誰かが初めて、AIがいつの日か人間と区別するためのテストが必要になるほど賢くなるかもしれないという考えを実際に提案した最初の機会でした。

1956年の夏に進むと、ダートマス夏季研究プロジェクトがありました。これは大勢の研究者たちが集まって、スマートな人工知能にたどり着く方法を共同で見つけ出そうとした時でした。実際、この研究プロジェクトでジョン・マッカーシーが1956年に初めて人工知能という用語を作り出したのです。

そして1957年、フランク・ローゼンブラットがパーセプトロンを開発しました。これは重み付けされた入力を使って望ましい出力を得るという考え方が始まった時でした。こう考えてみてください。機械から望ましい出力を得ようとしていて、その望ましい出力を得るのに役立つデータをその機械に大量に与えるとしましょう。しかし、その機械に与えたデータがすべて、その機械内の他のデータと同じくらい重要とは限りません。

そこで何をするかというと、入力する様々なデータに重みを与えるのです。望ましい出力を得るために、一部のデータは他のデータよりも高く重み付けされます。彼らはまた、重みを表現するために暗くした箱が描かれた可愛らしい紙を使うことも可能になりました。

そして1966年、世界初のAIチャットボット「Eliza」が登場しました。これはMITのジョセフ・ワイゼンボムによって作られ、AIの心理学者のような設計でした。Elizaはあなたがどう感じているかを尋ね、その後あなたの回答に基づいて別の質問で続けました。

Elizaは「今日はどんな気分ですか?」と尋ねるかもしれません。あなたは「まあまあな気分です」と答えるかもしれません。Elizaは「なぜまあまあな気分なのですか?」と言うでしょう。そしてあなたは「昨夜あまりよく眠れませんでした」と答えるかもしれません。するとElizaは「なぜ昨夜よく眠れなかったのですか?寝るのが遅すぎたからかもしれません。なぜ寝るのが遅すぎたのですか?」などと続けていきます。

これは基本的に、あなたが答えたことを取り上げて、それを「なぜ」の質問に変えることで、あなたがなぜそのように感じているのかをどんどん深く掘り下げようとする心理学者を模倣していました。

しかし、その直後、AI界は1970年代から1980年代半ばまで続く最初のAI冬に見舞われました。パーセプトロンの概念を批判する報告書が出され、人々がAIの方向性に対する信頼を失いました。その結果、資金が枯渇し、コンピュータはまだ人々が本当にやりたいことをするには十分に強力ではありませんでした。

しかし1980年代半ばになると、機械学習時代とともに少し復活を見せました。この時代はデータ駆動型AIによって定義されました。AIは単なる「もしこうなら、そうする」といったルールベースの文ではなく、データ内のパターンから学習し始めました。

そして1986年、ジェフリー・ヒントン、デイブ・ラムルハート、ロナルド・ウィリアムズの三人の研究者チームがバックプロパゲーション(誤差逆伝播)アルゴリズムを発表しました。これはニューラルネットワークの非常に初期段階における深層学習の方法でした。

パーセプトロンが重み付けされた入力を取って出力に変換するのと同じように、このバックプロパゲーションアルゴリズムも基本的に同じことを行いました。それは当時の最新コンピュータを使用したより デジタル化されたバージョンでした。しかし、バックプロパゲーションの大きな違いは、自分自身の出力を取って、それをシステムに戻して、自分自身の間違いから学習できることでした。

このプロセスを繰り返し、出力を再び戻して、最終的に望ましい結果を得るまで、常に自分自身の重みを調整し続けました。これはニューラルネットワークの訓練にとって巨大な進歩でした。

そして1989年、ヤン・ルカンがベル研究所で働いている間にLeNetを開発しました。LeNetは最初の、そしておそらく最も影響力のある畳み込みニューラルネットワークの一つでした。これは実際に見ているものを認識し理解できるニューラルネットワークです。そして今日使用されているほとんどすべての最新画像認識アルゴリズムは、1989年にヤン・ルカンが作り出したものと非常に似た方法を今でも使用しています。

しかしその後、物事は再び静かになり、第二のAI冬に見舞われました。企業は破産し、研究資金は枯渇し、AIへの懐疑論が高まりました。

しかし1997年、IBMのDeep BlueがチェスでGarry Kasparovを破った時、AIは再び中心舞台に立ちました。Kasparovは当時の世界チェス王者でした。そして今日でも、彼は史上最高のチェスプレイヤーの一人と考えられています。技術的にはDeep Blueはルールベースモデルを使ってKasparovを破りましたが、それは世界に向けてAIを再び中心舞台に押し上げました。

そして1999年、NvidiaがGeForce 256をリリースしました。これは最初の現代的なGPUと広く考えられています。CPUが本当に複雑な処理を一度に一つの計算のような形で行うよう設計されていたのに対し、GPUは多くのやや単純なタスクを同時に実行することができました。これは特にAIにとって大きな瞬間ではありませんでしたが、ネタバレすると、GPUは将来的にかなり大きな存在になります

時を進めて2006年、ジェフリー・ヒントンが最初の深層信念ネットワーク(DBN)を作成しました。これは決定的な瞬間でした。なぜなら、AIは人間による大量のラベリングを必要とせずに、大量のデータに基づいて学習できるようになったからです。DBN以前は、AIは人間が実際に機械に供給できる速度によって制限されていました。しかし今やAIは自分自身で学習することができるようになりました

そして2007年、本当にゲームチェンジングなことが起こりました。NvidiaがCUDA(Compute Unified Device Architecture:統合デバイスアーキテクチャ)をリリースしたのです。これは実際に開発者がGPUを汎用開発に使用し始めることを可能にしました。これ以前は、GPUは主にゲームの見た目をよくするためだけに使用されていました。今では何にでも使用できるようになりました。

そしてこれがその瞬間でした。物事が本当に加速し始めた瞬間です。その後数年間、エンジニアや研究者、科学者たちは、これらのGPUとこの新しいCUDAアーキテクチャを組み合わせて何ができるかを本当に理解し始めました。そしてそれが私たちを第三の時代、現在私たちがいる深層学習時代へと導きました。

深層学習時代は複数のニューラルネットワークを使用することによって定義されます。深層ニューラルネットワークを定義するために、ニューラルネットワークを簡単に説明しましょう。通常のニューラルネットワークは、入力があり、処理が行われる隠れ層があり、処理が行われた後に出力を得るというものです。通常のニューラルネットワークでは、入力と出力の間に隠れ層が一つだけあります。

深層ニューラルネットワークでは、ニューラルネットワーク内の多くの隠れ層を通すようなものです。一つの層を通すだけでなく、入力を与えると、最終的に出力として出てくる前に、あらゆる種類の異なるニューラルネットワークを通過していきます。これらははるかに複雑ですが、AIがはるかに賢くなる能力も与えました。

そして科学者たちが深層ニューラルネットワークをGPUとこのCUDAアーキテクチャで使用する方法を理解すると、物事は爆発しました

2011年、IBMのWatsonがジェパディで勝利し、再びAIを世界の意識の最前線に押し上げました。また、AppleがSiriを発売し、最初のAI音声アシスタントを手に入れた年でもありました。

そして2012年、Google Brainが教師なし特徴学習を実証しました。彼らはラベルのないYouTube動画を与えられ、実際にそれらの動画に何が含まれているかを理解することができました。

2013年、DeepMindのDQNが人間を超えるレベルでAtariゲームをプレイすることを学習しました。そして2014年、GAN(敵対的生成ネットワーク)を手に入れました。これはAIがリアルな画像やディープフェイクを生成することを可能にした最初のシステムでした。

2015年、GoogleはGPUの代わりにTPU(テンソル処理ユニット)の展開を開始しました。これらはGPUのようなものでしたが、特に機械学習用に設計されていました。

2016年、DeepMindのAlphaGoが囲碁の世界チャンピオンであるイ・セドルを破りました。これは人々がAIには決して不可能だと思っていたことでした。

2017年、「Attention is All You Need」という論文が発表されました。これは世界にTransformerアーキテクチャを紹介し、現在でもほぼすべての最新AIモデルで使用されている同じアーキテクチャです。

2018年、OpenAIがGPT-1をリリースしました。GPTのTはTransformerを表しており、これは先ほど言及したものです。GPT-1はまだあまり賢くありませんでしたが、多くの可能性を示しました。

そして2019年、OpenAIがGPT-2をリリースしました。これは大幅にスケールアップされ、これらのAIモデルがどれほど優秀になるかについての一般的な懸念が湧き上がり始めた時でした。2019年には、StarCraft 2のようなゲームをマスターする方法を理解したDeepMindのAlphaStarも登場しました。

2020年、OpenAIからGPT-3を手に入れました。これは大幅にスケールアップされたモデルで、人々を本当に感動させ始めた最初の自然言語モデルでした。また、2020年にはDeepMindからAlphaFold 2も手に入れました。このモデルはタンパク質折り畳み問題を解決することができ、薬物発見を加速させ、研究者たちが今やAIを使って新しい薬を製剤し始めることにつながりました。

2021年、OpenAIは最初のTransformerベースの画像生成モデルであるDALL-E 1をリリースしました。2022年には、MidjourneyやStable Diffusionのような、さらに多くの画像生成モデルを手に入れました。

そして2022年11月、もう一つの巨大な転換点が起こりました。OpenAIがChatGPTを世界にリリースしたのです。これは史上最も急速に成長した製品の一つとなり、一般大衆の心にAIを定着させました

そして2023年、彼らはさらにそれを向上させ、GPT-4を発売しました。また2023年には、MetaがオープンソースモデルのLlamaをリリースし、将来のオープンソース大規模言語モデルの水門を開きました。2023年はGoogleがGeminiを発売した年でもありました。

2024年、OpenAIは世界にSoraを紹介し、AIから実際にリアルな動画を得ることができることを私たちに示しました。また、2024年にはGPT-4oとo1も見ました。

2025年、NvidiaはAIモデルの訓練能力をさらに加速させるBlackwell GPUをリリースしました。その後、GPT-4.5を手に入れ、なぜかGPT o1、そしてLlama 4が続きました。そして今日私がこれを録画している時点で、ChatGPTはインターネット全体で最も訪問者数の多い10のウェブサイトの一つになっています。

私たちが今提示した方法ですべてを見ると、指数関数的成長を理解するのが少し簡単になります。しかし、その瞬間を生きているときは、これらの巨大な出来事の多くはただ来ては去っていきます。

では、この傾向は続くのでしょうか、それとも私たちは別のAI冬に見舞われるのでしょうか?以前のAI冬を見ると、それらはすべて何らかの資金削減を伴っていました。そして今日のAIに置かれている重要性、広範囲な採用、そしてすべての主要企業が本当にAIに力を入れていることを考えると、それが起こる可能性は低いと私は言うでしょう。

一方で、すべてが非常に迅速に動いているため、次のAI冬が来て去っても、それが起こったことに気づく前に終わってしまう可能性もあります。AIは今や非常に高度になっているため、AIがAIの進歩を助けています。人間はもはやボトルネックではありません。つまり、物事は指数関数的に成長し続ける可能性が高いということです。

私はこの動画を、人々が指数関数的成長を理解することができないという点を言及して始めました。そしてそのポイントを要約するものは、私たちが常にゴールポストを動かしていることほど明確なものはないでしょう。

ジョン・マッカーシーによって作られた有名な言葉があります。彼は「それが機能するとすぐに、誰ももうそれをAIとは呼ばなくなる」と言いました。例えば、Alexa、Siri、Google Homeは、元々はAIと考えられていましたが、今では誰もそれらをAIとは考えていません

アラン・チューリングは元々、チューリングテストを適用する際に何を注意すべきかという概念を持っていました。今日のAIモデルは、アラン・チューリングが当時心に描いていたものを遥かに超えている可能性があると、私たちは自信を持って言えると思います。

そして私にとって非常に驚くべきことは、私たちがこの地点に到達したにもかかわらず、それにほとんど気づいていなかったということです

コメント

タイトルとURLをコピーしました