本動画は、1940年代から現在に至るまでの人工知能研究の75年にわたる歴史的変遷を詳細に追跡し、AGI(汎用人工知能)の概念が時代とともにどのように変化してきたかを解説する。初期の過度な期待から専門特化型AIの時代を経て、AlphaGoやChatGPTに代表される現代的なAIシステムに至るまでの技術的進化を振り返りつつ、AGIの定義をめぐる学術的・政治的な議論の複雑さを整理する。特に、人間レベルの知能を目指すべきかという根本的問いに対し、より実用的で明確な評価基準の必要性を提起している。

人工知能研究の始まりと過度な期待
皆さん、人工知能はますます確立されてきていて、その能力もどんどん大きくなっています。研究の成熟度も、これらの知能が持つ弱点を検出していくにつれて進歩しています。そして人々は、この知能が本当の知能なのか、人間レベルに達するという汎用人工知能が実現するのか、そしていつこの知能がそのレベルに到達するのかを知りたがっています。
私たちは何が起きているのか、この時代を通じて起きている人工知能のアイデアとは何なのかを、最初期から、始まりの時点から理解する必要があります。そして今に至るまでに起きたすべてのこと、政治的な問題も含めて、定義の混乱も含めて、人工知能に何を期待すべきで何を期待すべきでないかも含めて理解する必要があります。
では、この「AGI」というものがいつか登場するのか、それとも単なるおとぎ話なのかを理解していきましょう。お金を稼ぐため、マーケティングのための話なのか。では一緒に見ていきましょう。
いつもいいねを押してくれた皆さんに感謝しています。このAIチャンネルをスポンサーしてくれているチャンネルメンバー全員に特別な感謝を。メンバーの方々は、WhatsAppとの統合やPDF、スプレッドシート、ドキュメントの読み取りを教えるインテリジェントエージェントの限定動画にアクセスでき、また先行公開動画も視聴できることを覚えておいてください。
もしあなたの会社のWhatsAppで働くAIアシスタントを設置したい、または社内プロセスで使う何かツールを作りたいと思っているなら、Maximiza IAの人たちと話してみてください。概要欄にリンクがあります。彼らはプロジェクト開発の専門家で、もしかしたらあなたのための解決策を持っているかもしれません。
AGI探求の75年の旅
皆さん、今日のテーマはこれです。AGIへの旅、哲学から工学へ、そして再び哲学へと戻る75年間の定義の探求。この調査は本当に大変でした。Deep Researchでさえ見つけられないような、AI宇宙に散らばった情報を探さなければなりませんでした。
だからいいねを押してください。このAGIに関する視点はかなり複雑で深いものになりますが、何が起きているのか、このAGIの話が何なのかをずっとよく理解できると確信しています。
まず最初に知っておくべきことは、人工知能の始まり、1940年、1950年、本当の最初の頃、人々は熱狂していたということです。彼らは人間と同じような知能を作りたがっていて、期待のレベルは非常に高かった。誰もが当時のコンピューターがすぐに思考し、問題を解決すると期待していました。
チューリングの問いかけと初期の野心
ここにアラン・チューリングがいます。人工知能において最も重要な人物の一人です。彼が1950年にすでにしていた質問のタイプを見てください。「機械は考えることができるか」。期待がいかに高かったか、そして人間の認知をその全体性において複製するというアイデアがあったかがわかります。彼らは本当にデジタルの脳を、人間の脳と同じように作りたかったのです。そしてそれが学習し、すべてがうまくいくことを期待していました。
皆さん、人工知能の初期の概念と定義はかなり擬人化されていたことを理解する必要があります。すでに非常に高い期待レベルにありました。そして明らかに、この歴史の部分は私たちも知っていますが、これはうまくいきませんでした。そんなに高いレベルで研究を行うというアイデアは長続きしませんでした。
研究方向性の再考
1995年に、この分野の研究者による重要な考察のポイントがありました。「Artificial Intelligence: A Modern Approach」という本を読むと、彼らはいくつかの疑問を提起します。彼らはまさにこの痛点に指を置いているのです。人間のコピーである人工知能を追求する話をやめなければならないと言っています。
そして彼らは人工知能と研究分野の4つの可能性を示しています。もちろん他にもたくさんありますが、これだけでも当時すべての人が人間のクローンを作るという話に同意していたわけではないことがわかります。
ここに「行動」と「思考」があり、この対比を作っています。人工知能は必ずしも推論することなく行動できる、芝刈り機のように推論する必要なく芝を刈る機械のように、あるいは思考できる機械として。そしてこれら2つのレベルから、人間のように思考する、つまり人間を模倣しようとする、人間のように行動するのか、あるいは実際には人間とは何の関係もない合理性、論理、思考のレベルを持っているが、合理的な思考や合理的な行動であり得るのか。
これらの象限を見ると、人々が人間を模倣しようとしているとき、それは大体このあたりになります。「人間のように思考する」、つまり認知モデリングです。そして例えば、私たちの非常に優秀な神経科学教授であるミゲル・ニコレリスについて考えると、彼が行う批判、人工知能について「知的でも人工的でもない」と呼んでいる批判は、基本的にこのポイント1を批判しているのです。まさに人工知能の分野が彼が言っていることをすでに認識しているからです。
すべての人が脳のコピーを作ることに焦点を当てているわけではなく、すべての人が脳を模倣しようとしているわけではありません。とはいえ、この分野の研究も確かに存在し、脳が機能するのとまったく同じようにデジタル脳を作ろうとしている人々もいます。この種の研究も存在します。
Deep Blueの勝利と批判
しかし2年後の1997年に、あまり知的でないAIが人間に勝ち始めます。例えば、カスパロフとのチェスに勝ったDeep Blueです。みんなが批判して文句を言いました。「でも、この知能は力ずくで、知的じゃない。手動で書かれたすべてのルールを持つ小さなプログラムだ。チェスをすることしか知らない。この知能はチェス以外何もできない」と。
この時期には、マーク・グラブッドという人がすでにこれらの制限に気づいていて、「高度な汎用人工知能」という用語を使い始めていました。彼はこう言っています。「複雑性と速度において人間の脳に匹敵または超える、一般的な知識を獲得し、操作し、推論できるAIシステムを指しています」。
この人は当時、それほど知的でないAIが、彼が持っていたセキュリティ問題に対処できていないのを見ていました。そして彼はすでに、もっと知的なものが必要だという顔をしていましたが、まだ作っていませんでした。
AGIという概念の誕生
そして2002年になってようやく、この概念が作られ始め、少しずつ普及し始めます。しかしここではまだ学術レベルです。ここにベン・ゲーツェルとシェーン・レッグがいます。彼らはこの用語を作り、議論していた人たちです。このベンゲーツェルは、ソフィアのプロジェクトで働いていた人の一人です。皆さんは覚えているかもしれません、あの古いロボットで、市民と認められた最初のAIロボットでした。
そしてこのニュースは大きく取り上げられました。ロボットと会話し、ロボットが人々と会話する動画がたくさんありましたが、技術は今日の技術とは完全に異なっていました。背景では、人々はまだ人工知能を手作業で、力ずくでプログラミングしていて、次々と継ぎ足しを作っていたことを理解する必要があります。彼らはこれを「弱いAI」と呼んでいます。チェスしかできず、チェス以外何もできない知能です。
そして「強いAI」というものがあり、ジョン・サールはこれを批判していました。ジョン・サールは、意識やいろいろなことを話していた初期の人々を批判していましたが、ジョン・サールの批判は、意識の形而上学的な問題、感じる能力に大いに関係していました。当時、これについて話すことはまったく意味がありませんでした。彼らはチェスプレーヤーに初めて勝つところで、大変な努力をしていました。意識と無意識を議論するには程遠かったのです。
そしてシェーン・レッグは、ベン・ゲーツェルの友人ですが、この時期、AGIをさまざまなタイプの一般知能を研究する人工知能の分野として考えていました。例えば、猫、犬、蜂、アリを考えると、それらは一般知能です。犬も蜂もアリも、複雑な社会を持ち、複雑な感情を持ち、解決すべき複雑な生活を持っていて、それを解決できます。だから自然界で問題なく生き残っています。
だから、すべてが一般知能だと言えますが、各一般知能は異なるタイプを持っています。これが大体シェーン・レッグの頭の中にあったことです。数日前、彼のDeepMindでのYouTubeインタビューが公開され、彼はここでこう言っています。興味深いですね。彼らはそれをより研究分野として理解していました。
そして彼は続けます。ある人と話していたとき、彼はベン・ゲーツェルについて語ります。彼らは当時、汎用人工知能について議論していた研究者たちで、LLMのずっと前のことです。ここは2002年です、皆さん。
AGIの概念化と普及
そして2007年、2009年頃に、実際に正式な用語になり始めます。2007年にゲーツェルの本が出版され、「Artificial General Intelligence」というタイトルです。つまり、AGIという用語が今回、AGIというタイトルの本に正式に書かれたのは2007年でしたが、2009年に実際に物事が始まり、この言葉が一般に人気になり、人々がそれを使い始めました。
ゲーツェルのインタビューを見ると、彼は「人間レベルのAGI」についてかなり話しています。興味深いですね。この用語の創始者は、AGIを人間の知能の同義語として使っていません。彼は汎用人工知能として使っています。そして多くのタイプの汎用人工知能の中に、人間レベルを持つものがあるとしています。
彼が今日人々が話しているよりもはるかに現実的であることがわかります。
技術の進化:強化学習とニューラルネットワーク
さて、時が経ち、2013年です。LLMはまだ存在していません、皆さん。2013年は少し前です。そしてより知的で洗練されたアプローチが登場し始めます。ニューラルネットワークと強化学習の混合があり、ニューラルネットワークは脳に着想を得て、強化学習は心理学に着想を得ています。
この瞬間に、より高度なAIが登場し始めます。なぜなら今、強化学習により目標を与えると、その目標を追求し始めるからです。そしてコンピュータビジョンのいくつかのルールを使用しているため、物事、シナリオ、例えばコンピューターゲームを観察し、そのコンピューターゲームをプレイすることを学べるからです。
そしてこの技術的瞬間、この技術の変化から、物事が進歩し始め、少し異なる道を進み始めます。
AlphaGoの革命
2016年にAlphaGoという現象が起こります。これはニューラルネットワークと強化学習のAI技術を使用します。そして人工知能は、チェスより難しく、チェスより多くの可能性を持つゲームをプレイすることを学び始めます。
そしてこの時、彼女も人間に勝ち始めますが、何年も前のカスパロフのDeep Blueとは違いがあります。今回は誰もコンピューターのルールをプログラミングしていません。彼らは人間のデータを与えてAIに学習させ、AIは学習しました。そして彼らはそれがうまくいくかどうか全く分かりませんでした。
だからこの瞬間、知能が今レベルを上げ始めていることが明らかになります。もう力ずくの単純な小さなプログラムではありませんが、まだ問題があります。なぜならこのAlphaGoは囲碁というゲームしかプレイできないからです。そして1つのタスクしか実行できないという彼女が狭いという問題は続きます。まだ一般的ではありません。
そして翌年、2017年に、彼らはAlphaZeroを作ります。今回、AlphaZeroは人間のデータなしで学習し、自分自身と対戦します。そして囲碁、チェス、将棋という3つの異なるゲームをプレイできます。
汎用性への第一歩
もうお分かりですね、皆さん。物事が一般的になり始めました。まだ狭いです。なぜならボードゲームしかプレイできないからですが、今は異なるタイプのゲームをプレイでき、これは一般知能の胚芽がすでに登場し始めたことを示しています。
2017年はTransformersの論文が発表された年であることを覚えておいてください。だから今から、AI史の並行して、LLMが研究室内で起こり始めました。今日到達するような成熟度はありませんでしたが、すでに登場し始めていました。そしてこれらの強化学習とニューラルネットワークを混ぜた技術はすべて、当時のChatGPTに適用されることになります。
DeepMindの神経科学的アプローチ
2020年に私の人生を大きく印象づけた興味深いことの1つは、YouTubeを見ていたとき、マット・ボトヴィニックという人のビデオを見たことです。この人はGoogle DeepMindで行っていたAI研究について議論していました。
彼は神経科学の研究者です。そして彼が当時やろうとしていたことの1つは、何らかの形で汎用人工知能を探求することでした。そしてこの人が当時試みていた技術は、何らかの方法でAIに何かを教え、その最初の知識から、彼女が別の知識を学ぶことを容易にするというものでした。例えばチェッカーをプレイすることを学ぶ。そしてチェスをプレイすることを学びたいとき、すでに何かを知っています。なぜならボードを理解しているから。ボードは同じで、いくつか似たようなものがあり、再び学ぶ必要がありません。なぜならすでにチェスで学んだからです。
そしてこのインタビューで、私はメタ学習について初めて聞きました。彼がこれについて話しているのを見てください。当時人々が何を研究していたかの雰囲気を理解したいなら、このインタビューでは非常に深く、多くの詳細で議論されます。そして彼はここでLLMについて話しません、皆さん。彼らはそれについて話していませんでした。この人は脳を模倣するAIを作ろうとしていて、脳を研究し、脳と同じような知能を作ろうとしています。
これはまさにニコレリスが嫌いなレベルです。
ChatGPTの登場とAGIの新定義
しかし何が起こったか。2023年、ChatGPTが年末に発表され、この時点で誰もがすでにLLMについて知っています。私たちは基本的に今のAIのレベルにいます。
そしてDeepMindはここでAGIの定義を試みます。いくつかのレベルを置き始めます。例えば、知能がないとき、新興的な知能があるとき、すでに有能なとき、専門家、名人級のAI、または超人的なもの。
そしてこれらすべてのケースで、狭い人工知能について考えると、彼らはすでにいくつかの例を持っています。電卓から、スパムフィルターから、AlexaやSiriから。しかし狭い部分には、DALL-E 2のような画像生成器、Deep BlueやAlphaGoがあり、これらは名人級で、AlphaFoldやAlphaZeroのような超人的レベルがあります。これらはより狭い超知能のレベルにすでにある驚くべき研究です。
AlphaFoldの場合、タンパク質を折りたたむことができます。これは生物学のことです。そしてAlphaZeroの場合、囲碁や将棋をプレイできます。だから狭いのです。
しかし一般レベルにはありませんよね、皆さん。AIでないものもあります。ここに当時のモデルであるChatGPT、Bard、LLaMAと考えられる新興的なものがあります。しかしレベル2には何も達成されていません。そして超知能もありません。
OpenAIのミッションと政治的側面
ここで興味深いのは、OpenAIが2015年に設立され、OpenAIは使命として、AGIを作らなければならないと掲げたことです。そして彼女は非営利財団です。理論的にこのAGIを作ることに成功したら、財団は終わります。なぜなら目標を達成したからです。
だからAGIがあるか、ないか、AGIの定義は何か、何でないかというこの混乱すべてで、OpenAIはそれが起こることを望んでいない会社の1つです。なぜならOpenAIがいつか「達成しました」と言ったら、会社は自動的に終わるからです。使命を達成したので。
だからいくつかの用語には政治的な理由があります。OpenAIの場合のように。そして研究分野、特にセキュリティ分野に関係するものもあります。定義の仕方によって、その人工知能のセキュリティについても考えなければなりません。
批判者の登場
同時に批判者が登場し始めます。例えばヤン・ルカンはその一人で、彼はLLMには全く意味がない、LLMがAGIになる可能性は全くないと言い始めます。なぜなら世界を実験することができないから、世界観を持っていないからです。物理法則を実験できない、何が起きているか理解できない、生きることができず、何をしているか理解していない、何が起きているか理解していない、ただのテキスト生成器だと。
だから一方ではLLMで汎用人工知能を作ろうとしている人々がいて、他方では不可能だ、道は別だと言っている人々がいます。そしてニコレリスのように、何をしても人工知能は存在しないと言う人々もいます。だからAGIは存在しない。AGIをキャンセルする、と。
より実用的なAGI定義
しかし私がこの混乱、この論争を見たとき、私は考えました。「なぜ争うのか。なぜこんなに混乱させるのか」と。そして私は個人的に、はるかに明確で、機能しているかどうかを理解するのがはるかに簡単な、他のAGIの概念を使用しています。
意識があるかどうかを議論したくありません。人間レベルにあるかどうかを議論したくありません。私はシェーン・レッグのAGIレベルの考え方でずっと多く考えます。そして人間レベルについて話すこととは何の関係もありません。
そして私が使う定義はこれです。AGIは、新しいトレーニングを必要とせずに、複数の知識分野で機能できる一般知能です。分かりましたか。非常にシンプルで、非常に簡単です。
だからチェスしかプレイできないDeep BlueのAIを取ります。いくつの知識分野で働いていますか。1つだけですよね。AGIではありません。次にAlphaZeroを取ります。AlphaZeroはいくつの知識分野で働いていますか。1つだけ。ボードゲームをプレイすることしか知りません。AGIではありません。
次にChatGPTを取ります。ChatGPTは複数の言語を話し、医学について話し、化学について話し、プログラミングについて話します。だからこれはすでにAGIです。再トレーニングする必要はありません。すでに十分学習しています。
だから誰がAGIで誰がAGIでないかを言うのは非常にシンプルになります。犬が知的かどうかを議論しないのと同じように。犬は知的です。しかし人間の知能レベルを持っていません。思考能力よりも、IQと知能の量の問題です。
そして犬がすることを、私たちは人間がすることを期待しません。例えば、犬の嗅覚は私たちの嗅ぐ能力よりもはるかに優れています。そしてそれで構いません。彼が私たちよりうまくやることは問題ではありません。これは彼が知的であるかどうかとは何の関係もありません。そして人間が知的であるかどうかとも何の関係もありません。たとえ能力を共有していなくてもです。
より厳密な定義
しかしそれでも、私が使うのが好きな、より高度なAGIの定義があります。前のものより少し厳密で、その進化版です。
それは似たように始まります。AGIは複数の分野で機能できる一般知能です。だからLLMは複数の言語を話し、医学、数学について話し、プログラミングができます。ここまでは大丈夫です。そして続けます。新しいアーキテクチャのトレーニングを必要とせずに。ここで少し変わり始めます。今、私たちはアーキテクチャについて話しています。単に新しいトレーニングではなく。
しかしここまではLLMはまだ合格します。しかしどこで合格しないのか。この最後の部分です。継続的な学習能力を持つこと。ここでLLMは持っていません。いや、技術的には持っています。継続的な学習をすることは可能です。ただ、彼らが行う品質と処理速度、メモリ量の技術的問題により、リアルタイムでは行えません。
だから実際には、実際には彼らはこの継続的な学習を行うことができません。そしてもし行っても、非常に時間がかかり、価値がなく、非常に高価になります。だから起こりません。
そしてこのため、今日のLLM、現在のAIモデルは、この基準を通過できません。したがって、彼らがAGIでないと言うのは非常に簡単です。
定義の明確化
AGIかどうかを定義するのがどれだけ簡単になったか分かりますか。特にここに何らかの品質レベルを置けば。ある程度のレベルを持たなければならない。すでに発生する可能性のある問題を解決します。
しかし私が言いたいのは、知能を持っているかどうかと、知能を持っているとき、その知能のIQの大きさはどれくらいかの間に分離が必要だということです。違いが分かりましたか。
LLMはすでに知的です。しかし幻覚を見ます。しかしリアルタイムで学習できません。だから、この知能の品質がまだ良くないいくつかの問題があります。
だから私はいつも言っています。今日のAIの問題は知能とは関係なく、知能が持つ特性により関係しています。幻覚を見る、これは慢性的な問題で、解決されなければなりません。質問をして、また尋ねて、異なる答えを見るということは起こってはいけません。この一貫性がなければなりません。
そしてもう1つ、彼女は私たちのように継続的に学習できなければなりません。彼女が人生を送るにつれて、何かを学び、そこから別のことを学び、発展し進化できるように。なぜならこの継続的な学習が起こらなければ、時間とともに進歩することができないからです。いや、できますが、人間の助けが必要です。そして彼女は自律的になりません。
このAGIというものにどれだけのニュアンスがあるか分かりましたか。
結論:柔軟な知能の概念へ
さて、結論として、基本的なアイデアはこれです、皆さん。AGIが人間的なものだと固定する代わりに、もしかしたらいつか人工知能が人間もしないことをするかもしれないと考えることもできます。それでも知的でしょう。
そしておそらく一般的である必要さえありません。なぜなら、例えば、数学の専門知能で、数学者ができないことができれば、もしかしたら汎用人工知能である必要さえないかもしれません。なぜならすでに高度な研究を行い、その知識分野を進歩させるのに十分な知能を持つことになるからです。
あなたはどう思いますか。人間と同じでなければならないという固定観念を追い続ける価値があるでしょうか。それとも、汎用知能は一般的であり、人間的かどうかは重要でないというあのアイデアに戻るべきでしょうか。
私は個人的に、汎用知能は人間的である必要がなく、人間と同じ能力を持つ必要もないというこのアイデアが千倍好きです。
しかし下にコメントしてください。あなたが何を考えているか知りたいです。そしてこのような動画を見続けるためにチャンネルをサポートしたいなら、メンバーになってください。メンバーはインテリジェントエージェントの限定動画と先行公開動画にアクセスできます。それでは、いいねを押してください。ありがとうございました。


コメント