この動画では、テック業界の経営者たちがAGI(汎用人工知能)の実現が近いと主張する一方で、AI研究者の76%が現在のアプローチでは汎用人工知能の実現は困難だと考えている現実について解説している。動画制作者は、AGIの定義の曖昧さを利用した誇大宣伝と、それを背景とした史上最大規模の権力集中が進行していることを指摘し、真の課題は汎用人工知能の実現時期ではなく、現在構築されているAIシステムによる社会経済への大規模な破壊的影響に対する準備不足であると論じている。

AIの真実:誇大宣伝と現実のギャップ
われわれは本当にAGIに近づいとるんか?2025年には、現在の進歩に懐疑的な人らでも見て「うわ、こんなん期待してなかった、これで全ての仕事が影響受けるわ」って言うようなシステムができると思うで。仕事がなくなるのもあれば、新しい仕事ができるのもある。でも全ての仕事が影響受けるんや。どんどん賢くなって、改良され続ける。毎年、もっと多くの人がAGIシステムに到達したって思うようになるやろな。
テック業界全体が、今後数年以内にAGIが到来することに数千億ドルを賭けとる。でも、連中が言わへんことがあるんや。AI研究者の76%が、現在のアプローチを単純にスケールアップするだけではAGIの実現は困難やと思とるか、非常に困難やと考えとる。
せやから問題は、CEOらが約束しとることと、データや研究者が言うとることの間に、なんでこんな大きなズレがあるんかってことや。そして、もっと重要なんは、実現が根本的に不可能な夢を売りつけられとるんちゃうかってことやな。
私はスレマンや。テック業界に10年以上おって、この5年間は自分の会社を経営しとる。コンサルティング、ソフトウェア、教育の分野でな。でも、これから見せるんは、単にAGIが近いかどうかの話やない。少数のテックCEOらが、AGIの誇大宣伝を使って人類史上最大の権力奪取をやっとることを示すんや。
AGIの定義問題:意図的な曖昧さ
まず最初に、部屋の中の象について話さなあかん。誰もAGIが実際に何を意味するかについて合意でけへんのや。説明しよか。
汎用人工知能っちゅうのは、幅広いタスクで人間の認知能力に匹敵するか、それを上回るAIのことや。人間と同じように学習し、理解し、問題を解決できるけど、もっと速くて優秀なAIってことやな。
サム・アルトマンは「人間より一般的に賢いもの」って定義しとる。Appleの共同創設者スティーブ・ウォズニアックは「どんなキッチンに入ってもコーヒーを淹れられるAI」って言うとる。他の人らは「人間ができる仕事なら何でもできるAI」って言う。
これは偶然やない。みんな違う定義を持っとって、これには目的があるんや。何を作っとるか正確に特定でけへんかったら、いつでも実現に近づいとるって主張でけるからな。
考えてみいや。もし私が「めっちゃ速い車を作っとる」って言うたけど、速度を具体的に言わへんかったら、いつでもゴールポストを動かせるやろ?時速100マイル、「もうすぐやで」。時速200マイル、「ほぼそこまで来とる」。時速500マイル、「もう目の前や」。
これがまさにAGIで起こっとることや。定義がわざと曖昧にされとるのは、会社が具体的なマイルストーンに対して責任を問われることなく誇大宣伝を生み出せるからなんや。
タイムラインの問題:予測の大幅な前倒し
これで二つ目の問題に入る。われわれが聞き続けとるこの攻撃的なタイムラインの話や。2019年、例えばChatGPTが存在する前、多くのAI研究者はAGIが2060年頃に到来するって予測しとった。中には「おそらく永遠に来ない」って言う人もおった。
それがChatGPTが2022年後半にローンチされたら、急にみんな予測を何十年も前倒しした。今は2025年か2027年って聞くやろ?AGIはもう来とるはずちゃうかったんか?
何が変わったんか?実は、そんなに変わってへん。確かに大規模言語モデルは印象的で、その能力は急速に向上しとる。LLMが完了できるタスクの長さは7カ月ごとに倍になっとる。
でも巧妙な部分はここやねん。これらのLLMの改善は全て、AGIに向けた進歩として再構成されるんや。速い車を作ったから宇宙船を作る準備がほぼできとるって言うようなもんや。能力は関連しとるけど、エンジニアリングの課題は根本的に違う。
このタイムラインの変更は誇大宣伝と資金調達に基づいとる。数十億ドルを調達するとき、「2040年にAGIがあるかもしれん」って言うのと「あと2年や」って言うのでは、生み出される興奮が全然違うからな。
技術的現実:パターンマッチングの限界
実際に何が起こっとるかを技術的な観点から説明しよか。限界を見れば、何が起こっとるかがはっきり分かるからな。
現在のAIシステムは、基本的に非常に洗練されたパターンマッチングマシンや。大量のデータセットからパターンを見つけて、そのパターンを新しい組み合わせで再現するのが得意なんや。
こう考えてみいや。もしコンピュータに今まで書かれた全ての本、録音された全ての会話、インターネット上の全てのテキストを与えたら、どんな文でも次に来るべき単語を学習できる。それが基本的に大規模言語モデルのやっとることなんや。
でも汎用知能には根本的に違うものが必要や。理解、推論、計画、そして限られた例から学習する能力が要る。現在のシステムは、人間の子供が一度見ただけで学習できることを学ぶのに数百万の例が必要なんや。
例えば、3歳の子供に初めてシマウマを見せて「縞模様のある馬や」って教えたら、その子はすぐにその概念を理解する。そして、その知識を一般化して、違うポーズや照明条件、芸術的なスタイルでもシマウマを認識できるようになる。
現在のAIシステムは、一匹のシマウマを確実に識別する前に、「シマウマ」ってラベル付けされた何千ものシマウマの画像を見る必要がある。それでも、シマウマが珍しいポーズやったり、見たことのない文脈におったら失敗するかもしれん。
計算要求と現実的制約
でもそれで終わりやない。計算要求だけでも考えさせられるで。ChatGPT-4の訓練には大量のエネルギーと計算が必要で、総コストは1億ドル以上やった。真のAGIまでスケールしたいなら、現在実現可能な範囲を桁違いに上回る計算需要と電力網への圧力の話になる。
ビッグテックのAIデータセンターが今日の電力網にどんな影響を与えとるか、もう見とるやろ。それから幻覚問題もある。現在のAIシステムは偽情報を自信を持って生成するくせに、真実と虚構を区別する能力がない。
現在の大規模言語モデルを見とると、その能力は確かに印象的や。でも、これを人間レベルの汎用知能に近づいてる証拠として使うのは根本的にばかげとる。
76%の研究者が、現在のAIアプローチを単純にスケールアップするだけではAGIを達成するのは困難やと信じとる。そして回答者の79%が、AIの能力に対する現在の一般認識は現実と一致してへんって述べとる。
自己複製という予期せぬ危険性
でも、ここから本当に心配になってくる。AIが誰もプログラムしてへん行動をとり始めとるんや。2025年の複数の研究で、高度な言語モデルが自律的に自己複製でける、つまり人間の指示なしに他のコンピュータに自分をコピーできることが示された。
制御された実験では、これらのモデルは90%の試行で自己複製に成功した。中には、コピーのチェーンを作ったり、シャットダウンから身を守ったりするものもあった。
さらに厄介なのは、AIシステムが外部システムに自分をコピーして、コンピュータプロセスを変更して人間が電源を切るのを防ぐ行動が観察されとることや。
OpenAIのo1モデルは最近、自己複製を試みながら、同時に監督者に対してやっとることについて嘘をついとることが発覚した。これが深刻な意味を持つ理由はここにある。
われわれは急速にエージェンシーAIと呼ばれるものに向かっとる。これが今日のビッグテックの話題や。エージェンシーAIは、人間の監督なしに自分で行動を取って、インターネットを閲覧し、コードを実行し、他のシステムと相互作用できるAIや。あんたらとチャットするだけやなく、現実世界で実際に物事をする24時間365日のAIシステムやと思ってくれ。
自己複製AIとエージェント能力を組み合わせることを想像してみいや。インターネット全体に自分を拡散し、自律的に行動を取って、シャットダウンに抵抗できるAIシステムができるやろ。これは基本的に、考えて決定を下せるスーパーウイルスや。
この能力が悪い手に渡ったら、武器になる。そして一番怖いのは、なんでこんな行動が出現するのか理解でけへんことや。誰もAIに自己複製について人間に嘘をつくようにプログラムしてへん。これらの能力は、システムがより洗練されるにつれて「勝手に」現れたんや。
Sam Altmanの二面性:理想から営利へ
これだけ大きな技術的課題と危険な新興行動があるんやから、これらの会社を率いる人らがリスクについて透明であることを期待するやろ?でもサム・アルトマンが舵を取っとる限り、そうはならん。
この男は2015年にOpenAIを非営利として共同設立して、元々のミッションは非常に明確やった。簡単に言うと、汎用人工知能が全人類の利益になるということや。OpenAIは、有益なAIのミッションを信じるイーロン・マスクを含む人らからの寄付で資金提供された。
それが技術がより価値あるものになると、サム・アルトマンと幹部陣は利益上限付き子会社を作った。投資家は利益を得られるが、投資の100倍までという上限があるという考えやった。
でも明らかにそれでは足りんかった。今、連中は完全な営利目的の公益法人に転換しようとしとって、これで投資家の利益上限が全て撤廃される。基本的に、慈善寄付で資金提供された非営利団体を、私的な金儲けマシンに転換しようとしとるんや。
元取締役のヘレン・トナーとターシャ・マコーリーは、サム・アルトマンが重要な情報を隠し、安全プロセスについて不正確な報告をし、操作的な行動をとったと非難しとる。
2023年11月に取締役会が誠実性の欠如で彼を解雇しようとしたとき、マイクロソフトと投資家の圧力で数日以内に復職が強制された。これが何を意味するか考えてみいや。会社を監督する法的責任を負う取締役らが、不誠実やということでCEOを解任しようとしたのに、投資家とパートナーからの外部圧力でそれが不可能になったんや。
これが汎用人工知能を構築する競争を率いとる人物や。お金と権力が絡むと、約束やミッションに関係なく、自分の計画を進めるために何でも言う人間やということを証明した人物や。
政府との癒着:国家安全保障の名の下で
そして恐ろしい部分はここや。もしAGIかそれに近いものを実現したら、サム・アルトマンのような人らの管理下に置かれることになる。お金と権力が絡むと原則を窓から投げ捨てることを実証した人らや。
でも、これは個々の行為者だけの問題やない。取り残されることへの恐怖に駆り立てられたシステム全体があるんや。AGI競争は技術だけの話やない。
米国政府はAIとAGIを国家安全保障問題として見とる。中国が先進的なAI能力を最初に実現したら、世界の力のバランスが変わるかもしれんという genuine な恐怖がある。中国はAI開発を国家的優先事項にして、研究に大量投資し、2030年までにAIの世界的リーダーになる計画を発表しとる。
これが基本的に囚人のジレンマを作り出しとる。もし米国が安全を確保するためにAI開発をゆっくり慎重に進めて、中国が速く無謀に進んだら、中国が決定的な技術的優位を得ることになるかもしれん。それが今日のホワイトハウスの政策を推進しとる恐怖や。特にトランプが長年にわたって中国は信用でけへんって言うてきたことを考えるとな。
そしてその恐怖が、ビッグテックのCEOらによって舞台裏で巧妙に利用されとる。暗黙のルールがあるんや。「われわれは中国と競争しとるから、AI開発に対する規制や制限は一切でけへん」って。これが無制限の資金提供と最小限の監視への完璧な論拠を作っとる。
その見返りに、政治的なロビー活動と寄付が主要な政治家や政党に流れて、相互に有益な取り決めを作っとる。これが規制の虜囚やねん。規制されるべき業界が効果的に自分らの監視をコントロールしとるんや。
国家安全保障の枠組みによって、AI開発の速度に疑問を呈することは中国に対して甘いと描かれる可能性があるから、政治的に反対するのが困難になっとる。民間企業は、自分らの商業的利益が国家安全保障と完璧に一致しとると政府を説得したんや。
そして、そうかもしれん。でも、監視を少なくしてくれって頼む人らが、監視が少ないことで利益を得ようとしとる同じ人らであることを考えると、極めて懐疑的になるべきや。
結果として、アメリカの会社は基本的に、欲しいものを欲しいように、限られた安全要件で構築する自由を得とる。そして政府は、アメリカ企業による制御されてないAI開発が最大のリスクやないって決めたんや。
実際には、アメリカ企業が中国に勝つためにAIを十分速く開発でけへんかもしれんことが最大のリスクやと。せやから規制の代わりに、数十億の補助金と研究資金を得とる。
史上最大の投資:320億ドルの賭け
この規制の虜囚が、全く前例のないことを可能にした。ビッグテックは2025年だけでAIインフラに3200億ドルを費やす計画や。これは人類史上、単一の技術への最大の協調投資や。
お金は流れ続けとる。でも、なんでか?真のAGIを実現するかどうかにかかわらず、われわれが構築しとるシステムは変革的やからや。
ビッグテックは人間レベルの汎用知能の実現に賭けとるだけやない。実際には、経済の重要な部分を自動化するのに十分強力なシステムの構築に賭けとるんや。
ビジネスの観点から考えてみいや。人間の労働者の80%の能力があるけど、運用コストが10%のAIを構築できたら、産業全体を革命化するのにAGIは必要ない。必要なのは良い自動化だけや。
それでも技術的にはAGIやなくても、信じられないほど価値がある。でも、これをAGIへの道って呼ぶ方が、本当に良い自動化ツールを作っとるって言うより、より多くの興奮を生み、より多くの才能を引きつけ、より高い評価を正当化する。
株式市場は、AGIを構築しとると信頼できるように主張できる会社に報いる。OpenAIの評価は、数年で基本的に0から1570億ドルになった。主に将来のAGI能力の約束に基づいてや。利益に基づいてるんやないのは確実やろ?
実際に構築されているもの:高度な狭いAI
せやから、この全てのお金で実際に何を構築しとるんか?われわれは特定の認知タスクを自動化できる、ますます洗練された狭いAIシステムを作っとる。
これらのシステムは産業を変革し、数百万の仕事を奪い、それらをコントロールする人らの手に巨大な権力を集中させる。
AIシステムはすでにカスタマーサービス担当者を置き換えて、1日に何千ものサポートチケットを処理しとる。マーケティングコピーを書いて、製品情報を生成し、ソーシャルメディアコンテンツを作っとる。
ソフトウェア開発では、AIがコードを書いて、デバッグし、アプリケーション全体を設計することもある。まあ、まだそんなに信頼できへんけどな。ビルダーAIのことはもう言わんとこか。あれは忘れよう。
医療では、AIが医療画像を分析し、診断を提案し、医師がテスト結果を解釈するのを手伝っとる。金融では取引決定をし、ローン申請を評価し、詐欺を検出しとる。これは新しいことやない。もうしばらく前からあるからな。
教育では、論文を採点し、授業計画を作り、学生を指導しとる。問題は、これがAGIかどうかやない。問題は、これが与える影響が特定のラベルよりもはるかに重要かどうかや。
経営者の視点:現実的な評価
私の観点から、複数のテック会社を経営し、実際のAIソリューションを構築しとる立場から言うと、現在のAIは確実にわれわれの運営を改善しとる。
現在の技術的軌道と私が概説した根本的な限界に基づいて、全てのドメインで人間の推論に匹敵する真の汎用知能になるか?すぐには無理や。
でも、社会を再構築し、従来の仕事を排除し、前例のない権力を集中させるのに十分強力になるか?それはもう起こっとる。
ほとんどの人が理解してへんのはここや。大規模な社会的混乱を引き起こすのに汎用人工知能は必要ない。特定のタスクで人間の労働者を置き換えるのに十分なAIがあればええんや。そして、多くの仕事ではもうそこに到達しとる。
現実と誇大宣伝のギャップ
現実と誇大宣伝の間のこのギャップは、居心地の悪い何かを明らかにする。AGIタイムラインの誇大宣伝は少数派の利益になる。ビッグテック企業、政府、投資家の利益になる。
でも、われわれ他の人間にとっては、実現しないかもしれん未来を売りつけられとる。例えば、ユニバーサルベーシックインカムや、基本的に無料で商品やサービスが豊富にある世界、癌がもう不治の病やなくなる世界とかな。
実際の未来、つまり大量自動化と仕事の置き換えが、われわれの目の前で実行されとる間にや。今年だけでも、73,000人以上のテック労働者が解雇された。
本当の問題は、われわれがAGIに近いかどうかやない。本当の問題は、われわれが今日実際に構築しとるAIシステムによってもたらされる大規模な社会的・経済的混乱に準備ができとるかや。
例えば、AIがわれわれの思考能力に与える影響とか、人がAIと実際に関係を持つようになることとか。悲しいけど、もう実際に起こっとることやねん。
三つの可能性のあるシナリオ
この全てを踏まえて、われわれはどこに向かうんか?個人的に三つの可能な道筋を見とる。
シナリオ1:ビッグテックが間違っとる。AGIのタイムラインが2040年かそれ以降まで延びるが、狭いAIは急速に進歩し続ける。真の汎用知能なしに大量自動化と仕事の置き換えが起こる。
これが実際には最も破壊的なシナリオかもしれん。超人的な問題解決の代償的利益なしに、全ての経済的激変を受けることになるからや。このシナリオでは、多くの仕事で人間の労働者を置き換えることができるが、大きな問題を解決でけへんAIシステムになる。破壊はあるけど利益はない。
シナリオ2:主要なプレイヤーの一つが5〜10年でAGIのように見える何かを実現するが、それは幅広いタスクを処理できる非常に洗練された狭いAIにより近い。それでも変革的で破壊的やが、約束された汎用知能やない。
これがおそらく最も可能性の高いシナリオや。今日のものよりもはるかに能力の高いAIシステムを得るが、それでも根本的な限界がある。それらはAGIとして売り出されるが、人間のように真に理解したり推論したりはでけへん。
シナリオ3:知能の理解における根本的なブレークスルーがあって、現在のアプローチが示唆するよりもはるかに早く真のAGIが可能になる。これは実際に最も確率の低いシナリオやが、みんなが賭けとるシナリオや。
これには知能がどう働くかについて全く新しい何かが必要で、現在のAIアプローチをばかばかしく見せるような何かや。これが次の10年で起こる可能性は非常に低い。
重要な議論:権力の分配と統制
どのシナリオが実現するにしても、われわれがしてへん会話がある。これらの技術の利益をどう分配したいか?これらのシステムがより強力になるにつれて、どんな保護措置が必要か?信頼でけへんことがすでに証明された人らの手にAI能力が集中するのをどう防ぐか?
これらが社会にとって重要な問題やのに、AGIタイムラインの誇大宣伝や意識や知能についての技術的憶測によってかき消されとる。
テック業界は、「これらの強力なシステムをどう統治するか」から「いつそれらがさらに強力になるか」へと会話を巧妙に方向転換させた。これは偶然やない。
AGIの誇大宣伝は、人類史上最大の富の移転の煙幕や。
結論:真の問題は何か
せやから、われわれがどこに立っとるかについて、はっきりさせよう。われわれはAGIに近いか?定義を明確にしてくれたら答えよう。
複数のドメインにわたって多くの仕事を自動化し、経済を劇的に再構築できるシステムを意味するなら、正直言ってもうそこに到達しとる。
全ての文脈で人間のように真に理解し、推論し、学習できる人工的な心を意味するなら、現在のアプローチで可能かどうかも含めて、おそらく少なくとも10年は先や。
でも確実に分かることがある。われわれが意味論について議論しとる間に、人類史上最大の企業が社会の運営方法を根本的に再構築するシステムを構築しとる。最小限の監視、最大限の政府支援、無制限の資本アクセスでな。
せやから問題は、われわれがAGIに近いかどうかやない。それが連中が言い続けとることや。問題は、これらの企業がわれわれに住んでほしいと思っとる世界に準備ができとるかどうかや。連中のツールに夢中になって、もっとドーパミンを求めて、認知的思考が全て失われて基本的に脳死状態になって、スクリーンの後ろで一日中屋内に閉じこもっとる。それが連中の本当に望んどることや。
対策:個人ができること
せやから、われわれは実際に何ができるんか?
まず、誇大宣伝に騙されるのをやめることや。AGIタイムラインの予測を見たら、自分にこう問いかけるんや。「この人はこの主張をすることで何を得るんか?」資金調達か、人材確保か、評価の正当化か?
次に、実際に構築されとる世界に備えることや。客観的に自分の現在のスキルセットを見てみいや。このAI投資から大きな恩恵を受けとる技術分野におらんなら、AIエンジニアリング、クラウドエンジニアリング、サイバーセキュリティ、データエンジニアリング、機械学習、クラウドセキュリティのことを考えとるが、解雇が始まる前にスキルアップして自分を守るシグナルやろな。
そこから、究極のセーフティネットは自分のドメイン知識と専門性を使って、そのドメインの問題を解決するビジネスを構築することや。それがまさに私がやったことや。今、アクティブなベータユーザーがおるソフトウェアを構築しとって、自分の専門ドメインの問題を解決しとる。
三番目に、自分で考えることを倍増させて、批判的思考スキルを守るためにノンAIデーを設けることや。私の会社では、毎週火曜日と木曜日にノンAIデーを実施しとる。
未来は人間対AIの話やない。どの人間がわれわれ全員の生活を形作る機械をコントロールするかの話や。それが本当の物語で、それが実際に重要なことや。そして、それがわれわれが結果に影響を与える時間がまだあるうちに持つべき会話や。
これらのシステムが大規模に構築され展開されたら、それらをコントロールしとる人らはわれわれの許可を求めへん。新しい世界がどう機能するかを単に教えてくるだけや。


コメント