MIT Technology Reviewの元記者カレン・ハオが、AI業界の構造的問題を徹底的に暴露する。OpenAIの内部に3日間潜入取材した経験をもとに、同社が標榜する「透明性」や「人類全体への利益」という理念と現実との乖離を明らかにする。サム・アルトマンの経営手法、効果的利他主義の問題点、AGI開発競争の危険性、そして巨大テック企業が引き起こす労働搾取や環境破壊まで、AI業界の闇に迫った包括的な分析である。

AI業界への疑問の始まり
あんた、MIT Technology Reviewでジャーナリストやってたんやろ?あそこって別に調査報道で有名なとこちゃうもんな。
そやな。まあ、話はもうちょっと前に遡るんや。わいはMITで工学の学部を出て、実際にジャーナリストになる前はテック業界で働いとったんよ。
それでジャーナリストになった理由の一つが、シリコンバレーにおった短い期間で、バレーでのイノベーションを取り巻くインセンティブの多くが、公共の利益に沿っとるとは限らんけど、儲かる技術を促進しとるっちゅうことに、すぐに気づいたからなんや。
それでジャーナリズムに入ってからは、技術報道、そしてAI報道に焦点を当てるようになって、MIT Tech ReviewでそのAI研究を取材する仕事に就いたんや。
頭の片隅にはずっと、公共の利益のために技術を開発するインセンティブを整合させる場所にどうやって辿り着くかっちゅう疑問が残っとった。AIはそういう疑問を掘り下げるのに完璧な技術やったんや。なぜならAIはあらゆるものと交差しとるし、すでに社会を形作っとる極めて重要な技術やからな。
最初にOpenAIに興味を持ったんは、彼らが基礎的なAI研究所として自分らを位置づけとったからなんや。わいは基礎的なAI研究を取材しとったから、彼らがやっとる仕事や技術的進歩についてもうちょっと知りたかっただけなんや。
でも役員や従業員にインタビューし始めて、すぐに研究よりもっと興味深くなったんが、この組織が非営利団体に営利団体を内包するっちゅう非常に特注な設計になっとって、本当に透明で協力的で、全人類に利益をもたらすことを使命として位置づけようとしとったことなんや。
OpenAIの実態発見
それで彼らが自分らを描写する方法と実際の運営方法との間に食い違いがあることを発見したんや。調査するつもりはなかったんよ。ただ興味があって質問しとっただけ。それで気づいたんが、これが書かなあかん物語やったっちゅうことや。彼らが信奉しとることと実際にやっとることとの間の断絶、そしてそれが最終的にAIが社会に導入される方法と、人々がこの技術を理解する方法の両方に波及効果をもたらす可能性があるっちゅうことをな。
多くのジャーナリストと違って、あんたは実際にMITの学位を持っとるやろ。この業界を理解する全過程でどう役に立ったんや?
ほとんどの人は、わいが技術的な詳細をよりよく理解できるから役に立ったと思うとる。でもそんな風に役に立ったとは思わん。技術的な詳細を理解するのに技術的な学位は必要ないと思うとるからや。どの業界にも非常に具体的な詳細やメカニズム、専門用語、覚えなあかんことがあるんやけど、なぜか人々は金融や金融の複雑さ、政治や政治の複雑さについて学ぶことには全然抵抗がないのに、技術になると専門知識の違うカテゴリーやと思ってしまうんや。でもわいはそんなん信じてない。
ただ、実際に役に立ったんは、シリコンバレーは非常にエリート主義的な空間やから、MIT卒業生やっちゅうことで、人々へのアクセスが速くなったし、彼らが技術的側面について話すのにより多くの時間を費やしてくれたから、より深くインタビューできたっちゅうことや。
そんな風に扉を素早く開いてくれたから役に立ったけど、情報を理解する能力っちゅう点では、実質的にはそれほど役に立ったとは思わん。
異変への気づき
ある時点で、あんたが言ったようにAIの技術的側面を取材しとったけど、「ここで何かおかしい」と気づいた日のことを教えてくれる?OpenAIでは最終的に何が決定的やったんや?
かなり早く起こり始めたんや。2019年8月に3日間会社に密着取材して、最初のミーティングがその時の最高科学責任者やったIlya SutskeverとCTOのGreg Brockmanやった。基本的な質問から始めたんや。
OpenAIには人工汎用知能が全人類に利益をもたらすことを確実にするっちゅう使命があったから、それが何を意味するんか、なんでこの問題に焦点を当てとるんかを聞いとったんや。世界にはたくさんの違う問題があるのに、その時点でOpenAIはすでに10億ドルの投資を受けとったから、10億ドルを使えるいろんな問題があるのに、なんでこれに集中するんか、AGIって何なんか、全人類に利益をもたらすって何を意味するんかってな。
彼らがこれらの基本的な質問に実際に答えることができへんっちゅうことがすぐに分かって、それで少し懐疑的になり始めたんや。彼らは反シリコンバレー研究所として自分らを位置づけとったから。以前にシリコンバレーが利益に過度に重点を置いとった方法に対抗しようとしとったんやけど、わいには非常にシリコンバレー的な文化に見えた。大量のお金と大量の資金調達余力を得て、実際にはそれほどしっかりと把握してない考えを追求しようとするっちゅうのはな。
組織の矛盾
それから他のチーム、他の人たちに、あんたらの持っとる目標をどうやって運用するんかって聞き始めて、誰と話しても、彼らが最終的に何をしとるかについて少しずつ違う理解を持っとるっちゅうことに気づいたんや。実際には非常にまとまりのあるビジョンがなかったんや。
何人かの役員は、これは欠陥やなくて特徴やって言うた。なぜなら実際に人工汎用知能が何なんか誰も知らんから。だから彼らが皆、自分らが何をしようとしとるかについて違う定義を持っとるのは全然問題ないっちゅうことや。
それで彼らが高度に透明やと描写する一方で、実際は本当に秘密主義やっちゅうことに気づいた。彼らは最終的に公開するものはすべて公開すると言いながら、わいとはたくさんの情報を共有してくれへんかった。
その3日間の後に、他の数十人と自分で調達したインタビューをもっとし始めて、人々がわいに言い始めたんが、「ああ、これは今まで働いたことがある中で最も秘密主義的な組織の一つや」っちゅうことで、かなり興味深かった。
最後の食い違いは、彼らは協力的やと言うとったけど、役員たちは本当にわいに強調しとった。「実際には定義できへん使命を達成するためには、最初にならなあかん」っちゅうことで、これは本質的に競争戦略なんや。
わいが反論すると、「ここには本質的な緊張がある。協力的で競争的を同時にはできへん」と言うたんやけど、彼らは「いや、それは健全な緊張や。バランスを取っとる」と答えた。どうバランスを取っとるんかって聞いたけど、彼らもはっきり言えへんかった。
あんたが掘り下げるにつれて、もっと多くの論争に気づき始めたんやな。
そや。
シリコンバレーの認知的不協和
あんたの本で好きな部分があるんや。シリコンバレーの認知的不協和っちゅう描写や。世界全体の大きな問題を解決しようとする企業の最高の頭脳や創業者らが、オフィスに戻る途中でホームレスの人々を踏み越えて歩いとるっちゅうな。残念ながらサンフランシスコの路上で見る光景やけど。
そのアナロジーが好きやし、彼らが解決しようとしとることと、直面しようとせん現実との逆説と断絶をどう説明しとるかも好きや。その主題についてもっと調査しとる間、あんたの認識にどう影響を与えたんや?
そや、わいがバレーで働いとった時、これはいつもわいをめっちゃ悩ませとったんや。サンフランシスコで長期間存在するためには現実を一時停止せなあかんかった。なぜなら一日中、自分が構築しとる技術で将来起こる素晴らしく驚くべきこととか、解決するつもりの問題について話して過ごすんやけど、家に帰る途中やオフィスに向かう途中で、サンフランシスコの深刻な不平等と重大な問題を目にするからや。それらは何年もそこにあって、どんどん悪化しとる。
Sam Altman自身がこの問題について語っとる引用があるんや。彼はこれが問題やっちゅうことを認めとる。サンフランシスコはこれほど集中した時間と空間で大量の富を生み出したから、たぶん奇妙なことが起こって、ホームレスの増加みたいな影響が出たんやろうってな。
でも彼はいつも「AGIは完全に可能や。人類が今まで直面した最大の挑戦で、絶対に解決するつもりや」と言うとるのに、ホームレスについては「そんなに解決するのが困難な問題や。だからできることはそれほどない」って感じなんや。それがわいがバレーにおることを好まへんかった文化を要約しとったんや。
そしてその文化は本当に人々の世界観に浸透すると思う。現実を無視し続けて自分がやっとることに集中せなあかん空間に存在し続けるなら、明らかに構築する技術も現実世界から切り離されたものになるんや。
業界全体の問題発見
非営利、オープン、透明を謳いながら、現実には非常に秘密主義で商業的やっちゅう発表以外に、OpenAIやこの業界全般についてもっと調査しとる間に最も衝撃を受けたことは何や?
人工知能の追求全般についてかなり困難なことの一つは、人間の知能を再現できるっちゅう考えなんや。
これはAIの歴史や起源まで遡る。この用語は元々1956年にダートマス大学の助教授John McCarthyが造語したんや。彼は数十年後に公然とこう言った。「わいは夏期研究のお金を得るために人工知能っちゅう用語を発明した」ってな。
1956年の夏、彼はこれらの科学者を皆集めて新しい学問分野を創設するか、彼らがやっとる研究を統一しようとしとった。それで以前使っとった「オートマタ研究」っちゅう名前では、財団や政府から資金を得るのに必要な注目を集められへんっちゅうことに気づいたんや。
その時、彼の指導者は人工知能っちゅう用語を使うことに強く反対した。「これは人々を混乱させるやろう。人間の知能を再現しようとしとるっちゅう偽のラベルや」と言った。部分的には、人間の知能が何なんか、今日まで科学的コンセンサスがないからや。実際に理解してへんものをどうやって再現するつもりなんや?
でも用語は定着して、現在まで、AIが何なんか、何をするはずなんか、どう社会に統合されるはずなんかについてたくさんの混乱を生んどる。
AIの根深い問題
OpenAIやAI世界では、以前は本当にAIと呼ぶべきなんか、実際に人間の知能を再現しようとしとるんかっちゅう疑問があったんやけど、今のOpenAI内部では、もうそんな疑問は本当になくなっとる。そや、絶対にやっとるし、多くの人が絶対に可能やと思っとる。
でも人間の知能が何なんかを実際に知らんから、AI能力を測定するのに非常に粗雑なベンチマークを使うっちゅう問題に直面するんや。わいが本に書いて衝撃を受けたことの一つは、すべてのベンチマークは不完全で、誰が賢いか賢くないかについての特定の見解で本質的にコード化されとるっちゅうことや。
数学のベンチマークやコーディングのベンチマークを選ぶのは、たぶん彼らがコーダーで数学者で、そういうことが本当に得意なのが賢さを作ると思っとるから驚きやないけど、わいが最後に入手したOpenAI歴史の初期の文書では、大規模言語モデルを追求すべきかどうか、大規模言語モデルが人間の知能を再現する効果的な方法になるかどうかを議論しとった。
それで彼らは聴覚障害者と視覚障害者との比較を始めた。彼らのアナロジーは「聴覚障害者と視覚障害者は言語にしかアクセスできへんけど、十分賢く見える」やった。
それから聴覚障害者と視覚障害者が実際に視覚や聴覚を持つ人と同じくらい賢いかどうかについて全体的な議論があった。そして知能の測定のAIの深く問題のある根源に触れ始めるんがそこなんや。誰が優れた知能対劣った知能を持っとるかについて非常に素早く話し始めるからや。
それから知能測定の全歴史が頭をもたげる。この歴史も非常に暗くて、社会の特定の人々を排除することを正当化するために、優れた知能対劣った知能っちゅう考えを使おうとした優生学みたいなもんに根ざしとるんや。
それもわいが衝撃を受けたもう一つのことやったけど、会社の報道を最初に始めた時に遭遇したもんやなかった。時間が経つにつれて会社や業界全般について報道を続ける中で、この探求の下に泡立っとる非常に暗い側面やっちゅうことを理解したんや。
人間の知能再現への疑問
人間の知能を再現する追求を理解するために、追求自体やなくて、この追求へのアプローチが問題なんか。それとも一般的に人間の知能を再現する追求が根本的に間違っとると思うとるんか?
根本的に間違っとると思う。複数の理由でな。一つは単純に混乱させるからや。なんで世界の計算を改善しとるって話さへんのか。それが実際にやっとることとこの技術をどこに適用するかのずっとクリーンな理解やと思う。
昔、計算機が数学を始めた時、人間の知能と呼んで人々に計算機を渡して「これはあんたのデジタルアシスタントで、あんたの仲間で同僚になる」とは言わへんかった。「これは計算機で数学をする」って感じやったんや。
だから人間の知能を再現することとの関連付けの一部は、一般の人々には理解が非常に困難になるんや。でももう一つの挑戦は、すでに人間がおるっちゅうことや。
なんで強みを複製しようとしとるんや?なんで実際に弱点に焦点を当てて、本質的に置き換えたり自動化しようとするんやなくて、補完するツールを開発せえへんのか?
この探求について問題やと思うもう一つのことは、人間を補強する強力な計算ツールを持てるのに、人間の知能を再現しようとする特定の追求では、補強するように設計されてへん。実際には自動化するように設計されとる。
でもSam Altmanや業界内の他のリーダーのインタビューを聞くと、彼らの動機はあんたが今述べたこと、人類が良くなるのを支援し補強することを目的としとるように見える。どこに矛盾があるんや?
それは実際に彼らがしようとしとることやない。VCに何を言っとるかとか、実際にVCに投資を納得させることができた方法を聞けば、OpenAIは3000億ドルの評価で400億ドルを調達したばかりやで。テック業界史上最大のプライベートベンチャー投資ラウンドや。
彼らがVCに言っとるんは、最終的にほとんどの人間が賃金のためにできることを本質的にできる技術を売ることができるし、もう労働者を雇わへんようにサービスとしてCEOに売ることができるっちゅうことや。それがあんたが投入した400億を回収する方法や。
OpenAIのAGIの定義も、最も経済的に価値のある仕事でほとんどの人間を上回る高度に自律的なシステムやと言っとる。だからVCにその金額を投資させる正当化がそれなんや。労働補強技術やなくて労働自動化技術なんや。
自動化の影響と問題
今、多くのテックCEOがAI戦略でAI時代に入って労働力を削減するつもりやと明確に言っとるのを見とる。だから彼らは再び労働力を維持して生産性を上げるんやなくて、同じ生産性を維持してより少ないスタッフでやるつもりなんや。最終的には補強やなくて自動化についてなんや。
でもこのアプローチの何が問題なんや?このアプローチの欠点についてのあんたの理解を教えてくれる。
最終的になんで技術を構築したり技術を進歩させたりするんや?人々がより尊厳のある生活を送れるようにするためや。人々の仕事を自動化することは実際的なレベルで、単に彼らがもう賃金をもらえへんっちゅうことを意味する。
今、経済的機会の欠如と子供たちの食卓に食べ物を実際に置く能力の欠如から苦しんどる多くの人々が世界中におる。わいはそれらの物語のいくつかを本に記録した。
でもそれから何もすることがなくなったら、どこから意味を得るんや?何に移行するんや?最終的に、それは人々がより尊厳のある方法で生活できるようにしとるとは思わん。実際に彼らの生活を悪化させとるだけで、それはわいにとって最初に技術を構築する理由と本質的に相反しとる。
ケニヤのアウトソース労働者の物語を覚えとる。その瞬間があったと思う。あんたが描写した、作家やった兄弟がChatGPTに仕事を奪われたっちゅう話や。本質的に兄弟が訓練を手伝っとったChatGPTにな。
雇用創出の議論への反論
でもまたシリコンバレーやこのAI業界内のリーダーたちの反論は、AIが本質的にずっと多くの仕事を創出して、人類の前進に役立つっちゅうもんや。それについてどう思う?
誰がそれを言ったんや?なぜならDario Amodeが最近まさに正反対のことを言ったからや。だから誰がそれを言っとるんか興味があるわ。
まあ一般的に彼らはそれを見とるんやと思う。基本的にかなり一般的で、技術によって短期間、短期的には、そや、人々は仕事を失うけど、本質的にはもっと多くの仕事を創出するっちゅうもんや。
世紀初頭の馬車の運転手の議論や。車が来て馬車の運転手が仕事を失った。でも本質的に今、車を運転する仕事を持つドライバーがずっと多くなっとる。
この議論をする時に人々が決して言わんことの一つは、どの仕事が失われて、どの仕事が創出されるかや。
製造業の自動化、ブルーカラーの仕事の自動化の以前の波では、今AIの自動化の波で展開し始めとるパターンがあった。エントリーレベルの仕事を失って、より低いレベルとより高いレベルの仕事を創出するけど、キャリアのはしごが壊れるんや。
そのエントリーレベルが自動化される前にその業界に入った人は皆、高レベルの仕事にアクセスできるけど、大学、大学院学位を卒業する次世代は、学習し訓練し、最初の段階を踏んで上がる機会がないから、実際にその業界で成功せえへん。結果として以前よりもっと低技能の仕事に就く。
それが今、AIで起こっとる自動化の波で見とることや。すでに大学卒業生が以前ほどエントリーレベルの仕事を見つけられへんっちゅう就職危機に直面しとる経済指標を見とる。
今度はブルーカラーの仕事やなくてホワイトカラーの仕事や。影響を受けとるのは金融、法律や。最終的にそれが展開し続けるなら、製造業で見たのと同じことを基本的に見ることになる。古い世代が自分らを向上させ続けて、若い世代が立ち往生し続けるっちゅう間の溝がもっともっと広がるってことや。
効果的利他主義の問題
それで本のもう一つの部分を思い出す。効果的利他主義の効果について議論しとる部分や。本質的に将来の大量の深遠な利益のために苦しみを通り抜けるっちゅうもんやな。人類のために。
香港におるのが興味深い。Sam Bankman-FriedがFTXの初期をバハマに移る前に始めたのがここやから。みんなどう終わったかを知っとる。
だからこのイデオロギーはもはや流行やトレンドやないっちゅうことは理解しとるけど、同じ態度やアプローチがまだ残っとると信じとるか?
そや、興味深いことに、実際に再び流行し始めとると思う。
効果的利他主義がSPFに関連するものとして、彼はいつもEAのイデオロギーのためにFTXを始めたと言っとった。時間をかけて発達し始めたEAのモットーの一つが「稼いで与える」っちゅう考えやった。
本当に本当に本当に金持ちになることにほとんどの努力を費やして、それから慈善事業にすべてを寄付するなら、最初から慈善事業で働くより道徳的に良いっちゅうことや。それが彼の全起源物語やった。慈善事業や非営利事業に行く代わりに、暗号通貨に焦点を当てて、それを急速に富を蓄積する方法として使うことにしようってな。
最終的に、もちろん彼はそのイデオロギーの背景でそこに行き着いた。でも同じイデオロギーがAI世界で本当に本当に人気になっとる。基本的にそれは極端に功利主義的で、功利主義を極端にしたもんや。将来の数千年にわたって創造される可能性があるすべての価値を現在の価値と比較して想像しようとするんや。
明らかに数千年の価値は常に現在を上回るやろう。だからそれは非常にシリコンバレー的なイデオロギーで、実際の現在やなくて未来について考えることを強調する。ホームレス問題に戻ると、そんな感じや。
現在よりも未来重視の問題
その哲学のために、それはAI世界内で非常に激しく広がった。なぜならAI世界は、最終的に未来で膨大な価値をもたらす可能性があるけど、今日はいくつかの不幸な影響があるかもしれんもんを再現したいっちゅう考えで動いとるからや。
現在それは過去5年間、OpenAI、Anthropic、ちょっとGoogle、そんなもんの企業の決定の多くを推進しとると言いたい。
現在の問題への対応不足
OpenAI、Anthropic、特に彼らは理論的な未来に実際に過度に重点を置いて、技術が今現在人々にどう影響を与えとるかを観察して、今起こっとるかもしれんことの問題を修正しようとするよりも、そっちに傾いとる。
今議論したばかりの仕事について戻るけど、この問題はどのくらい深刻で、どんな推定や考えがあるか、社会としてすでにどう影響を与えとるか、影響を与える可能性があるかについて共有できることはあるか?
存在する推定はあまり良くない。なぜなら最終的にAIが人々の仕事を奪っとるんやなくて、AIができることを見た後で労働者を解雇することを決める役員なんや。だからAIが技術的能力として実際に自動化できることと、役員がそのツールでそうする可能性を見た時に自動化しようと決めることとの間には、常に食い違いがあるやろう。
最近、ClaraのCEOが「AIの時代に入る。これらの機能をすべてAIで置き換えたい」と言って多くの労働者を解雇した事例を見た。それでAIが実際にはそれをできへんと分かって、彼らを再雇用せなあかんかった。でもAIがそれほど良くないと分かっても、とにかく十分良いから使い続けようと決める役員がたくさんおると想像できる。
だから人間の行動要素がたくさんあるから、影響がどうなるかを予測するのは困難や。うまくいけば役員も短期的にコスト効率の利益を得ても、実際には長期的により持続可能なビジネスを構築するために、短期的なコスト効率の利益を無視して、後で昇進させる労働力を持つために、それらのエントリーレベルの人々を雇い続けるべきやっちゅうことを理解してくれることを望む。実際に訓練されて上級職に昇進する準備ができとる労働力をな。
大学学位の価値低下
でも最近、Atlantic誌で同僚の一人が書いた記事がある。大学学位がどのくらい価値があるか、大学学位を取らん人と比べて大学卒業者はどのくらい良い雇用を得られるかっちゅう現在の経済指標についてや。その格差は本当に縮まっとって、大学学位はもはや就職市場で人々の役に立ってへん。これは大学学位で通常アクセスするホワイトカラーのエントリーレベルの仕事が自動化されとるっちゅう事実で説明できる可能性がある。
だからそれは文字通り今すでに展開しとるのを見とる影響や。
でも世紀初頭の産業革命との並行線を引くなら、なんで今日は違うんや?産業革命の影響は最終的に、そや、短期的な影響や、短期的、中期的やったかもしれんけど、基本的に第一次世界大戦みたいなことを引き起こしたけど、基本的に人類の進歩を助けた。
短期的に最終的に誰が苦しむかに戻ると思うし、いつも同じ人々が苦しむんや。もう一つのことは、歴史上のほとんどの技術革命は人権を持つ前に起こったから、実際にそれらの歴史的例は模倣すべきもんやないと思う。21世紀の技術革命では、過去にやったことよりも良いことを目指すべきや。
問題は毎回同じ人々が苦しむっちゅうことや。労働者階級、疎外された人々、女性、子供、グローバルサウスの人々や。実際に多くの人は産業革命から回復してへん。
産業革命から出てきた多くの環境被害があって、それらの環境被害に苦しんだコミュニティをまだ悩ませとる。それらのコミュニティは今でも経済機会が抑制されて、他の発達したコミュニティがしてきたような方法で進歩し続けることができへんかった。
だから最終的に産業革命が皆をより良い状況にしたっちゅうのは少し偽の例やと思う。実際にはそうやなかった。今日でも取り組んどる遺産として続いとる劇的に増加する不平等をもたらしたんや。
OpenAIの秘密主義
OpenAIを調査しとる時につまずいたことの一つは、自分の名前や外の世界に伝えとった使命とは明らかに正反対やった秘密主義のレベルやと言うたな。この秘密主義をどう説明する?彼らがそんなに隠そうとしとる秘密は何なんや?
わいがオフィスを訪問しとる時、彼らはGPT-3の作業を始めとったところやった。それはChatGPTの前の世代のモデルや。
彼らがそんなに秘密主義やった理由は、会社にこれがAGIになると本当に信じとる一派があったからや。OpenAIの創設神話の本当に大きな部分は、彼らが良い奴らで、悪い奴らがこの技術を手に入れる前に、この技術に最初に到達する必要があるっちゅう考えや。
だから彼らはこのレベルの秘密主義を持っとった。なぜならこれがAGIになるなら、世界の悪い奴らにAGIを持っとることを知らせることはできへんと思ったからや。それは現在まで続いとる。
役員はまだよく言う。従業員を入社させる時に「あんたは会社に入るんやない。マンハッタン計画の現代版に参加するんや。他のテック会社で働くのとは違うレベルの秘密基準を守る必要がある」ってな。
彼らはまだそれは最終的に、AGIを手に入れた時に他の人にAGIを持っとることを知らせることができへんからやって言おうとする。そうしたら悪い奴らが最初に手に入れるかもしれんからってな。でもそれは情報の支配を維持して、基本的に不透明であることの正当化を試みる本当に素晴らしい修辞的方法でもあるんや。
そや、外部からの統制がないってことやな。何が実際に起こっとるかのな。
そや、AI開発にもっと広範な公的参加を持たんことの正当化なんや。
サム・アルトマン解任劇の真相
あんたは本でかなりの時間を費やしてる。いわゆるクーデターの間に実際に何が起こっとったかの描写に。Sam Altmanが取締役会によって追放されて、数日のうちに素早く復帰した時やな。わいの理解では、Sutskeverやそれに参加した誰からも詳細を聞いたことがないから、まだ謎のままや。何かアイデアがあるか、憶測やけど、あの取締役会で実際に本当に何が起こったんや?
わいの本は、Altmanを解雇することを取締役会が決めるに至った会話についてかなり詳細に書いとる。
それは本当に二つの異なる力が作用した結果やった。一つは、OpenAIの歴史内で会社内の二つの異なる部門の間に常にイデオロギーの衝突があったっちゅうことや。AGIをできるだけ早く構築する必要があると信じる一つの部門は、ユートピアに導いてくれるからやと。もう一つの部門はAGIが皆を殺すと信じとる。
これらの両方の派閥は長い間OpenAIに共存しとった。なぜなら組織として最初に始まった時、AGIは働く価値のあるクールなもんとは見られてへんかった。その用語と関わることさえあれば愚かで非科学的と見られる、非常に疑似科学的なもんと見られとった。
だからAGIに取り組むべきやと信じる人はそれほど多くなくて、彼らは組織に自己選択して入って、基本的にユートピア的ビジョンの推進者か、この壊滅的ビジョンの破滅論者かのどちらかを信じた。
ChatGPTが出た時があって、その時会社でこれら二つの異なる部門の間で基本的に分極化が起こった。なぜならChatGPTは各派閥にとって、自分らがずっと正しかったことの完璧な例証やったからや。推進者には世界中の皆がChatGPTを使って技術で素晴らしいことをしとるのを見て「ほら、技術を早く出すほど、ユートピアに到達する」と思った。破滅論者には皆がChatGPTを使って、そこから出てくるあらゆる乱用を見て「ほら、注意深くあるべきやったし、実際にこの技術を公開せず、統制を維持すべきやった」と思った。
会社内部の混乱
最終的に会社は、イデオロギーの衝突に加えて、シリコンバレー史上どの会社よりも早くサーバーとユーザーへのサポートを拡張しようとしとったから、たくさんの混乱が起こっとった。史上最も急成長した消費者アプリやったからな。それはサーバーをオンラインに保ち、従業員やチーム、すべてを拡張する必要があることを意味した。
それでイデオロギーの衝突が起こって、取締役会はその時もう少し破滅論者寄りやったのに対し、会社はずっと推進者寄りの段階に素早く移行しとった。それに加えて、取締役会は何が起こっとるかと、従業員からの一般的な混乱と会社が従事しとる無謀さについての報告について、すでに少し懸念しとった。
同時に、Altman特にについて、そしてそんな重要性の高い会社を率いることができるかどうかについて、たくさんのフィードバックがあった。Altmanのキャリア全体を通じて付いてまわっとる批判の一つは、彼が真実と緩い関係を持っとるっちゅうことや。彼は状況の根本的真実に基づくんやなくて、人々が聞きたいことに基づいて、異なる人々に異なることを言う人や。
嘘をついとるっちゅう意味か?
真実との緩い関係や。
最大の批判者は彼を嘘つきで操作者やと言う。最大の擁護者は、彼は人々にメッセージを個人化して、他の誰も説得できへんことを最終的に人々に説得させることが信じられんほど上手やと言う。だからわいが特定の言葉を使うんは、それが見る人の目次第やからや。話す人によって、彼が嘘をついとるか、それとも深く変革的なことをしとるかを全く違う方法で枠づけるやろう。
でも問題は、彼が最高上級役員と取締役会の両方から同時に相当な信頼を失ったっちゅうことや。なぜなら彼らそれぞれが特定の状況について率直やなかったことで異なる挑戦を経験したからや。
解任に至る経緯
基本的に起こったんは、Altmanが二人の最高上級役員と取締役会の3人のメンバーの信頼を失ったっちゅうことや。最高科学責任者Ilya Sutskever、最高技術責任者Mira Murati、それに3人の独立取締役Helen Toner、Adam D’Angelo、Tasha McCauleyや。
彼らそれぞれが異なる理由でAltmanとの信頼を失ったけど、それぞれが彼に操作されたか、特定の詳細について意図的に率直やなかったと感じる経験をしとった。そして彼らそれぞれが偶然にその率直やなさの欠如を発見しとった。
本質的に2人の上級役員が取締役会にアプローチして「Sam AltmanがAGIに導くことを信頼してへん」と言った。もっと破滅論者寄りで、AGIが間違った手に落ちると非常に壊滅的になる可能性があると信じとる取締役会にとって、それは真剣に受け止める必要がある信じられんほど深刻な申し立てやった。
それで彼らは、Altmanが会社のリーダーとして留まることが実際に意味をなすかどうかを激しく議論する一連の会議を持った。それらの審議の終わりに、そうやないと結論づけて、それが最終的に彼らが彼を解雇することにつながったんや。
それでも彼は戻ってくることができた。
Altmanが非常に得意にしとることの一つは、彼は一世代に一度の資金調達の才能で、他の人が金銭的報酬を受けるために彼が要石となる関係を確立することがかなり得意なんや。
彼はMicrosoftとOpenAIの関係で要石やっただけやなく、MicrosoftはOpenAIの最大の後援者で、OpenAIの技術の独占ライセンスを得とって、それがMicrosoftのビジネスがかなりうまくいくことを可能にしとった。Altmanはそのパイプ役やった。
彼は従業員のパイプ役でもあった。なぜなら取締役会がAltmanを解雇した時間中、実際に最終決定に向かっとったテンダーオファーがあって、それは一部の従業員が数百万ドルを現金化することを可能にするはずやった。Altmanがそこにおらんかったら、テンダーオファーは消失する可能性が非常に高くて、これらの従業員の多くは現金化を得られへんかった。
彼らの中には、その現金化を得られるっちゅう考えに基づいて、すでに家の頭金を払っとる人もおった。だからそこにも高いレベルの金銭的脆弱性があった。
それから会社にお金を入れとった投資家も冷や汗をかいとった。Altmanがそこにおらんなら、スタートアップへの投資を続けたくないっちゅう考えで。だから彼なしに突然消えるはずのテーブルの上にたくさんのお金があった。
復帰の要因
金銭的脆弱性が、ほとんどのスタッフがAltmanの復帰に投票する主な動機やったと感じる?それとも様々やった?
様々やった。たくさんの交差する動機があったけど、それは支配的なもんの一つやった。
もちろん、彼が本当に素晴らしいリーダーやと思っとった従業員もたくさんおったけど、お金は主要な要因やった。テンダーオファーだけやなくて、AGIは構築するのに極めて資本集約的な技術になると思うから、Altmanは会社を率い続ける資金調達能力を持つ唯一の人やと多くの人が感じたからでもある。テンダーオファーだけやなくて、次の5年、10年でもな。
だからお金は、従業員の多くが最終的に取締役会に圧力をかけるために結集し、投資家が取締役会に圧力をかけるために結集し、Microsoftが取締役会に圧力をかけるために結集して、最終的にAltmanを連れ戻すために非常に非常に重要な部分やった。
家族内の深刻な疑惑
Altmanについて話してるから、あんたは彼の妹からのかなり深刻な申し立てを含むことを決めたな。
そや。
なんであんたはそれをすることを決めて、あんたの本でこの部分を取り上げることが必要やと思うんかを説明してくれる?
Altmanには3人の兄弟がおる。4人の中で最年長や。すぐ下に2人の弟がおって、それから彼より9歳年下の妹がおる。
兄弟らは皆テック業界に入って投資家になるっちゅう彼のキャリアに従った。一番下の妹はいつも家族の中では変わり者やった。芸術家、コメディアン、作家になりたがって、テックに入ることには決して興味がなかった。
彼女は今家族から疎遠になっとって、一連の申し立てをしとる。最悪なのは、Samが子供の頃に彼女を性的に虐待したと言っとることで、この虐待を申し立てる訴訟を法廷に提起しとる。
わいが含めた理由の一部は、彼女が訴訟を提起したからや。それは世界の役員としてのSam Altmanの行動に今大きく圧力をかけとるもんの一つやっちゅうことを認識することが重要で、それは明らかに会社にも圧力をかけとる。
わいがOpenAIからの視点を得ようと広範囲に試みた時、彼らはわいの本に参加せんかった。わいは報道での詳細な発見を40ページのコメント要求として送って、本に彼らの視点を含められるように回答したいかどうか尋ねた。彼らはそれをせんかって、妹にインタビューしたことを知った一つの場合を除いて、わいと会おうとせんかった。
だからそれは会社の問題になっとる。会社の他の役員の決定にも影響を与えるレベルに達しとる。だからそれはSamがCEOとしてどう行動するか、会社が世界でどう行動するかを導く多くの要因の一つの重要な側面やった。
虚偽申し立てと真実の申し立て
Annie(妹)について特に興味深いもう一つのことは、わいが本で言っとるように、彼女の申し立てが真実かどうかは実際に知ることができへんっちゅうことや。なぜならこれは20年以上前に起こったであろうことについて話しとるからで、最終的にジャーナリストとして、それが真実かどうかについて結論を出すことはできへん。わいはそこにおらんかったし、証拠も見てへん。
でも彼女は文書を持っとる他の申し立てをした。具体的に、彼女は深刻な身体的健康と精神的健康の問題に直面しとる時に、本当に必要やった時に家族から相当な経済的支援を差し控えられたと申し立てとる。
彼女は身体的健康記録、精神的健康記録、それに財政的援助を要求したけど提供されへんかったことを示す家族との交換や通信を提供した。それが最終的に彼女が住居不安定、食料不安定を経験して、家賃と食費を払うためにセックスワークに転向することにつながった。
彼女の物語について印象的やったもう一つのことは、彼女がSam Altmanより世界の平均的な人をより代表しとるっちゃうことや。だから彼女のAIの経験は、Sam Altmanが平均的な人がAIをどう経験するかについて話すことより、もっと例証的であるべきや。
セックスワーカーとして、経済的に脆弱で多くの健康上の挑戦を持つ人として、彼女の実際のAIとの経験は主に、セックスワークに従事した後、もうオンラインで多くの機会にアクセスできへんくなったから、経済的機会が制約されたっちゅうもんやった。
AIアルゴリズムによる制約
なんでそうなったかについて専門家と話しとる時、彼らが指摘したんは、多くのオンラインプラットフォームは、セックスワークと全く関係ない口座であっても、AIアルゴリズムによって問題として既にフラグが立てられとるから、セックスワーカーの足跡を制約しようとするっちゅうことやった。
だから彼女はYouTube、Etsy、ポッドキャストを試しとったけど、そういう方法でも牽引力を得られへんかった。
AltmanとOpenAIの他の役員が約束するすべてのこと、AIが貧困を軽減する、AIが皆に手頃な医療を提供する、AIが食料危機を解決するっちゅうすべてのことは、彼女が経験したもんやなかった。でも彼女は実際に多くの他の人々が今経験しとることを経験した。それは経済的機会の制約や。
Anthropicの問題
Sam AltmanとOpenAIは置いといて、Anthropicみたいな他の会社があって、実際に安全性を気にかける、透明性を気にかけるもんとして自分らを提示しとる。でもわいの理解では、あんたはAnthropicについても非常に異なる認識を持っとる。彼らが宣言するアプローチの何が問題なんかを教えてくれる?
これはOpenAIとAI業界内に長い間存在したイデオロギーの衝突に戻る。推進者と破滅論者の間のや。Anthropicはよく破滅論者のイデオロギーにより根ざしとる。Dario Amade自身は非常にその破滅論者の考え方にあって、AGIが極めて慎重に開発されへん限り、壊滅的な影響につながる可能性があると信じとるけど、そうすれば深く前向きな影響につながる可能性があると。
推進者と破滅論者は自分らを互いの宿敵やと考えとるけど、わいは彼らを同じコインの両面やと考えとる。なぜなら彼らそれぞれがAGIは可能で、すぐそこまで来とると信じとるからで、これは科学的コンセンサスに根ざしてへん。実際、最近の調査によると、長年のAI研究者の75%は、人間の知能を再現するのに利用可能な技術をまだ持ってへんし、最終的にそれが可能かどうかも知らんと思っとる。
でも推進者も破滅論者も、それが起こると信じとる。差し迫っとると。そして両方とも、彼らだけがこの技術を統制し開発することを許されるべきやと結論づける。
だからわいが見とるんは、AnthropicはOpenAIと同じことをしとるっちゅうことや。二つの中でより良いもんとして自分らを位置づけるかもしれんけど、各会社の実績を実際に見ると、まったく同じことをしとる。
一方が他方と違うと思うかどうかは、単にブランディングの問題や。両方ともスケーリング研究所や。両方とも大規模生成AIモデルを開発しとる。両方ともAGIを追求しようとしとる。
彼らがしようとしとるスケーリングの側面と、それをしようとする速度が、わいが本で論じとるように、労働搾取、データプライバシー侵害、著作権侵害、そして最終的に環境と公衆衛生の害に関して、世界中で多くの広大な結果をもたらしたと。
LLMsの根本的問題
でもLLMsの何が正確に問題なんや?
スケールや。スケール、速度、安全統制の欠如。途中でのあらゆる欠点にもかかわらず、商業的に成功しようとする無謀な追求のような感じや。
まず第一に、わいにとってはスケールや。スケール自体が問題のある理由は、これらの企業がやったような程度まで技術を拡張する必要がある時、これらのモデルを訓練するために英語のインターネット全体をスクレイピングしとる時、自動的に多くのデータプライバシー挑戦、著作権挑戦に陥るし、本質的に理解が困難なデータセットを使用することになる。なぜならこれらの企業が今、データセットを手動で調べて、実際に何が入っとるか、モデルに何を送り込んどるかを理解するのが困難なスケールやからや。
だから非常に汚染されたデータセットがモデルに入ることになって、それは理解と制御が困難なモデルの行動につながるだけやなくて、労働搾取にもつながる。だからわいがインタビューしたケニヤの労働者Mofat Okinに戻るんや。彼の兄弟はChatGPTによって執筆の仕事を自動化された。
でもMofat自身は、汚染されたデータセットでモデルを訓練した時に何が起こるかの影響についてコンテンツモデレーションを実行するために契約されたケニヤの労働者チームの一部やった。憎悪的で毒性があって人種差別的で虐待的なことをたくさん吐き出し始める。
MofatはOpenAIの性的コンテンツチームにおって、そのコンテンツがユーザーに届くのをブロックするメカニズムをOpenAIが開発できるようにするメカニズムを開発しようとしとった。OpenAIがユーザーに届くのをブロックするデータに注釈をつけとった。
Mofatにとってそれが意味したんは、インターネット上で最悪の性的コンテンツを毎日毎日読むことやった。OpenAIがモデルに最悪の性的コンテンツを想像するよう促しとったAI生成コンテンツもやった。それが彼の心理を深く破綻させた。以前の彼とは別人の抜け殻にした。
最終的に妻は彼を去った。なぜなら彼がなんでその変化を遂げとるかを理解できんかったし、彼は仕事が一日中性的コンテンツを読むことを含んどることをどう説明すればいいかを知らんかったからや。だからそれは彼の家族を破綻させた。彼のコミュニティと彼に依存しとった人々を破綻させた。その労働搾取は大規模な汚染されたデータセットを使用することの結果でしかない。
環境への深刻な影響
それからスケーリングパラダイムの環境被害がある。これらのモデルの訓練と展開をサポートするために異常な量の計算インフラが必要で、それが世界中でデータセンターとスーパーコンピューターの前例のない建設速度につながっとる。
最近McKinseyのレポートがあって、現在の建設ペースに基づいて予測すると、次の5年でカリフォルニア州が年間消費するエネルギーの2倍から6倍の量を地球規模のグリッドに追加する必要があって、そのほとんどが化石燃料によってサービスされるやろうと。
実際に数日前にUN(国連)のレポートが出て、AIデータセンターがAI開発と展開のためにこれらのデータセンターを建設することから、テック大手の炭素排出量が150%の増加を見たから、世界的に気候進歩の大きな逆行を単独で導いとると言った。
だから気候危機を加速させとる。これらのデータセンターに電力を供給する石炭発電所やメタンガスタービンがある時に起こる大気汚染ももちろんある。すでにそれによって影響を受けとるコミュニティの多くの報告を見とる。
新鮮な水の危機も発生する。なぜならこれらのデータセンターは新鮮な水で冷却される必要があるからや。他の種類の水では冷却できへん。なぜなら細菌の成長につながって、時間をかけて機器が腐食するからや。
だから文字通り世界中で今、新鮮な水資源へのアクセスのためにデータセンターと競争しとるコミュニティがある。わいはそれらのコミュニティの一つ、ウルグアイのモンテビデオについて書いとる。彼らは歴史的レベルの干ばつを経験しとった。
モンテビデオ政府は、人々が蛇口を開けた時に何かが出てくるようにするためだけに、公共飲料水供給に毒性のある水を混ぜとった。ボトル水を買うには貧しすぎる人々がその毒性のある水を飲んどって、それは女性の流産率の増加を意味しとった。高齢者は慢性疾患の炎症があった。そのさなかにGoogleがそのコミュニティで新鮮な飲料水を使うことを提案するデータセンターを建設することを決めた。
Bloombergが最近出した記事では、これらのデータセンターの3分の2が実際に水不足地域に入っとると言った。
スケーリングの非効率性
それすべてがスケールに根ざしとって、問題は、あるいは解決策は、AI進歩のためにスケールは実際に必要ないっちゅうことや。これは人々が時々、スケーリングがAI進歩を得る唯一の方法やと信じとるけど、実際にはそうやない。AI進歩を得る極めて非効率な方法なんや。
例えば今年初めに中国のモデルDeepSeekで見たように、実際に同じ能力を得るために異常に少ない量の計算インフラを使うことができる。だからその答え、質問は、なんでそうせんかったんかや。
DeepSeekについて言うたから、わいは不思議に思うパラドックスがある。シリコンバレー企業が本質的に中国市民が自分らの製品にアクセスすることを禁止しとる一方で、中国のモデルから逆方向に来るそんな制限はない。それをどう説明する?
米国政府が何を考えとるかと、これらの企業が何を考えとるかをどう説明するか?
わいの推測は、これらの企業が中国市民が自分らのモデルにアクセスすることをブロックしようとしとるんは、技術でのアメリカの支配を強化しようとするアメリカ企業やっちゅうことを米国政府に態度で示す方法としてで、だから彼らは積極的に中国に利益をもたらすつもりはないっちゅうことや。
それがわいの推測や。実際になんでそうするかは知らん。
でもこれには矛盾がある。もしAGIを開発するこの進歩を達成することが人類の利益のためのものなら、今は米国政府や米国自体の利益のためなんか。
この製品にアクセスする異なる方法がある場合、VPNを使うことができて、中国でVPNを通じて西洋の技術すべてにアクセスするのはかなり一般的や。単にユーザーをブロックしても、彼らがアクセスできへんと思うのは素朴や。だからあんたはそれが態度やと思う理由がそれや。
まさに。それがわいに態度やと思わせることや。これが本当のブロックやないことを彼らはよく知っとる。
Careless Peopleっちゅう本を読んだことあるか?最近Facebookについて出た本や。それは以前のFacebook役員が、Facebook役員として持った会話について以前に報告されたことのない内部詳細を共有して書いた本や。
彼らが明らかにしたことの一つは、Facebookは中国を去ったことがないっちゅうことや。VPNを使ってFacebookをまだ使っとる中国ユーザーがたくさんおることを十分知っとって、彼らはその使用を積極的に培養しとったけど、米国政府の目にはブロックされとった。
政府とのパワーゲーム
本質的にそれは国と政府の間のパワープレイのこの側面にもつながる。このAGIの追求、この攻撃的で残忍なLLMsのスケーリングと、この業界の開発の全体的な速度とペースが、商業的目標と動機を超えた政府の欲望によって決定されとると感じるか?
わかった。わいの本のタイトルが『AIの帝国』と呼ばれる理由は、OpenAIが企業帝国やと論じるからや。それを言う時、わいは単に大企業やっちゅう意味やない。歴史的意味で文字通り、英国東インド会社が企業帝国やった方法でや。
わいは本でその文字通りのアナロジーは使ってへんけど、Trump政権下でOpenAIと米国政府がどう相互作用しとるかで、ますます関連性が高くなっとる。なぜなら企業帝国としての英国東インド会社も、国家帝国である英国王室によって支援され、埋め込まれとったからや。
最終的に当時の英国王室は、この東インド会社が経済協定を締結し、政治的影響力を獲得し、最終的に戦争を行い、税金を徴収し、会社として世界の他の部分でこれらすべてのことを行い、世界の他の部分を植民地化することを喜んで許可しとった。なぜなら彼らの考えは、最終的に国家が会社を国有化できるからで、それが彼らがしたことで、そうすればすべてのその企業資産が国家資産になって、公式にインドの植民地化は最初に東インド会社の命令で起こって、会社が国有化された時に、インドは公式に王室の植民地になった。
だからわいは隠れたアジェンダがあると思う。戦略的なもんみたいな。
隠れてるとは思わん。これがOpenAIとTrump政権がそれぞれどう運営しとるかを理解するための本当に本当に重要な歴史的アナロジーやと思う。
OpenAIは間違いなく自分の帝国を築こうとしとるけど、米国政府を使おうとしとる。規制を避けるためにアメリカ企業として自分らを位置づけようとしとる。なぜなら米国政府は最終的にOpenAIを規制し、OpenAIにチェックを置くことができる唯一の政府やからや。
だから彼らは「我々はアメリカや。最終的に国家を強化するのを助けとる」っちゅうゲームをする。米国政府もそれが本当に好きや。これらの企業帝国に米帝国の命令を実行してもらいたいんや。
Trump政権は、アメリカ帝国を再建して、そのために他国から土地を奪取したいっちゅうことについて非常に透明やった。
だから世界中で土地を取得し、データセンターを建設し、アメリカのハードウェアとソフトウェアを設置する非常に成功した多国籍企業であるこれらの企業帝国を持つより良い方法は何や?いつかこれらの企業を国有化することの現代版のようなもんが、Trump政権や一般的な米国政府の希望として見とることや。これらの企業ができるだけ成功して、できるだけ世界的な影響力を持つように助けて、最終的にそのすべてを単にアメリカの資産に変えることができるようにってな。
でも会社もまた、彼らの最終目的は単に国有化されて、すべての資産を国家資産に変えられることやないと思う。彼らもまた単に帝国になりたいっちゅうゲームをしとる。米国政府を上回るほど大きくなるまで帝国を構築し続けることができるなら、彼らがすべてを支配し統治する側になる。
解決策への提案
わかった。あんたは本の中でこの業界を取り巻く多くの論争を描写して、たくさんの警鐘を鳴らしとる。必然的にあんたも、わいも本を読みながら思うんやけど、行動への呼びかけは何や?あんたのビジョンは物事がどうあるべきかやし、これすべてについて何ができるか?
わいが本当に本当に見たいことの一つは、人々がAI開発の軌道を違う方向に変え始めることや。スケーリングパラダイムについて考えるのをやめて、実際にAIでの本当のイノベーションについて考え始めることや。
わいが意味するんは、OpenAIがスケーリングパラダイムに焦点を当て始める前は、分野の多くの研究者とテック業界内の起業家が実際に正反対の方向に行っとったっちゅうことや。
彼らは小さなAIについて考えとった。極めて少量のデータと極めて少量の計算で、どうやって本当に強力なAIモデルを構築できるか?それは本当にエキサイティングで革新的な研究と技術構築やったけど、それからただ消散した。
最近誰かがわいに指摘したんは、スタートアップに投資された資本の分布を見ると、90%かそれに近い本当に本当に高い数字が、実際にOpenAIとAnthropicに閉じ込められとるっちゅうことや。だからそれは巨大な機会コストのレベルで、スケールの基盤でそんなに費用のかからない根本的に異なるAI技術を想像する他の本当に革新的な方法にお金が行ってへん。
わいは本当に、これを聞いとる研究者、これを聞いとる起業家、これを聞いとる投資家が希望する。それは実際に巨大な市場機会や。すべての投資家とすべてのスタートアップが、過度に飽和状態で実際にそれほどつながってへん単一のアプローチに群がる代わりに、その分野での健全な競争レベルがない代わりに、実際に離れて、実際に必要とするAI技術の種類に焦点を当て始めることや。
具体的な技術提案
実際に必要な挑戦に取り組む特定のタスクのAIモデル、本質的に計算の強みに適しとる、薬物発見、より良いエネルギー貯蔵ソリューションのための材料発見、グリッドへの再生可能エネルギーのより多くの統合、グリッドの復元力、MRIスキャンでのより早い癌の検出やMRIスキャンでのより早いアルツハイマーの検出のようなより良い医療アプリケーションみたいなもんや。
これらは長い間存在しとった技術やけど、大規模に商業化されてへん。もしそれらを開発し、展開し、大規模に商業化する方法があったら、それはAIの本当の広範囲な利益を皆にもたらすと思う。
視聴者、仕事でキャリアを積んどる人々へのあんたのメッセージは何や?彼らは基本的に会社、小さなビジネスを経営したり、企業で働いたりしとる。彼らはこれについて何ができる?彼らもまた競争のプレッシャーの下にある。AIに投資せんかったらビジネスを失う避けられないリスクがある。だから彼らはこのパズルをどう解決するんか?でも彼らは本当に良い人になりたい。悪になりたくないし、害を与えたくないけど、間に挟まれた状況に置かれとる。
技術が実際に何ができて何ができへんかを学ぶのに時間を費やすと思う。そうするとバブルが弾けることと、現在のLLMバブルが弾けることが本当に明らかになる。
バブルが弾けるっちゅうのはどういう意味や?
この特定のアプローチに入った投資額は、それがすべてのその投資家に報いる同等の利益を生み出すっちゅう考えに基づいとる。400億ドルが投資された。技術が実際にこれらのモデルの技術的能力を理解すると、それらがそれをせえへんっちゅうことがわかる。400億ドルをどこから取り戻すつもりや?
これらのモデルは狭い事例でしか使えない。人々がそれらが実際によく適してへん事例で使おうとする見出しをすでにたくさん見とる。これらのLLMを法的アシスタント研究に使おうとして、最終的に法廷で偽の引用で完全に幻覚の事件を提起することになった弁護士のスキャンダルを見た。
だから最終的に、LLMsが展開されるべきやない方法で失敗するそれらの例がもっともっと出てくると、これらの技術の展開セットは狭くなり始める。それがどのくらい狭くなるかがわかると、400億やその他いくら多くのお金がそれに投入されるかを取り戻さんっちゅうことがわかる。
それは400億やない。それはOpenAIが最新の資金調達ラウンドで調達した金額だけや。でもOpenAIがTrump政権とも発表したStargateプロジェクトは、これらの次世代LLM技術を訓練するための計算インフラに5000億ドルの投資や。
だからわいは言いたい。これらのモデルが実際に何ができるかについて自分を教育してくれ。そうすればLLMsが言われとるすべてやないっちゅうことが非常に明白になって、それに投資したり、そのかごにすべての卵を入れたりするのにそれほど時間を費やすべきやないっちゅうことや。
また、AIのどこに投資すべきかももっと明らかになる。特定のセクター別アプリケーションや特定のよく範囲を定められた挑戦に焦点を当てた、より特定のタスクのAIモデル。それが実際にあんたをより競争力にするやろう。
倫理的AIの例
OpenAIやAnthropicや他の大きなモデルより好ましい倫理的AIや何かの例はあるか?
わいが今言ったアプリケーションすべてが倫理的AIやと思う。参照できる特定の名前はあるか?
AlphaFoldはAIモデル、特定のタスクのAIモデルで、DeepMindがLLMパスを開始してAlphaFold研究から離れる前に開発したもんや。アミノ酸構造配列を入力した時に、タンパク質がどう折りたたまれるかを極めて正確に予測するように設計された特定のタスクのAIモデルやった。
それは疾患のより良い理解を促進し、薬物発見を助けて、2024年に化学のノーベル賞を受賞した。だからそれは何かで、LLMsやChatGPTやそんなもんとは何の関係もない言語技術に基づいて構築されてへんかった。
汚染されたデータセットで訓練されてへん。実際に極めて純粋なデータセットで訓練された。それがそんなに高精度でその予測ができる理由や。
本質的にAIの計算の強みが得意で、人間が得意なもんと違う問題に取り組んどった。人間は決してそれをできへんやろう。だからそれはAIの完璧な事例や。強力な計算を必要とする高度に計算的な問題で、最終的にこの技術の下流効果は本当に有益になるやろう。
開発でも害がなく、LLMsよりも展開でもずっと多くの利益がある。
未来への展望
今後どう発展するかについてのあんたの個人的見解は?バブルが弾けると言うたけど、次は何や?次の10年のAI開発についてもっと悲観的か、それともトンネルの終わりに光が見えるか?
一般的に予測は信じてへん。なぜなら予測は未来が書かれとると仮定するからや。
わいがこの本を書いた理由の一部は、未来は書かれてへんし、皆が未来を形作る役割を持っとると思うからや。人々が、実際に金融的、環境的、労働的、社会的意味をなさん特定のアプローチに過度に重点を置いとることを真剣に受け止めて、他の種類のAI開発にリソースを移し始めるなら、ずっと良い場所に行き着くやろうっちゅうことについて、わいは非常に楽観的や。
だからわいは人々がその責任を引き受けて、そのエコシステムにどうつながるかを理解することを望む。
ありがとう、Karen。あんたと話せて楽しかった。
どうもありがとう。


コメント