テクノロジー著者Karen Hao:「Sam Altmanのような人々は大丈夫なんです」| Science Quickly Podcast

AGI・ASI
この記事は約20分で読めます。

本動画は、テクノロジージャーナリストのKaren Haoが著書「Empire of AI」を通じて、現代のAI産業を帝国主義や植民地主義の枠組みで分析した内容を紹介するものである。HaoはOpenAIをはじめとするAI企業が、資源の略奪、労働者の搾取、環境破壊を通じて巨大な権力を蓄積している実態を明らかにする。特にSam Altmanらが掲げるAGI(汎用人工知能)の追求は科学的根拠に乏しい信仰に近いものであり、利益動機とイデオロギーが融合した帝国主義的構造だと指摘する。AI開発に伴う深刻な環境負荷、ケニアなどでのデータアノテーション労働者の搾取、AGIによる問題解決という幻想の危険性などが具体的に語られる。一方でHaoはAI悲観論者でも楽観論者でもなく、気候変動対策やタンパク質構造予測など専門特化型AIの可能性に希望を見出し、市民による草の根的なガバナンスと企業への説明責任追及の重要性を訴えている。

Tech author Karen Hao: 'The Sam Altmans of the world are going to be fine" | Science Quickly Podcast
Generative artificial intelligence has transformed our inboxes, classrooms and even medical records—but at what cost? In...

Karen Haoが語るAI帝国の実態

Karen Haoです。私は「Empire of AI」の著者です。

この本について本当にすぐに飛び込みたいと思います。なぜなら取り上げるべきことがたくさんあるからです。私の大好きなタイプの密度の濃い本なんです。でも、本の冒頭でまず触れていることから始めたいと思います。それはあなたがAIについて多くの記者や規制当局者さえも持てていない冷静な視点を持てているということです。彼らがその技術に精通していないからか、それともSam Altmanや誰かがAIの未来について語り始めると目が星になってしまうからか。なぜあなたはこんなに複雑な主題についてそこまで冷静でいられるのでしょうか。

私は本当に運が良かったんだと思います。2018年にAIを取材し始めたんですが、当時はこの分野が今よりずっと騒がしくなかったんです。私はMIT Technology Reviewの記者で、そこは様々な分野から出てくる最先端の研究を取材することに本当に力を入れていました。

だから私は時間の大半を学者たちや、長年この分野にいたAI研究者たちと話すことに費やしました。彼らには分野の進化について、その背後にある様々な哲学的アイデアについて、起こっている最新の技術について、そして当時の技術の限界についても、たくさんのばかげた質問をすることができました。

だから私が持っている唯一の利点は文脈だと思います。シリコンバレーやSam Altmanのような人々が議論を曇らせ始める前に、私は何年もの文脈を持っていました。そしてそれによって今起こっている情報の洪水をより冷静に分析することができるんです。

AIを帝国主義と植民地主義の枠組みで理解する

あなたは本の中心にある前提を据えていますね。私はあなたがそれについて非常に強力な論証をしていると思うんですが、それは私たちがAIを歴史を通じた帝国や植民地主義の観点から考えるべきだというものです。なぜそれが正確で有用なレンズだと思うのか、そしてあなたの調査や取材の中で何があなたをこの結論に導いたのか説明していただけますか。

OpenAIのような企業を「帝国」と呼ぶ理由は、彼らが運営している規模の純粋な大きさと、社会の非常に多くの側面で発展させてきた支配的な影響力の両方によるものです。しかし同時に、彼らが膨大な量の経済的・政治的権力を蓄積してきた戦術によるものでもあります。

具体的には、彼らが世界の残りの大多数を収奪することを通じてその権力を蓄積しているということです。

本の中で彼らがこれをどのように行っているかについて多くの類似点を強調していますが、その一つは彼らが世界の様々な地域から並外れた量の資源を抽出しているということです。それが物理的な資源であろうと、個人やアーティスト、ライター、クリエイターから彼らがモデルを訓練するために使うデータであろうと、あるいは彼らが技術の開発に貢献する労働者から経済的価値を抽出する方法であろうと、その労働者たちは決してそれに見合った分け前を得ることはありません。

そして現在のAI産業には巨大なイデオロギー的要素もあります。時々人々は私に「なぜ単に資本主義批判にしなかったのか。なぜ植民地主義を引き合いに出さなければならないのか」と尋ねます。それは、これらの企業の活動を単に資本のレンズを通して見ると、実際には意味をなさないからです。OpenAIには実行可能なビジネスモデルがありません。彼らは今後数年間で1兆4000億ドルを費やすことにコミットしていますが、収益は数百億ドルしかありません。利益動機はイデオロギー的動機と結びついているんです。つまりAGI、汎用人工知能の探求です。これは信仰に基づくアイデアであって、科学的アイデアではありません。

これはAI開発の特定の道を進み続ければ、何らかのAIの神のようなものが現れて人類の全ての問題を解決するか、私たちを地獄に突き落とすという準宗教的な概念なんです。

そして植民地主義は資本主義とイデオロギーの融合なので、古い帝国とAIの帝国の間には多数の類似点があるんです。

そもそも私がこのことについて考え始めたのは、この議論を明確に述べ始めた多くの学者たちがいたからです。私に特に影響を与えた2つの学術研究がありました。

一つはDeep Mindとオックスフォード大学のWilliam Isaac、Shakir Mohamed、Marie-Therese Pngによって書かれた「Decolonial AI」という論文です。もう一つは2019年にNick CouldryとUlises Mejiasによって出版された「The Costs of Connection」という本で、テック産業を支えるデータ植民地主義のアイデアも明確に述べています。

私はこれがOpenAI、ChatGPT、そして今AIをめぐってどこにいるのかを理解するための枠組みでもあると気づいたんです。

AIの環境への深刻な影響

AIが現在何ができるのか、そしてこれらの企業が計画している継続的な成長の規模について、特にごく近い将来についてお話を伺いたいと思います。具体的に、あなたの本が触れていて、AIをめぐる多くの会話が本当に焦点を当てていないと思うのは、これらのデータセンターで私たちが目にしている環境への影響の規模と、私たちがさらに多くのデータセンターを建設しようとしているものの上に、つまり実行可能な土地と飲料水の上にです。あなたが目にしていて最も懸念しているAIの環境への影響について話していただけますか。

ええ、AI産業の開発の道が悪化させている交差する危機がたくさんあるんです。

一つはもちろんエネルギー危機です。Sam Altmanはほんの数週間前に、彼がどれだけの計算インフラを構築したいかについて新たな目標を発表しました。彼は2033年までに250ギガワットのデータセンター容量を敷設したいと考えています。それも彼の会社だけのためにです。それが建設可能かどうかさえ誰にもわかりません。Altmanはこれに約10兆ドルかかると見積もっています。どこからそのお金を得るつもりなのか。誰にもわかりません。でももしそれが実現したら、このインフラに電力を供給するために使う主要なエネルギー源は化石燃料になります。なぜなら2033年までに核融合で大きなブレークスルーを得ることはないでしょうし、再生可能エネルギーでは足りないからです。なぜならこれらの施設は24時間365日稼働する必要があり、再生可能エネルギーではその供給ができないからです。

そしてBusiness Insiderは今年初めに調査を行い、公益事業者がデータセンターの需要に対応するために再生可能エネルギーの目標を「魚雷攻撃している」ことを発見しました。だから私たちは天然ガス発電所の寿命が延長され、石炭発電所の寿命が延長されているのを目にしています。

そしてそれは単に大気中に排出物を送り込んでいるだけではありません。コミュニティに大気汚染も送り込んでいるんです。そしてBusiness Insiderの調査の一部として、歴史的に既に清浄な空気への基本的権利にアクセスできないという苦しみを味わってきたコミュニティにおける大気汚染のこの天文学的な増加から生じる可能性のある医療費が数十億ドルに上ることがわかりました。

例えばテネシー州メンフィスから出てきた素晴らしい報道を私たちは目にしてきました。Grokを訓練するために使われているスーパーコンピューターColossusが、35基の無許可のメタンガスタービンで稼働していて、そのコミュニティの空気に有毒な汚染物質を送り込んでいるんです。

そしてこれらの施設の淡水消費の問題もあります。これらの施設のほとんどは水で冷却されています。なぜなら皮肉なことにそれがよりエネルギー効率的だからです。でも水で冷却する場合、淡水で冷却しなければなりません。なぜなら他の種類の水は機器の腐食や細菌の繁殖につながるからです。そしてBloombergは調査を行い、これらの新しい施設の3分の2が水不足地域に入り込んでいることを発見しました。

だから文字通り世界中のコミュニティがシリコンバレーのインフラと生命を維持する資源を奪い合っているんです。

Truthdigからの記事がそれを本当にうまく表現していました。AI産業、私たちはこれを重工業として考えるべきだと。これは環境と世界中の公衆衛生にとって極めて有害なんです。

AGIによる問題解決という幻想

一部の人はAIの環境への影響に関する懸念は単にAIによって解決されるだろうと言うかもしれません。「AIは気候変動の解決策を教えてくれるだろう。私たちが以前にやったことのない方法で数字を処理してくれるだろう」と。それは現実的だと思いますか。

私が言いたいのは、これは明らかに推測に基づいているということです。そして私が今述べた害は文字通り今まさに起こっているんです。

だから問題は、私たちは実際の害にどれだけ長く対処し、推測的な可能性を待ち続けるつもりなのかということです。もしかしたら道の終わりには全てうまくいくかもしれないという。

もちろんシリコンバレーは私たちに、彼らが望む限り耐えられると言います。なぜなら彼らは大丈夫だからです。Sam Altmanのような人々は大丈夫なんです。彼らはバンカーを建設済みで、惑星を破壊した後に来るどんな環境大惨事でも生き延びる準備が全て整っているんです。

でもAGIが出現して全てを解決する可能性は天文学的に小さいんです。そして強調しなければならないのは、AI研究者自身でさえこれが実現するとは信じていないということです。今年初めに行われた調査では、産業界の懐に入っていない長年のAI研究者の約75%が、私たちの全ての問題を解決する汎用人工知能への道を進んでいるとは考えていないことがわかりました。

だからその観点から見ても、私たちは科学的にも裏付けられていない遠い地平線上のほんのわずかな可能性を、今まさに起こっている並外れた取り返しのつかない一連の損害を正当化するために使うべきではありません。

Sam Altmanと権力構造の問題

Sam Altmanはあなたの本の中心人物です。彼は世界で最大かつ最も重要なAI企業の一つとなったOpenAIの中心人物です。でもあなたは本の中で、あなたの意見では彼は人々に聞きたいことを言うマスターマニピュレーターであって、彼が真に信じていることや客観的真実を言うわけではないとも述べています。Sam AltmanはOpenAIの現在の能力や現実的な将来の能力について嘘をついている、あるいは嘘をついてきたと思いますか。それとも彼は単に自分自身のマーケティングに騙されているのでしょうか。

OpenAIについて複雑なことがあって、本を取材していて最も驚いたことは、元々私は彼らのAGIに関する主張のいくつかに対して「これは全てレトリックであって、実際にはいかなる誠実さにも根ざしていない」という懐疑的な態度で臨んでいました。そして取材の過程で、組織内やより広いサンフランシスコのコミュニティ内に、これを本当に信じている実際の人々がいることに気づきました。そしてAGIが人類の全ての問題を解決できるとか、AGIが全員を殺す可能性があるという、私たちが公に聞くナラティブを中心に準宗教的な運動が発展してきているんです。

Altman自身がこの点で信者なのか、それとも彼が単にそれを政治的に賢明だと気づいただけなのか、つまりより広いAIコミュニティ内で湧き上がっている本物の信念を、OpenAIにますます多くの資源と資本を呼び込むことを可能にするレトリックの一部として活用しているのかを正確に把握するのは本当に難しいです。

でも私が強調したいことの一つは、時々私たちは個人に過度に固執しすぎると思うんです。その個人が良い人間か悪い人間か、彼らが良い道徳的性格を持っているかどうかみたいなことに。

最終的には問題は個人ではありません。問題はどんな個人でも自分の決定で何十億もの人々の生活に影響を与えることを許すように構築された権力システムなんです。

Sam Altmanには彼特有の欠点がありますが、誰も完璧ではありません。そしてその権力の座に座る誰であっても、その人特有の欠点があり、それが世界中の人々に大規模な波及効果をもたらすことになるでしょう。

そして私は単純に、このようなことを許すべきではないと思います。それは本質的に不健全な構造です。たとえAltmanがもっとカリスマ的であったり、もっと誠実であったりしても、それは突然私たちが彼にその全ての権力を譲るべきだということを意味しません。そしてたとえAltmanが他の誰かと交代したとしても、それは問題が解決されたことを意味しません。

私はAltmanが特に素晴らしいストーリーテラーであり、多くの異なる聴衆に対して非常に説得力を持つことができ、それらの聴衆に彼と彼の会社に並外れた量の権力を譲るよう説得できると思います。私たちはそれが起こることを許すべきではありませんし、必ずしも男性自身に固執するのではなく、権力構造を解体し、会社に説明責任を負わせることに焦点を当てるべきです。

ケニアでのAI労働者搾取の実態

あなたが今触れたことの一つは、起こっているこれらの行動のいくつかの国際的な影響ですが、本について私に本当に印象的だったことの一つは、あなたが多くの国際的な旅行をしたことです。データセンターを訪れ、AIデータアノテーターと直接話をしました。その経験と誰に会ったかについて教えていただけますか。

ええ、私はケニアに行きました。OpenAIが契約した労働者、そしてOpenAIのリードに従っている残りのAI産業によって広く契約されていた労働者に会うためです。

OpenAIが契約した労働者に対して、OpenAIが彼らにやってほしかったことは、同社のGPTモデル用のコンテンツモデレーションフィルターの構築を手伝うことでした。なぜなら当時彼らは商業化の取り組みを拡大しようとしていて、何でも生成できるテキスト生成モデルを何百万人もの人々の手に渡したら、問題が起こることに気づいたからです。インターネット上で訓練されていて、インターネットには本当に暗いコーナーもあります。人種差別的で有害なヘイトスピーチをユーザーに吐き出す可能性があり、そうなると会社にとって巨大なPR危機になり、製品も非常に不成功に終わるでしょう。

労働者にとってそれが意味したのは、インターネット上の最悪のコンテンツの一部を渡り歩かなければならなかったということです。さらにOpenAIが自社のAIモデルに、インターネット上の最悪のコンテンツを想像するよう促すことで生成されたAI生成コンテンツもです。これらの労働者により多様で包括的な例のセットを提供するためにです。

そしてこれらの労働者はソーシャルメディア時代のコンテンツモデレーターが被ったのと同じ種類の心理的トラウマに苦しみました。彼らは人類の全ての恐ろしい傾向に容赦なく晒され続けて、壊れてしまいました。社会不安を持ち始めました。引きこもり始めました。うつ病の症状を持ち始めました。

そして一部の労働者にとって、それは彼らの家族やコミュニティが崩壊したことも意味しました。なぜなら個人は特定の場所のタペストリーの一部であり、彼らに依存している人々がいるからです。崩壊するより広いネットワークの中の一つのノードのようなものなんです。

私は他の種類の企業で働いている労働者、人間労働供給チェーンの別の部分で働いている労働者とも話しました。コンテンツモデレーションだけでなく、人間のフィードバックからの強化学習です。これは多くの企業が採用しているもので、何万人もの労働者がユーザーがチャットボットとチャットする時に良い答えとは何かをモデルに教えなければなりません。

そして彼らはこの方法を、モデル内に特定の種類の価値を吹き込んだり、特定の価値をエンコードするためだけでなく、単に一般的にモデルを機能させるためにも使っているんです。AIモデルに対話がどのように見えるかを教えなければなりません。「ああ、人間Aが話して、それから人間Bが話す。人間Aが質問し、人間Bが答える」と。

そしてそれが今、チャットボットが人間とどのようにやり取りすることになっているかのテンプレートにもなっているんです。

私が話したある女性、Winnieは、Remotasksというプラットフォームで働いていました。これはScale AIのバックエンドで、OpenAIや他の企業の人間のフィードバックからの強化学習の主要な請負業者の一つです。

そして彼女の扱っていたコンテンツはそれ自体が必ずしもトラウマ的なものではありませんでしたが、彼女が働いていた条件は深く搾取的でした。彼女は自分が誰のために働いているのか決してわかりませんでしたし、タスクがいつRemoatasksプラットフォームに到着するのかもわかりませんでした。

だから彼女は仕事の機会が到着するのを待ちながら、コンピューターのそばで日々を過ごしていました。そして私が彼女と話した時、彼女は既にタスクが到着するのを何ヶ月も待っていました。

そしてそれらのタスクが到着した時、彼女は機会を活かさないことをとても心配していたので、子供たちを養うためにできるだけ多くのお金を稼ごうと、一日に22時間ぶっ続けで働くこともありました。そして彼女のパートナーが「代わりに僕がやるから」と言った時だけ、Winnieは喜んで仮眠を取りに行くのでした。

彼女が稼いだのは一日数ドルでした。これがAI産業の生命線なのに、これらの労働者は彼らがこれらの企業のために生み出している経済的価値を全く得ていないんです。

ボトムアップのガバナンスの可能性

あなたが話したこれらの労働者という点で、AIのビジネスがより倫理的に行われる未来が見えますか。

私はこれが起こる未来を見ていますが、それは企業が自発的にそうすることからは来ません。彼らにそうするよう強制する外部からの圧力から来るでしょう。

ある時点で、バングラデシュアコードに深く関わっていた女性と話しました。これはファッション産業で本当に壊滅的な労働事故が起こった後に通過した、ファッション産業のための国際労働基準協定です。

そして彼女が言ったのは、当時彼女がこの協定を促進するのを手伝った方法は、これらの企業にサプライチェーンを監査し、彼らのために働く労働者に労働権を保証する新しい基準に署名させるために、相当量の公衆からの圧力を築き上げることによってだったということです。

そして彼女はAI産業内でも全く同じことをする道筋を見ました。消費者から、さらにはこれらのモデルを使おうとしている企業からさえも、十分な反発を得られれば、それらの企業により高い基準を持つよう強制するでしょう。そして願わくば、私たちはそれをある種の規制や法律に成文化できるでしょう。

規制当局は追いついているか

それで私があなたに聞きたかった別の質問を思い出しました。今、この現政権下で私たちが現在持っている規制当局は、このAI開発を規制できるのでしょうか。彼らは一般的に言って、何が規制を必要としているかを知るのに十分にこの分野に追いついているのでしょうか。彼らはSam Altmanのマーケティングトークとイーロン・マスクのマーケティングトーク、Peter Thielのマーケティングトークと、あなたが自分の目で見てきた現場の現実との違いを知るのに十分にこの分野に精通しているのでしょうか。

私たちは間違いなく、アメリカや世界中の多くの国々のトップでリーダーシップの危機に苦しんでいます。これらの国々がこの産業を規制し、法制化するために立ち上がるはずだった国々です。

とはいえ、この瞬間にできることが何もないという意味だとは思いません。実際には、ボトムアップのガバナンスでやるべき仕事がさらに多くあることを意味すると思います。

私たちは公衆がこれらの企業を声高に批判する積極的な参加者である必要があります。そして私たちは既にこれが起こっているのを見ています。例えば最近のこれらのAIモデルによって引き起こされた一連のメンタルヘルス危機に対して、私たちは公衆からの反発の流出を目にし、家族や被害者がこれらの企業を訴えています。それはボトムアップのガバナンスが機能しているんです。

そして企業やブランド、非営利団体、市民社会が全てこれらの企業により良くするよう声高に批判しているのを私たちは見ています。そして実際、私たちは最近大きな成果を見ました。十代の若者を殺したと非難されている製品を持つ企業の一つであるCharacter.AIが、最近子供たちにチャットボットの使用を禁止すると発表したんです。

だから、政策立案者が自分たちでそれをする意志がない場合でも、これらの企業に説明責任を負わせ続ける非常に多くの機会があるんです。

希望あるAIの未来像

AIの開発をめぐる多くの懸念について話してきましたが、あなたは持つべき楽観主義もたくさんあるとも言っています。あなた自身をAIの悲観論者、それともAI楽観論者のどちらだと考えますか。

私は本で使っている特定の定義によれば、楽観論者でも悲観論者でもありません。これらの陣営は両方とも汎用人工知能を信じていて、AIが最終的には独自の何らかのエージェンシーを発達させるだろうと信じています。おそらく意識、感覚を。そして私は単純に、人々からエージェンシーを奪うエージェント的システムを開発しようとするプロジェクトに関わる価値さえないと思っています。

私がAIの未来のはるかに希望に満ちたビジョンとして見ているのは、人間を代替するのではなく支援するAIモデルやAIシステムの開発に立ち戻ることです。

そして私が本当に強気なことの一つは、社会として私たちが克服する必要があるものである特定の課題を解決するための専門特化型AIモデルです。

私は地平線上にあるAGIが気候変動を解決するとは信じていませんが、Climate Change AIという気候変動非営利団体があって、気候緩和の取り組み内の全ての異なる課題、つまり実際にAI技術を活用してそれらに取り組むのを助けることができる、よくスコープされた課題をカタログ化する大変な作業をしてきました。

そして彼らが話している技術のどれも、大規模言語モデルや汎用システム、理論的な汎用人工知能とは何の関係もありません。それらは全て、再生可能エネルギー生産の最大化、建物や都市の資源消費の最小化、サプライチェーンの最適化、異常気象予測の精度向上といったことを行っている専門特化型機械学習ツールです。

私がよく挙げる例の一つは、DeepMindのAlphaFoldでもあります。これも専門特化型ディープラーニングツールで、極めて大規模な言語モデルやAGIとは何の関係もありませんが、アミノ酸の配列からタンパク質の折り畳み構造を正確に予測するために、比較的控えめな数のコンピューターチップで訓練されたツールでした。人間の病気を理解し、創薬を加速するために非常に重要です。その開発者たちは昨年ノーベル化学賞を受賞しました。

そしてこれらが、私たちがエネルギー、時間、才能を注ぎ込んで構築すべきAIシステムの種類だと思います。私たちにはもっと多くのAlphaFoldが必要です。もっと多くの気候変動緩和AIツールが必要です。

そしてこれらの専門特化型システムの利点の一つは、それらがはるかにローカライズされることもできるので、この世界の全員に一つのサイズが全てに適合する解決策を開発するのではなく、特定のコミュニティの文化、言語の歴史を尊重できるということです。

それも本質的に極めて帝国主義的ですよね。私たちの人間性の豊かな多様性を包含する単一のモデルを持つことができると信じることは。

だから私はとても楽観的です。地平線上にはより美しいAIの未来があると。そしてそこに到達するためのステップ1は、これらの企業、これらの帝国に説明責任を負わせ、それから新しい可能性を想像してそれらを構築することだと思います。

資本主義によって変容したAI研究

AIが支援できる科学的追求、科学者を置き換えるのではなく支援できるものは本当に興味深いと思いますが、あなたが本の中で言及していることの一つは、AI分野全体が基本的に資本主義とその即座の利益の追求によって浸透されてきたということです。そしてあなたはこれがAI研究の軌道を変えたと述べています。だから、何百万、何十億ドル企業のための即座の利益を生み出さないために議論されていないアイデアは何かとお聞きしたいです。

ええ、ChatGPTが登場してその分野を圧倒する前に起こっていた興味深いAI研究の糸の一つは、ニューロシンボリックAIシステムでした。

これはAI開発の最も古い2つの分野を組み合わせるアイデアです。今私たちが持っているディープラーニングと、昔はより普及していて人気があったAIの種類であるシンボリックシステムです。

シンボリックシステムはディープラーニングとは異なり、決定論的システムです。一連のルールをエンコードし、知識データベースを機械にエンコードすることです。

だからそこでの利点は、正確なシステムを持つことができるということです。情報をエンコードし、既知のルールのセットに基づいてその情報を取り出しています。でももちろん欠点は、宇宙の全ての知識をエンコードするのは本当に難しいということです。そして説明するのが難しい全てのソフトな規範があります。そしてこれらのシステムを最新に保つことも難しいです。

ディープラーニングの利点は、非常に簡単に更新できる高度に柔軟なシステムだということです。でもその欠点は、それが確率的システムであり、100%の時間正確であることを制御できないということです。

だからニューロシンボリズムは両方の強みを組み合わせるというアイデアなんです。シンボリックシステムの決定論的な性質とディープラーニングシステムの柔軟な性質をブレンドするシステムを持つことができるでしょうか。これは今まさに投資されていない、AI研究の多くの可能なフロンティアの一つに過ぎません。

本当にありがとうございます、Karen、参加してくださって。そして「Empire of AI」であなたが行ったこの取材の仕事に本当に感謝します。

とてもお招きいただきありがとうございます、Bri。

コメント

タイトルとURLをコピーしました