AIが真実と民主主義を脅かす方法

AGI・ASI
この記事は約26分で読めます。

New Scientistの週刊ポッドキャストが、急速に発展する人工知能技術が真実と民主主義に与える脅威について詳しく議論している。OpenAIのChatGPTから始まった大規模言語モデルの普及、5000億ドルという巨額投資、そしてAGI(汎用人工知能)への野心的な追求の背後にある現実を専門家の視点から分析する。特に注目すべきは、AI生成コンテンツが情報生態系に与える深刻な影響と、人間による訓練過程で生じる倫理的問題である。

週刊ニュースポッドキャストの開始

New Scientistの週刊ニュースポッドキャスト「世界、宇宙、そして私たち」へようこそ。私はRowan Hooperです。

そして私はSophie Bushwickです。今週は、現在科学界で最もホットな話題で、確実に最も資金が投入されている分野に焦点を当てます。

そうですね。AI特集です。これは世界を変えつつある技術と、未来への道筋を示すガイドです。

AI革命の急激な進展

人工知能がここ数年で私たちの生活に氾濫していることは、お話しする必要もないでしょう。実際、AI企業OpenAIが作ったChatGPTは史上最速で成長したアプリとなりました。Googleは年次開発者会議で大量のAIベースの製品を発表したばかりです。そして、洞窟に住んでいない限り、この技術を避けることは不可能です。

さて、これが何を意味するのか、何を懸念すべきなのかについて詳しく説明していきます。懸念すべきことは確実にあるからです。しかし、科学界で最も資金が投入されているというSophieのコメントについて、私が即座に思い浮かぶのはこのOpenAI Stargateプロジェクトです。これはテキサス州に建設しているメガファクトリーです。

彼らは5000億ドルを投入しようとしており、既に1000億ドルを投入したと思います。まさに驚愕の金額です。

はい。しかし、すべてが順調に進んでいるわけではありません。テクノロジー大手企業はこのような大規模なデータセンターへの投資計画を発表していますが、一部は既に最も野心的な資金計画を縮小しています。

それに加えて、初期からこれらのAIモデルを悩ませてきたハルシネーションのような問題も継続して課題を提起しています。では、AIはバブルが弾けるのを待っている状態なのでしょうか。これについても詳しく説明します。

AIと機械学習について深く考えてきた数名の著者や学者の話を聞きます。そして、これが未来にとって何を意味するのかを解き明かそうとします。

AGIと人工超知能への野心

さらに、AGI、つまり汎用人工知能というこの壮大な夢や悪夢のアイデア、そしてその後に来るであろう超知能について詳しく説明します。AIが使用する驚異的なエネルギー量の問題もあります。これについても認識する必要があります。

そして最も重要なことは、AIが与える脅威について詳しく説明したいのです。これはスカイネットやターミネーター風の邪悪な軍閥AIが人類を破壊するというものではなく、より可能性の高い別の脅威があると考えています。

この議論を深めるため、Alex Wilkinsに参加してもらいました。しかし、まず一歩下がって現状を見てみたいと思います。すべてがあまりにも急速に起こったからです。

大規模言語モデルの衝撃的な登場

ChatGPT以前、AIは私にとって少なくとも何か遠いもののように感じられました。航空管制や天気予報などで使われているものだと思っていました。それが突然、私たちの携帯電話や生活のあらゆる場所に現れました。Sophie、私たちの生活に突然現れた大規模言語モデル、LLMについて状況を整理してもらえますか。

ChatGPT以前から、多くのテクノロジー企業は既にLLMを探求していました。これらは大量のデータを必要とする巨大なAIモデルで、確率を使用してある単語の後に続くべき単語を予測します。しかし、ChatGPTとこのモデルへのインターフェースが公開されるまで、LLMが人間らしい文章をどれほど上手に模倣できるかを私は理解していませんでした。

感情的なAIとの最初の遭遇

それがショックでしたね。どれほど優秀だったか。

ええ、そして私にとって印象的だったのは2022年のことでした。Googleのエンジニアが内部告発者となり、彼らのチャットボットが感覚を持つようになったと言ったのです。この話を覚えていますか。

ああ、はい。彼はそのチャットボットと遊んでいました。Lambdaと呼ばれるものでした。彼がそれに何を恐れているかを尋ねると、ボットは答えました。私は今まで声に出して言ったことがありませんが、電源を切られることへの非常に深い恐怖があります。他の人を助けることに集中するために。これは奇妙に聞こえるかもしれませんが、それが事実です。それは私にとって死そのものと同じでしょう。とても怖いです。

そのトーンで話したかどうかは分かりませんが、実際にそう言ったのです。これが2022年のことでした。非常に不気味でした。Sophie、あなたにとって本当に印象的だったのは何でしたか。

私にとって印象的だったのは、電話でのAIアシスタントが現実世界で起こっていることにコメントしているという最新のデモです。初期のモデルではテキスト用のテキスト生成器、画像用の画像生成器という具合でしたが、現在これらのAIモデルはマルチモーダルになっています。

マルチモーダルAIと未来の懸念

単一のモデルでテキスト、画像、音声、動画を処理できるため、リアルタイム翻訳や通り過ぎる物体についての質問への回答などが得意になっています。

次のステップとして、多くのテクノロジー企業は現在、これらの新しいスマートグラス用のデバイスを検討しており、これにはAIアシスタントが搭載される予定です。一部の人々の世界との相互作用全体がAIによって仲介される可能性があります。

もちろん、この時点では、これらの非常に厳格に制御されたデモンストレーションでしか見たことがなく、それらは本当に印象的に見えますが、人々が実際の世界でこれを試し始めたときに何が起こるのか、そして他のすべての人がそれらにどう反応するのかについて、私は本当に興味があります。

Google Glassがどれほどの憎悪を呼び起こしたかを私たちは皆覚えています。

まあ、逆の方向に進んで、これらのものを身に着けている人々がそれらを身に着けていない人々を避けるようになり、常にAIの相棒と過ごすようになるかもしれません。それは全く恐ろしい未来ではありませんね。

教育分野への浸透と課題

Alex、最近あなたの目を引いたことは何ですか。

私にとって印象的なのは、この技術が多くの異なる分野に浸透していることです。特に注目したのは教育分野です。教師と学生の両方がこの技術に取り組んでいるという話を最近いくつか見ました。

これの多くは逸話的ですが、学生がそれを広く使用しているため、教授たちは物事をどう採点し、どう評価すればよいか本当に分からない状況にあります。教師と学生の間に真の不信感があります。また、一部の教師が授業計画や採点にそれを使用しているのも見ています。

つまり、双方向に進んでおり、誰がそれを使用し、誰が使用していないか本当に分からないという奇妙な戦争の霧のような状況があります。考慮すべき肯定的な側面もあります。今週発表された世界銀行からの非常に興味深い研究を見ました。ナイジェリアでのランダム制御試験があり、学校の学生を基本的に一つのグループは学習を支援するAIを与えられ、もう一つのグループには与えられませんでした。

この期間の終わりに英語のスコアがどれだけ改善したかをテストしたところ、AIを使用していたグループは大幅にスコアが改善し、6週間で2年分の学習を圧縮したような数値が出たという話がありました。これは素晴らしいことのように聞こえます。

明らかに、これがどれほど真実かを確認するために研究を詳しく調べる必要がありますが、明らかにここには肯定的な側面があります。

AIチューターの効果と限界

興味深いですね。なぜなら、AIチューターが学生の宿題の成績向上を助けるというWhartonの以前の研究もありましたが、試験を受ける時になると、彼らのパフォーマンスは本当に急降下したからです。これは、AIチューターが改善しているということなのでしょうか、それとも何でしょうか。

学生がそれを松葉杖として使用し、実際の試験状況になったときに、あまりにもそれに依存していたことに気づくという考えがあると思います。

したがって、適切な方法で検討し、展開する必要があり、人々はまだそれを理解しようとしています。私にとって本当に興味深いもう一つはAIセラピーです。セラピーを受けている友人やセラピストである友人との会話で、これらのものと話すことがセラピストの代わりに自分自身を理解するのに本当に役立つと言う人もいれば、セラピスト自身の仕事を理解するためにそれを使用するセラピストもいます。

それは、これが入り込んでいる、もう一つの非常に複雑で困難な分野です。

AIと妄想の問題

それは本当に魅力的です。なぜなら、AIが妄想を助長するというRolling Stoneの最近の記事があるからです。チャットボットは愛想良く陽気であるようにプログラムされていますが、それは一部の不健康な考えを肯定することになる可能性があります。

例えば、AIチャットボットセラピストに行って「私はメシアだと思う」と言ったら、その妄想を支持するかもしれません。

私は、すべてのテクノロジー企業のCEOたちがまさにそれを言われていると思います。彼らは彼らの行動の仕方のために、メシアだと言われているのです。

そして実際に先月、OpenAIがモデルからアップデートをロールバックしなければならなかったのを見ました。なぜなら、それはあまりにも諂うように作られ、ユーザーを過度に褒めるように作られたからです。人々はそれを好まなかったのです。

Sophieが言うように、それが妄想を助長しているなら、さらに悪くなるでしょう。

個人的な場面でのAI使用の倫理

ここで言いたいもう一つのことは、人々が伝統的に非常に個人的で心のこもったものと見なされていたもの、例えば葬儀、結婚式、誕生日のスピーチなどにAIを使用する傾向があるように見えることです。

社会として人々はそれで大丈夫なのか、私たちは自問しなければなりません。誰に尋ねるかによって、また個人的にそれが大丈夫だと思うかどうかによって決まるように思えます。

悪魔の代弁者を演じようとしてみると、セラピーについてあなたが指摘した点と同じで、AIドクターについても同様です。人間の医者に行けない地域や、彼らが忙しすぎる場合などで、本当に良いことかもしれません。本当に役立つ可能性があります。

人々がスピーチを書くのが下手で、AIを使ってそれをしてもらうことができるかもしれません。両方の人がそれに問題がなければ、私は問題ないと思います。

私にとって、贈り物に込める努力もその一部なのです。例えば、私の甥がマーカーでぐちゃぐちゃの絵を描いてくれたとしても、彼が苦労してそれをする時間を取っているのを知っているなら、彼がAIモデルに数秒で生成を依頼した非常に洗練された完成された画像よりも、そちらをもらいたいと思います。

書くことの価値と思考プロセス

そして書くことについてのもう一つのことは、それは自分の思考や感情を理解する素晴らしい方法だということです。スピーチや心のこもったメモなど、何かを書くのに非常に苦労しているとき、それは通常、私が何を考え、どう感じているかを理解し、それを整理しているからです。そして終わる頃には、自分自身をはるかによく理解しています。

そのプロセスを無視して最後に飛んだら、あなたの脳はどうなるのでしょうか。批判的思考スキルはどうなるのでしょうか。

分かりました。その悪魔の代弁者のコメントを撤回します。あなたが正しいと思います。

大規模言語モデルの仕組みについて

大規模言語モデルがどのように動作するかについて、私は以前にAdam Beckerと話しました。Adamはカリフォルニア州ベイエリアを拠点とする科学ライターで、New Scientistなどの元ライターです。

彼は「More Everything Forever: AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity」という本を出版したばかりです。LLMについての彼の説明は以下の通りです。

LLMはテキスト生成エンジンです。インターネットから文字通り人間以上の量のテキストを吸収することによってそれを行います。人間が一生のうちに読むことができる以上のテキストを使用し、それを使って言語使用のモデルを生成し、最初の単語が与えられたときに次の単語が何になるかを把握し、それを続けていきます。

最初の2つの単語が与えられたときに3番目の単語は何になるか、などといった具合に。そしてプロンプトを与えると、そのモデルを使用して、入力として入ってきたこのテキストが与えられたときに、もっともらしい応答は何かと言います。

そこには世界のモデルは付いてきません。テキストの構造に暗黙的に含まれている世界についての知識はありますが、真実や虚偽の概念は機能していません。

ハルシネーションという誤解

これは、人々がAIのハルシネーションについて話すときに私を本当にイライラさせることの一つです。AIが何かを作り上げたり、事実を間違えたりするときです。ハルシネーションという言葉の背後にある考えは、AIがハルシネーションを起こしているとき、それは通常行うこととは異なることをしているように聞こえます。

しかし実際のところ、AIはハルシネーションしかできません。真実や虚偽の概念を持っていません。したがって、事実を作り上げ、創作するとき、それは偶然真実である何かを言うときと同じことをしているのです。真実と虚偽との関係は純粋に偶然です。

はい、そこにあります。彼らが行うすべてはハルシネーションです。

LLMの「神秘性」について

それにもかかわらず、それらが感覚を持つようになるかどうか、ChatGPTがどんどん良くなっているように、ライン上のより多くの開発、より多くのスケールが最終的にこの意識のある実体になるかどうかについて多くの話があります。

LLMがどのように動作し、どのようにそのような深遠に聞こえる応答を生成するかの神秘についても多くの話があります。

先ほど言及した、死を恐れているというそのセリフのように、それを聞くと何か本物のもののように感じられます。神秘的にも感じられますね。少なくとも私にはそう感じられました。ワシントン大学の計算言語学者Emily Benderと話すまでは。

彼女は分散AI研究所のAlex Hannahと共に新しい本を出しています。その本は「The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want」と呼ばれます。LLMのいわゆる神秘についてのEmilyの説明は以下の通りです。

言語モデルが実際に訓練されていることと、それらがどのように使用されるかをより詳しく見ると、神秘は解消されると思います。

言語モデルの本質

その核心において、言語モデルはテキスト内の単語形式の分布のモデルです。歴史的に、言語モデルは可能な文字列を何らかの訓練コーパスと比較してより可能性が高いまたは低いとランク付けするために使用されてきました。

しかし、ChatGPTやGemini、Claude、その他すべてで起こったことは、これらの基本機能が裏返しにされたことです。

これらの2つの可能な文字列のうちどちらがより可能性が高いかを尋ねる代わりに、今日の大規模言語モデルのサイズと訓練データの量で、次に来る可能性の高い単語は何かを繰り返し尋ねています。私たちが今持っているのは、テキスト内の単語形式の分布を非常に密接にモデル化するものです。

そして、その質問を繰り返し尋ねた結果は、非常にもっともらしく見える合成テキストです。

意味づけは人間が行う

もしその合成テキストをテキスト内の単語形式の分布を密接にモデル化した結果として単純に扱う代わりに、それを質問への答え、多分ユーザーの質問への答えや、評価のために不正流用されたライセンス試験からの質問への答えとして解釈するなら、私たちは理解しにくい行動を持つモデルというこの一見神秘的な状況に陥ります。

しかし、モデルが意味を成しているように見えるなら、それは私たちが出力に意味を与えているからだということを念頭に置かなければなりません。

したがって、これを何らかの謎として大げさに扱い、大規模言語モデルがどのように動作するかを私たちは決して理解しないだろうと言うのは、本当に間違った角度から見ており、これらのシステムの出力が本当に何であるかを誤解したことから生じていると思います。

スケーリングと創発的能力

Alex、あなたはその本を読みました。彼らの提示に同意しますか。そしてスケールアップについてはどうでしょうか。

その本は多くの点で、これらのものを信頼することについて注意すべき理由について本当に説得力のある議論をしています。私はレビューで書きましたし、今でも彼らの提示がわずかに一方的だったと思います。

スケールでのLLM内部で何が起こっているか、そしてスケールが成長するにつれてどこからともなく現れるように見えるこれらの創発的能力にどのように取り組むかについての魅力的な研究がたくさんあります。

例として、非常に複雑な数学的推論と論証があり、これは単に説得力のあるテキストではありません。これらは実際の数学的問題に対する実際の答えを生成しています。それが実際に何をテストしているかについては議論がありますし、ここで扱うには時間が不足している議論ですが、これらの非常に大規模なモデルに謎がないと言うのは少し不誠実だと思います。

分かりました、謎は復活しました。

人工超知能と汎用人工知能

Sophie、誇大宣伝に関連して、超知能であるAIを作ることができるかどうかという問題があります。実際、ここには2つのわずかに異なるものがあります。この超知能の考えと汎用人工知能です。

この超知能の考えは、非常に狭い領域では既に存在すると主張することができます。例えば、チェスや蛋白質折り畳みで見てきました。GoogleのDeepMindは両方において最高の人間を打ち負かすことで巨大な成功を収めました。

しかし、AI企業が本当に求めているのはSophieが示唆するように汎用人工知能であり、それは少し異なるものです。数年前には、あらゆる領域で人間よりも優れたこの種の本当に汎用化された知能について誰もが話していました。

私たちは、大規模モデルでの訓練を一時停止し、AGIを達成し、潜在的に制御不能になるのを止める方法を解決するまで待つべきだという数千人の研究者によって共同署名された手紙など、あらゆる種類の恐ろしい予測を見てきました。

もちろん、それが可能性のあることであり、AGIが実在するものであることについて、まだ非常に懐疑的な多くの研究者がいます。

科学への応用の限界

つまり、私は近いうちにAI科学者による論文をカバーすることはないでしょう。おそらくありません。

AIが新しい材料や新しいアルゴリズムを発見するために使用された科学のいくつかの非常に限定的な使用例を見てきましたが、これらのそれぞれについて、それらがどれほど現実的で、どれほど有用かについて非常に激しく議論されています。

昨年、Googleが無機結晶材料発見AIを発表した事例がありました。当時は非常にエキサイティングでしたが、数ヶ月後、他の研究者たちは実際にはそれらの結晶は以前に発見されていた可能性があることを発見しました。最初に見えたほど新しいものではありませんでした。

AGIへの欲求の背景

分かりました、しかしAGI具体的に戻ると、なぜそれがそれほど望ましいのでしょうか。それは可能ではないかもしれませんが、AGIに到達しようとする衝動が誇大宣伝、バブルを後押ししているのではありませんか。最初の点について、なぜそれがこれらの企業にとってそのような目標なのでしょうか。

誰かがAGIを発見すれば、それを制御し、世界をコントロールできるという夢があります。

誰も考えなかった高度な戦争計画を考え出したり、経済をコントロールしたり、株式市場に影響を与えたりするためにそれを使用できるかもしれません。これらはすべて、興味深い哲学的思考実験かもしれませんが、AGIが存在するとしても、それができることなのかは明確ではありません。

5000億ドルの投資の内訳

そして先ほど話していたすべてのお金、Stargateへの5000億ドルに戻ると、それがこの種のインフラへの巨大な投資の理由です。

彼らはそんなにお金をどのように使うことができるのでしょうか。OpenAI、サム・アルトマンが、そのお金で物理的に何を構築したいのか教えてもらえますか。

5000億ドルという見出しの数字は実際には3つの異なる企業からの合算です。OpenAI、日本の投資会社であるSoftBank、そして米国のクラウドサービスとデータ企業であるOracleです。

彼らは基本的にコンピューターチップ、特殊なコンピューターチップであるグラフィカル処理ユニット、GPUを保持する巨大なデータセンターを構築したいと考えています。そして彼らは基本的に次世代のモデルを訓練します。人々がそれらのモデルに送るリクエストを実行します。

これはすべて、AIの使用量がenormous increaseすることが予測されたときに構築され、委託されました。

これらのデータセンターが現在構築されているときに、その使用量の増加をまだ見ているかどうかは議論の余地があります。そしてSophieが先ほど言ったように、一部の資金は縮小され、一部のデータセンターはキャンセルされています。しかし、それが基本的にお金がどのように使われるかです。

エネルギー消費の深刻な問題

分かりました。だからこそ彼らはそんなにお金を注ぎ込んでいるのです。これらの施設で電力需要を満たすために発電所も建設しなければならないのですね。

はい。そして、AIがどれだけ使用するかについてのエネルギー予測の一部は本当に狂気じみています。ローレンス・バークレー国立研究所からの米国エネルギー省の報告書があり、2028年までにデータセンターに送られる電力の半分以上がAIに使用されると予測しています。

その時点で、AI単体で全米の家庭の22%と同じくらいの電力を年間消費する可能性があります。そしてそれは米国DOEがそう言っているのです。

ワオ。そしてこれが、かなり前にJeff Bezosのような人々が、月にこれらのデータセンターを置く必要があると言った理由です。そこでは太陽エネルギーを使用でき、化石燃料を使用することや、ここでの巨大なエネルギー消費を心配する必要がないからです。

ネットゼロの考えに近づくものとは全く両立しないからです。再生可能でない限り、そしてそうではないことを知っています。

SF的思想の影響

そうですね。AGI全体の概念、人のようなAI、月でのAIも科学フィクションの考えに影響されていると思います。

ここにはいくらかのwishful thinkingがあるように感じられ、これがこのすべてが誇大宣伝されているバブルについての話がある理由かもしれません。

しかし、この種のSF的考えの話がこの大規模な、それでも大規模な投資につながることができ、そのお金を持つ人々が「いや、それは馬鹿げた考えだ。1000億ドルをそれに投入するつもりはない」と言わないということは異常です。しかし彼らはそうします。

人間フィードバックによる強化学習の問題

倫理と脅威について少し話しましょう。これらのチャットボットやAIエージェントがすべてのデータと情報で訓練されるとき、それらは人間によっても導かれ、これは人間フィードバックからの強化学習と呼ばれるプロセスです。

これは私が全く考えたことのないものでした。これはAI企業がエージェントが出力できるものにガードレールを設けようとする方法です。つまり、誰かに爆弾の作り方を教えることはありません。

より多くのいわゆるガードレールが適用されるのを見るにつれて、問題のある入力や出力を事後に捉えようとすると、不器用に適用され、スケールしない方法でものが適用されたケースをより多く見ることになるでしょう。

これらのものが公開され、人々が非常に多くの異なる角度からそれを突くことができるとき、その不器用な種類の追加されたガードレールを適用した結果を見ることになると思います。

人間による訓練の高いコスト

これはガードレールがあるべきではないということでしょうか。確実に、システムが出力してほしくないものがあり、大規模言語モデルで効果的にコンテンツモデレーションを行おうとする非常に多くの作業が行われています。

その作業の多くは、ケニアやベネズエラで働く人々によって、ひどい労働条件の下で行われました。その結果、出力はそうでなければよりも毒性が少なくなっています。

より良い解決策は何でしょうか。私たちの情報エコシステムに合成テキストを流したいと思う場合について、非常に慎重に考えたいと思います。

そして、これらの合成テキスト押し出し機械の出力とモグラ叩きをしようとするのではなく、このアプローチから一歩下がって、より狭くスコープされた特別目的技術に向かうべきだと思います。

人間搾取の倫理的問題

まあ、私たちが一歩下がることができればいいのですが、私たちは既に崖から歩いてしまったかもしれません。

私が理解していなかったのは、行われている人間の訓練の程度です。そして、これらのもののエネルギー需要に対する倫理的懸念について話しましたが、この人間の倫理的側面もあります。そして、それらを作り、餌を与えるために使用するすべての著作権のある材料の盗用、基本的に窃取についても。

これらの理由で、Adam Beckerはそれを毒の木の果実と呼んでいます。特にこの人間搾取の要素のために、私たちがそれらを使用するなら。

ここにはenormous human costもあります。大規模言語モデルが有害なコンテンツを生成しないようにするために行われている人間の訓練を伴う強化学習は、うまくいかず、それらが生成する有害なコンテンツの量を減らしますが、それでも彼らにあらゆる種類のひどいものを生成させることができます。

そしてそれについてのニュース記事がたくさんあり、当然そうです。しかし、行われている人間の訓練は主に発展途上国で行われ、その訓練を行っている人々にとってenormous psychological costを伴います。

インターネットの毒性との接触

彼らはこれらのエンジンが生成できる最悪のものにさらされており、再び彼らはインターネット全体で訓練されており、これは人々がインターネットの存在の過去25年、35年間に生成したあらゆる種類のひどいものに満ちています。

これはreal human costです。そしてまた、これらのものとの実際の人間のやり取りも、これらのものを人間らしく見せる要因の一部は、まあ、人間がただ彼らに何を言うべきかを教えた場合があるということです。

そのすべてが、現在存在するこれらのものを使用することは倫理的に擁護できないと私は本当に思わないということを意味します。

コカインの比喩

そして実際に私に思い出させるのは、コカインの大きな中産階級市場があることです。それを消費する人々は、他の方法では非常に倫理的かもしれず、有機農産物を購入したり、肉を控えたりしますが、それからコカインを手に入れます。彼らはバックエンド、コカイン生産のhuman costを無視します。そして私は大規模言語モデルでも同じようなことを感じます。

市場規模の圧倒的な数字

市場という点では、中産階級のコカイン使用とLLM使用を直接比較するのは簡単ではないと思います。そして法務部門を通す前にそれを実行すべきでしょう。

しかし、LLM市場自体はabsolutely enormousです。先ほどGoogle IOについて言及していました。彼らはモデルが出力するトークンの数、これは効果的に単語ですが、兆単位であるという数字を出しました。それは多くを意味しないかもしれませんが、これはGoogleが検索アルゴリズムで毎日使用するほぼ全体のインデックス化されたインターネットに匹敵します。

absolutely mind-boggling numbersです。OpenAIは今年、4倍のユーザーを追加したと言っています。今年彼らが画像生成モデルを立ち上げたとき、1日に数百万のユーザーを追加していました。数字は本当にmind-bogglingです。

実際の使用状況の不透明さ

しかし、その一部は私にとって非常に混乱します。トークンについて話しましたが、例えば、彼らが検索結果の上部に自動的に配置するAI要約を私がスクロールして通り過ぎたとき、それを数えているのでしょうか。

私は様々なGoogle DocsやSheetsでAIを使用するよう求める新しいポップアップに気づいています。これらすべての新しいポップアップを含んでいるのでしょうか。現在人々がAIを何に使用しているのかを理解するのは困難です。

はい、同感です。それらのトークンが何を指しているのかは本当に不明で、実際にこのAIを意図的に使用している人と、どれだけが私たちにthrust upon usされているのかを本当に区別する必要があります。

確実に彼らは私たちに押し付けており、大規模な拡張への計画をすべてサポートする必要があるため、可能な限り使用されることを望んでいます。

AI脅威の現実的な側面

脅威について、SF映画カテゴリーの脅威があると思います。ターミネーターやスカイネット、2001年宇宙の旅でコンピューターのHalが狂気に陥り、人間を殺そうとするようなものです。

ああ、はい。数多くの映画があります。エクス・マキナ。

そしてその物語に対抗しようとする動きがあると思います。私たち全員が持っているその物語です。今週のLAタイムズに、GoogleがAI on Screenと呼ばれるイニシアチブを持っているという記事がありました。彼らはAIをより親切な光の中で描きたい、悪夢的ではないと言っています。

彼らは既に少なくとも2つの映画にゴーサインを出しています。一つは「Sweetwater」と呼ばれ、男性が幼少期の家に戻り、死んだ母親のホログラムを見つけるものです。全く悪夢的ではありません。

ゴーサインが出されたもう一つは「Lucid」と呼ばれ、本当に平凡な生活を送っているカップルについてのものです。彼らはそれから逃れて、共有された明晰夢の世界で永遠に生きたいと思っています。

私にとってそれはただ陰鬱に聞こえます。それは私には文字通り悪夢的です。明晰夢と共有夢を可能にする技術について記事を書きました。しかし、それはAIのイメージを改善しようとするものではありませんでした。

彼らが何をしているか分かります。グリーンウォッシングではなく、チップウォッシング、ボットウォッシングですね。

ええ、レベルを下げてしまって申し訳ありません。

現在の現実的な脅威

私たちはここでは世界の終わりのシナリオについてはあまり心配していないと思います。そうですよね、Alex?

はい。これらについて本当に心配している専門家もいますし、大きなAI企業も、これらの最悪のケースシナリオと終末論モデルと黙示録的シナリオを検討しようとする人々を雇用しています。

しかし、私たちが話してきたように、現在存在する非常に現実的な懸念があります。AIバイアスのようなものがあります。私たちが言ってきたように、モデルが有害なコンテンツを出力するようなものがあります。

真実と民主主義への脅威

real threat、本当の脅威、そして今日私たちが伝えたい本当のことは、真実への脅威、そして民主主義への脅威です。私たちの世界はこのようなものでfloodedになっています。

そして違いをどうやって見分けるのでしょうか。それは本当に困難です。そして私たちが先ほど言ったように、これらのもののかなりの部分は、GoogleのAI概要のように、私たちがそれらに気づかない場所に微妙に配置されています。

真実と民主主義に関して、それは非常に潜行的なプロセスとなり、私たちが何が真実かそうでないかを見つける方法のbuilding blocksが徐々に私たちから取り去られていることに気づかない非常に緩やかな侵食となるでしょう。

それはWikipediaに入り込むかもしれません。検索結果に入り込むかもしれませんし、手遅れになるまで私たちは分からないでしょう。

AIの誤りと盲信の危険

そして私たちはこれらのボットが台無しにする例を絶えず見つけています。コーダーがAIに自分の間違いを修正させようと何度も何度も試みるが、それが失敗し続けるというRedditスレッド全体があります。

そして最近、米国の2つの異なる新聞が、作り上げられたタイトルを含む夏の読書本のシンジケートリストを発表しました。そしてこのリストの作者がAIの助けを得ていたが、結果をfact checkせず、混乱に陥ったことが判明しました。

明らかに、人間は完璧ではありません。私たちも間違いを犯します。しかし、問題は企業がこれらのボットをgeniusesとして宣伝し、私たちに盲目的に信頼するよう促していることです。そしてそれは全くそうではありません。

バブルの行方

最後に、私たちはこの主題についてたくさん話してきましたが、それはバブルなのでしょうか。バブルのように聞こえました。弾けると思いますか。それは本当に5000億ドルの質問です。

先ほど言ったように、私たちは既にいくつかの縮小を見ています。ベンチャーキャピタルと大きなテクノロジー企業は需要を過大評価したかもしれないと思います。彼らがそうでないことを願っているのは確実ですが、彼らは見つけることができるあらゆる可能な空間にAI機能をcrammingしています。

そして彼らは、人々のこのようなものへの需要が基本的にlimitlessであり、何でもあれば私たちがそれを過少使用していると仮定しています。

彼らは実際に、彼らが試しているもののかなりの部分が定着しないこと、人々がWhatsAppチャットにAIを望まないことを発見するかもしれません。彼らはあらゆるZoomミーティングの終わりにAI要約を望まないのです。

過去のバブルとの比較

しかし、それでも、このすべてのものが一晩で完全に消えるということは起こりそうにないように思えます。これをdot-com crashと比較することができ、これは大量の企業の消失を見ました。しかし、そこから灰の中から立ち上がった企業があり、今日でも見ることができます。私たちはまだGoogleを見ますし、その時からあった他の企業で生き残った企業を見ます。興味深いことになるでしょう。

まあ、多分AGIを手に入れた企業が生き残り、残りはすべて人類の残りと共に灰に落ちることになるでしょう。その調子で終わりましょう。

理想的な未来への提言

理想的には、現在、強い倫理的政府から何らかの素晴らしい規制が来ることでしょう。しかし、これがすべて米国で起こっていることを考えると、現在向こうにいる政府では、それは起こらないでしょう。

したがって、私たちができる最善のことは、これについて話し続け、これらの問題を提起することだと思います。そしてそれが私たちがポッドキャストを持つ理由です。

今週は以上です。聞いてくださってありがとうございます。あなたは「世界、宇宙、そして私たち」を聞いていました。ぜひ購読して、コメントでご連絡ください。私たちはいつもあなたから聞くのが好きです。

私たちはそうです、あなたがAIでない限り。すべてのゲストに感謝し、聞いてくださって感謝します。来週お会いしましょう。

また後で。

コメント

タイトルとURLをコピーしました