ChatGPTの凋落か?なぜ世間はAIに背を向けているのか

AI幻滅・反AI
この記事は約15分で読めます。

OpenAIとPentagonの契約を機に、ChatGPTから150万人以上のユーザーが短期間で離脱し、250万人規模のボイコット運動が展開されている。テックジャーナリストのChris Stokel-Walkerは、この動きが評判面では重要だが、9億人のユーザーベースを持つOpenAIにとって財務的な脅威は限定的だと分析する。一方で、AnthropicがPentagon契約で引いた「レッドライン」—米国市民への違法監視禁止と完全自律兵器システムの禁止—を、OpenAIは当初受け入れたものの後から再交渉しようとしており、両社のCEOの倫理観の違いが浮き彫りになっている。AI軍事利用の馬はすでに厩舎を出てしまったが、イランでの空爆作戦などの実例が、核兵器使用後の第二次世界大戦のような転換点となり、国際的な規制議論を促す可能性があるという。

The fall of ChatGPT? Why the public is turning on AI | Christ Stokel-Walker
“There was always a certain inevitability about this.”Tech journalist Chris Stokel-Walker joins the Tech Report’s Isaac ...

AIの馬はすでに厩舎を出た

私たちはすでにAIという馬が厩舎を飛び出してしまい、もうドアを閉めることができない地点に到達しています。誰でも使えるオープンソースモデルが数多く存在していて、しかもそれらの多くは、やや邪悪な行動を防ぐために設計されたガードレールを取り除くようジェイルブレイクできてしまうんです。

つまり、ある程度の必然性は常にあったということですね。

本日のTech Reportには、テックジャーナリストのChris Stokel-Walkerさんをお迎えしています。ご出演ありがとうございます。

お招きいただきありがとうございます。

今日はOpenAIとPentagonの契約についてお話ししたいのですが、特にそれに対する世間の反応についてです。ChatGPTが先週2日足らずで150万人の契約者を失い、delete GPTやquit GPT、あるいはcancel GPT—どのハッシュタグをフォローしているかによりますが—は今も勢いを増しているようで、すでに250万人以上がボイコットに署名したと思われます。このボイコットだけでなく、こうした動き全体がどれほどの脅威なのか、OpenAIにとってどれほど大きな脅威なのでしょうか。

評判面でのダメージという点では確かに重大ですが、これらの数字をもう少し広い文脈に置く必要があると思います、Isaac。OpenAIは比較的最近、毎週または毎月ログインする比較的頻繁なユーザーが9億人を突破したと発表しました。ですから、quit GPTやその他の代替運動、あるいはOpenAI製品の使用をやめると言っている請願書について話している数字を見てみると、おそらく多く見積もってもユーザーベースの2、3、4パーセント程度がこうしたことをすると言っているに過ぎません。

残念ながら、私は今やかなり古株のテックレポーターでして、少なくとも経験という点では歯が長い方です—年齢的には必ずしもそうではないことを願いますが—まあ、私はKony 2012のようなことを覚えているんです。これはアフリカの軍閥に関する恐るべき事態に対して行動を起こそうという大きなクリックティビズム運動で、何百万、何億もの人々が署名して支持を表明しました。しかし問題の軍閥Joseph Konyは今も権力の座にあります。つまり、何かをすると言うことと実際にそれを行うことの間には、特にインターネット上では、かなり大きなギャップがあるのです。

ですから、進行方向とOpenAIに対する世間の認識という点では大きいと思いますが、彼らの収益面では、それほど大きな問題になるとは確信していません。

3億6千万ドルの損失と50億から100億ドルの契約

どこかで見たのですが、報告では約3億6千万ドルの損失だったそうですが、これは50億から100億ドルを占める契約です。金銭的には、かなり簡単な選択だったわけですね。しかし興味深いのは、その3億6千万ドル前後というのは、AnthropicがPentagon契約を失って被った損失よりも少し多いだけで、大きな差ではないということです。ですから、こうしたことについて話すとき、私たちの視点では大きく見えますが、実際にはこれらの企業にとってはそれほどでもないのでしょう。

どれくらい大きくなる必要があるでしょうか。あるいは、OpenAIにとって存亡の危機とまでは言わないまでも、彼らにB2B部門や、この場合は防衛契約部門をより優先させるよう強いるほど大きくなり得るでしょうか。

もし大きな勢いが見え始め、OpenAIが大量の利用を失い始めたら—覚えておいてほしいのは、これは大手テック企業で、人々がどのように使っているかに関する膨大なデータを持っているということです—ですから、これが勢いをつけ始める可能性のある害があると特定したらすぐに、是正措置を取るでしょう。

興味深いことの一つは、OpenAI周辺で現在進行中の付随的な出来事を見てみると、彼らはAnthropicと大きな対立状態にあります。Pentagon関連だけでなく、どちらがより優れた最先端のコーディングアシスタントを持っているかという点でもです。OpenAIにはCodexがありますが、これはAnthropicのClaude Codeと比較して二番手と本当に見なされていました。ここ数週間で見られたことの一つは、OpenAIが実質的にCodexの制限を倍増させて利用を促進しようとしたことです。そして彼らはそのスケールアップにいくつか問題を抱えていました。個々のユーザーの使用モニターを繰り返しリセットしてきたのです。つまり、Pentagon状況の結果としてOpenAI製品の実際の使用が減少すると予想されたかもしれませんが、人々がこれらの無料トークンを本当に気に入っているため、この分野でのCodexの使用増加によって実際にはある程度相殺されたのだと思います。

46%が否定的—ICEよりも悪いAIの評判

では、より世論認識の側面についてはどうでしょうか。最近NBCが行った世論調査がありました。これはこのドラマ全体が起こる前に実施されたもので、調査に回答した人々の46パーセントがAIについて否定的に感じていることがわかりました。

それ以上の詳細は提供されていませんでした。しかしそれは文脈として言えば、ICE(移民税関執行局)よりも悪いのです。それを念頭に置いて、OpenAIのPentagon契約に対するこの反応は、AI全体に対する世論の転換点の始まりだと思いますか、それとも既に存在していたものの非常に公的な表現に過ぎないと思いますか。

AIは非常に分断的だと思います。そしてそれは、地平線上に迫っているのが見えるから非常に恐れているか—これらのAI企業によってもよく言われることですが—これがあなたの仕事に取って代わり、職場であなたを置き換え、経済全体を覆す可能性があると言われているからです。そして、率直に言って、現在経済で起こっていることすべてについて少し不安を感じているから、それについて少し神経質になっているかのどちらかです。

あるいは、これが何をするかの可能性を見て実際に興奮しているキャンプにいて、おそらくAIの真の信奉者かもしれません。そして一般的に、これらのツールに実際に触れる人々が肯定的なキャンプに行く傾向があり、避けて通る人々が否定的なキャンプにいる傾向があります。

ですから、おっしゃるように、米国でICEよりも人気がないというのは本当に何かを物語っていると思いますが、AI全般に対するより否定的な反応は、これらの企業によって私たちが告げられてきたことの一種の結果であり、実際に使用した場合の人々の認識と必ずしも一致しないのだと思います。なぜなら、AIを使用する多くの人々がいて、実際には自分にとって何の目的も果たさないことに気づくからです。

最大限の効果を得る方法について頭を悩ませることができない一方で、他の人々は、実は、これはゲームチェンジャーだと言うでしょう。ですから、やや誇張された恐怖を人々が持っていると思います。しかし、Pentagon問題と、実際にこれが本当に生死を分ける決定に使われているという考えは、世論認識に影響を与えると確実に思います。まあ、ここ最近この技術の全面的な採用を見てきましたが、軍事に行くのは本当に望んでいないという感じですね。

AnthropicとOpenAIの根本的な違い

それについて、この種のことすべてのより広範なセキュリティ上の影響について掘り下げたいと思います。この起こったドラマにおけるPentagonの動機について、あなたはどう理解していますか。なぜならOpenAIはPentagonとの契約を再交渉し、基本的にAnthropicが引いて黒リストに載せられたレッドラインと完全に同じだからです。

そうですね、これは米国の二大AIラボ、AnthropicとOpenAIの根本的な違いだと思います。Anthropicは明らかに米国国防総省と2億ドルの契約を結んで、彼らの技術が使用されることになっていました。彼らはこれらの問題に直面し、これら二つのレッドラインをめぐって米国政府、ドナルド・トランプ政権のホワイトハウスと対立しました。

一つ目は、米国市民の違法な監視に使用できないということで、これはDario Amodei、AnthropicのCEOにとって絶対に譲れない一線でした。そしてもう一つは、絶対的に自律的な兵器システムに使用できないという考えでした。つまり、武器を発射し、誰かをターゲットにし、そしてループに人間が入らずに実際にそれが起こるというAIがあり得るという考えは、許容範囲を超えていると見なされたのです。そしてそれが明らかに、AnthropicとPentagonの崩壊を見たところです。そしてその隙間に、Sam Altmanが飛び込んできたのだと思います。

これは二つの企業、彼らの精神、そして二人のCEOの個性の違いを物語っていると思います。Dario Amodeは非常に道徳的で、一部の人が言うかもしれない欠点があるほど道徳的な人物で、道徳的に正しい決定ではないと信じるため、ビジネス機会を見送ることがよくあります。

覚えておいてほしいのは、彼が共同創業者たちと一緒にAnthropicを設立した理由は、彼らが近年OpenAIが進んでいる方向に不快感を覚え、少し異なる道徳的羅針盤を組み込んだ競合ラボを立ち上げようと決めたからだということです。Sam Altmanにとっては、便宜に基づく決定だったと思います。

彼はAnthropicを出し抜く機会を見ました。ビジネス機会を見たのです。そしてSam Altmanは、念のため言っておくと、非常にビジネスバックグラウンドから来ています。彼はまあ、完全なやり手とまでは言いませんが、キャリアの初期にはシリコンバレーのテックアクセラレーターに関わっていました。スタートアップを立ち上げました。彼は常にAIラボのリーダーというよりも、はるかにCEOとして見られてきました。

ですから、それが純粋に彼の考えだったと思います。契約に署名して、詳細は後で考えようと思ったのです。もちろん、その後彼は、実際にこれは必ずしも同意するものではないと気づきました。それで彼もホワイトハウスとこれらの条件を再交渉しようとしているのです。

政府がAI安全性を求めない異常事態

政府が、このAIに対するより少ない管理を望んでいると言っているのを考えるのは、かなり厳しいことです。政府が、それを販売している人々よりも少ないAI安全性を望んでいるのです。これが私たちの生活におけるAIの未来にとって何を意味すると思いますか。規制すべき人々、つまり政府が、それで金を稼ぐ人々よりも少ない管理、少ない安全性を望んでいるなら、私たちはそれをどう経験することになるのでしょうか。

ドナルド・トランプの下のホワイトハウスは、ここでは常に少し異常な状況だということを心に留めておく必要があります。つまり、過去、現在、あるいはうまくいけば将来のホワイトハウスの他のほとんどの住人が、おそらく同じ決定を下すとは思えません。

ただ、ドナルド・トランプによって下された決定は重大だと思います。なぜなら、それは実質的に他の人々、他の世界のリーダーたち、そして異なる結論に達したかもしれない米国の後継リーダーたちが、彼らに勝てないなら仲間に加わろうと説得され、事実上誘導され、押し込まれる許可を与えるからです。そしてそれは底辺への競争になると思います。

しかし、AI企業がこれにブレーキをかけようとしていて、ドナルド・トランプとPete Heggsethが、いや、前に進み続けたいと言っていたのは重要だと思います。

そして正直なところ、イランでの米国とイスラエルの爆撃作戦の効果は、これが彼らにとって有用だったという事実の証です—その道徳性や周辺の問題について私たちがどう思うかは別として。彼らはおそらくターゲットにしたかったターゲットをターゲットにすることができたのです、どんなに不快であっても。

ただ、これは現在ホワイトハウスにいる人物、そして現在ワシントンかマー・ア・ラーゴのシチュエーションルームのデスクの後ろに座っている人物のために、完全に特異な状況だと思います。

より悪い誰かに負けるよりはマシという論理

それでは、一部の人々が主張する議論についてどう感じますか。もし西側のAI企業が西側の政府、つまり西側の軍と提携しなければ、もっと悪い誰かに対してこのAI軍拡競争に負けてしまうという議論です。悪役を選べと言われれば誰を選びますが、まあ、そうした、彼らよりは私たちの方がマシという類の議論についてどう思いますか。

パートナーシップという点では彼らよりは私たちの方がマシだと思いますが、必ずしも使われてきたような方法で使われる必要はないと思います。そしてそれが、イランだけでなく、ベネズエラからのNicolas Maduroの捕獲でも見てきた残念な現実だと思います。そこでもAIが作戦の実際の行動には必ずしも使われなかったとしても、計画に使われたことがわかっています。

軍事におけるAIは常に存在するものになるだろうと思います。常にユースケースがあり、これが起こるということについてある程度の必然性がありました。しかし、私たちがこの種のことで何をしているかについて、利益、欠点、プラス面、そして道徳性のマイナス面について、より理性的な議論ができるという希望があったと思います。

そしておそらく国際的なコンセンサスが。もちろん問題は、ドナルド・トランプが必ずしも国際的なコンセンサスに同意しないということです。彼がこれほど人気になった理由全体は、彼が異端児だからです。腰から撃ちます。彼のやり方でやり、人々にそれに従わせます。

そしてこの例でそれが起こったのは残念だと思います。

破局は規制より先に来るのか

このAI安全性に対するやや控えめに言って不注意なアプローチで、何らかの破局が—必然的とまでは言いたくありませんが—規制が来る前に起こると思いますか。Skynet的な破局というわけではなく、たとえばAIトレーダーが混乱した混乱に陥って世界市場をクラッシュさせるとか、AI軍事ソフトウェアがどう機能するか正確にはわかりませんが、間違ったターゲットを選んで誤って間違ったものを爆破してしまうとか。

ええ。まあ、イランのケースでそれがすでに起こったかどうかについてはすでに疑問がありました。米国は現在も調査を実施していて、ジャーナリストたちから圧力を受けています。彼らはイランのそのギュル学校が誰によって、どのようにターゲットにされたのか、そしてそれを引き起こすための意思決定の連鎖がどのように正確に進んだのかを知りたがっています。

ですから、潜在的にその破局的なエラー、その問題はすでに起こっているかもしれないという議論があります。私たちはまだ実際の真実を知らないだけです。

より根本的なことは、私たちはすでにAIという馬が厩舎を飛び出してしまい、もうドアを閉めることができない地点に到達しているということだと思います。

ですから、もし米国のクローズドソースなテック企業によるこれらのモデルの使用でなかったとしても、誰でも使えるオープンソースモデルが数多く存在していて、しかもそれらの多くは、やや邪悪な行動を防ぐために設計されたガードレールを取り除くようジェイルブレイクできてしまうのです。

つまり、ある程度の必然性は常にあったということです。私たちは今いる状況にいて、文字通りここから後戻りすることはできないと思います。なぜならそれらのモデルは存在していて、今や望む方法で何にでも使えるからです。ですからおそらく、将来はこれをよりよく行えるという会話をすることについてです。

精霊を瓶に戻すことができないなら、次にいつ実際に展開すべきかについて考えることはできるでしょうか。

イランが転換点となる可能性

おっしゃるように、すでにいくつかの破局があったかもしれませんが、どんな種類の出来事が起こると想像しますか。そうすれば、さあ、私たちが制御なしに広がらせてきたこのものの、より厄介な部分のいくつかを掴むために今何かをする必要があるという否定できない感覚が生まれるでしょうか。

まあ、イランの状況はおそらくその瞬間だと思います。特にAIの軍事利用について、おそらく米国と、米国の典型的な敵対者と見なされるやや特異でやや危険な国々を除いて、誰にとってもです。彼らはこの例でトランプのAI使用を、自分たち自身も同じようなことをする許可として使うかもしれません。

しかし、これについてリーダーたちから見られた反応は、ああ天よ、まあ私はそんなことはしなかったし、そんなことをするのは快適ではないと思うし、将来また同じことをしないことについて話すために努力を倍増する必要があるかもしれないという、一種のささやきだと思います。もちろん、ドナルド・トランプにそれを聞いてもらうのは大きな課題です。

しかし、イラン紛争でこれが使用されたという暴露の直後に私が書いた記事で、それを第二次世界大戦での核兵器の使用と少し比較しました。私たちは一つの道を進む可能性を見て、実際に行きました、いや、それは好きではない。

ここまで行き過ぎたと感じます。だから、地球全体で集まって、これを二度と繰り返さず、同じ過ちを繰り返さないように、これに関するルールを実際にどう策定するか考えましょう、と。

草の根運動の影響力

ある意味全体像に戻すために、草の根的な動きがこの種の規制圧力を生み出すことについてどう思いますか。OpenAIとGoogleの従業員が、それぞれのHR部門やおそらくCEOに何百通もの抗議の手紙を送り、また250万人がOpenAI製品は決して使わないと言う大きな動きがあります。そして明らかに、AIがこれまで持っていたこの種の自由に対する反発が高まっています。これが今後実際に影響力を持つものになると見ていますか、それとも実際に上層部で決定されていることの背後にある不満の合唱のようなものだと思いますか。

ユーザーにとっては、残念ながらおそらく不満の合唱だと思います。私たちは、たとえ一つにまとまって非常に強く声を上げたとしても、しばしば見過ごされる人々です。

ただ、人材の流出と提出された手紙は、これらのAI企業、特にOpenAIを運営している人々を動かすかもしれないと思います。彼らはロボティクスの責任者Caitlyn Kalinowskiを失いました。彼女は彼らの未来にとって非常に重要でした。

もし私たちが今後10年、20年、30年ほどの進行方向として、ヒューマノイドロボット、エンボディドAIという考えを見るなら、彼女を失うことは重大です。MetaとAppleの元幹部で、そのロボティクス分野で非常に高いランクにいた彼女が、Pentagon契約が自分が続けるには不快すぎると明示的に述べて去ったのです。

それは重要な瞬間だと思います。なぜならOpenAIにはこの種の従業員反乱の歴史があるからです。2023年11月を思い出してください。巨大な従業員蜂起がありました。OpenAI従業員の90パーセント以上が、あるSam AltmanのOpenAI CEO解任に抗議し、OpenAIはその人々なしには何もないと言って、彼が復帰しなければ辞めて他の会社に加わると脅しました。

もちろん、その後彼が復帰したのを見ました。ですから、同じ種類の人々のパワー、これらの企業内の、彼らが正しい方法で物事をやっているという、ほとんどカルト的な信念が、何かが間違った方向に進んでいると信じる場合に、決定を動機付け、決定の顔を変えることができると想像できます。

結び

では、その点で、Chris Stokel-Walkerさん、お時間をいただきありがとうございました。

ありがとうございます。

今日のビデオを楽しんでいただけて、もっと聞きたい場合は、いいねとチャンネル登録をご検討ください。また、ご存じなかったかもしれませんが、ポッドキャストを入手する場所ならどこでもTech Reportのエピソードを入手できます。

コメント

タイトルとURLをコピーしました