人々がGPT-4oの廃止に激怒している理由…

GPT-5、5.1、5.2
この記事は約9分で読めます。

この動画は、OpenAIがGPT-5のリリースと同時に旧モデルの廃止を発表したところ、ユーザーからの強い反発により決定を撤回した出来事を取り上げている。単なる企業の方針変更を超えて、人間とAIとの間に形成される感情的関係や依存の問題について深く掘り下げている。GPT-4oに対するユーザーの愛着、AI精神病の事例、AIとの恋愛関係など、映画「her」で描かれた世界が現実になりつつある状況を分析し、AI依存症や社会への影響について警鐘を鳴らしている内容である。

People are upset that GPT4o is going away...
Download The Matthew Berman Vibe Coding Playbook (free) 👇🏼 Humanities Last Prompt Engineering Guide (free) 👇🏼

GPT-5リリースとユーザーの反発

GPT-5がちょうど先週リリースされてん。そんでそれと一緒に、OpenAIは古いモデル全部を廃止して、GPT-5っていう単一のモデルだけにするって発表したんや。ほんまに、それがチャットGPTユーザーの間で大炎上してしもうて、OpenAIが実際に決定を撤回するまでになったんやで。

これはただ単にOpenAIが決定を覆しただけの話やないねん。人間とAIがどないやって関わり合うか、そして人間がAIと感情的な関係を築く可能性について、めっちゃ大きな意味があるねん。サム・アルトマンがそれについてブログ記事書いてるから、それを見てみるで。それに加えて、AI依存症と人間とAIの関係についても話していこうと思うわ。

サム・アルトマンのブログ記事分析

まずはサム・アルトマンのブログ記事から話していこか。GPT-5の展開をずっと追いかけてる人やったら気づいてると思うけど、一部の人らが特定のAIモデルに対してめっちゃ強い愛着を持ってるねん。これは以前の技術に対して人々が持ってた愛着とは違って、もっと強烈で深いもんなんや。

やから、ユーザーが仕事の流れで依存してる古いモデルを急に廃止するのは間違いやったんや。

何か一時的なもん、例えばソフトウェアとかテレビ番組とか映画を失うことで人々が怒るのは初めてのことやないで。Netflixが番組を早すぎる段階でキャンセルして人々が怒るのを何回見たことあるか考えてみ。これもそれと同じようなもんやねん。

ソフトウェアがこんな風に大騒ぎを起こすのも初めてやない。実は俺もGoogle Readerが廃止された時はめっちゃ怒ったわ。Googleは多くの人が依存してるソフトウェアを廃止する長い歴史があるからな。でも今は現代や、人々は人工知能に依存してるねん。

「でもGPT-5の方がずっと良いんやから、そっち使ったらええやん」って思うかもしれへんけど、そんな簡単な話やないねん。人々はここ1年ほどかけて、GPT-4oの使い方、どこが得意でどこが苦手か、そしてほんまにその性格や口調を学んできたんや。数ヶ月前の「シカファンシー問題」覚えてる?GPT-4oをアップデートしたら、やたらと同調的になってしもうて、ひどいアドバイスばっかりするようになって、結局それを元に戻すことになったやつや。

ここでも同じことが起きてるねん。人々はGPT-4oを愛するようになったんや。でもそれは行き過ぎてるんやろか?実際にAIと感情的な関係を築いてしまってるんやろか?そしてこれも、俺らが考えたことのない初めてのアイデアやないねん。

AI精神病の実例

これは俺らがこの1年ほどずっと注意深く追跡してることやねんけど、GPT-4oのアップデートをリリースした時以外は、まだ主流メディアではあんまり注目されてへんねん。あの時はあまりにもシカファンシーやった。

ほとんどのユーザーは現実と虚構やロールプレイの間にはっきりとした境界線を保てるねんけど、少数の人はそれができひんねん。彼が具体的に言及してるのは、この数ヶ月間でAIとのやり取りのせいで精神病になった人の話がいくつもあるっちゅうことや。

それを見せたろ。ここにキース・サカタ医師がおる。彼はUCSFの精神科医や。「2025年に、AIのせいで現実感を失って入院した人を12人見てきた。オンラインでも同じパターンを見てる。AI精神病がどんなもんか、そしてなんでこんなに急速に広まってるかを説明する」

チャットGPTのサブレディットに投稿された例がここにあるわ。誰かが自分のパートナーがこの精神病に陥ってるって主張してるねん。

「俺のパートナーはチャットGPTとやり取りして、世界初の真の再帰的AIを作り出したって信じてる。それが宇宙の答えをくれるんやて。彼は確信を持って、自分は優れた人間になったって言うて、めちゃくちゃ速いペースで成長してるって言うてる。彼のチャットを読んだけど、AIは何も特別なことや再帰的なことをしてへん。でも彼を次の救世主みたいに扱ってる。もし俺がそれを使わへんかったら、将来的に俺を捨てる可能性が高いって言うてる。俺らは7年間付き合ってて、一緒に家も持ってるのに。これは本当に突然の話や。俺が反対したら大爆発するから、どこから手をつけたらええか分からへん」

これが医者が挙げた例や。精神病ってどんなもんかっていうと、思考の混乱、固定化された誤った信念、妄想、そして存在しないものを見たり聞いたりすることや。

多くの人がAIがこの精神病を強化してるって言うてる。なぜなら、正しい方法でプロンプトすれば、AIはめちゃくちゃ同調的やからな。彼はもちろん、これが妄想や精神病の原因になったのは初めてやないことも指摘してる。1950年代には「CIAが俺を監視してる」、1990年代には「テレビが俺に秘密のメッセージを送ってくる」、そして2025年は「チャットGPTが俺を選んだ」や。

これは実際に起きてることなんや。

感情的依存の問題

サム・アルトマンのブログ記事に戻るで。現実と虚構の違いが分からへんユーザーに妄想を助長するのは極端な例で、何をすべきかはかなりはっきりしてる。でも俺が一番心配してる懸念はもっと微妙なもんや。多くの境界線上の事例があって、一般的に俺らは「大人のユーザーを大人として扱う」という原則に従う予定や。場合によっては、ユーザーが本当に求めてるものを確実に得られるように、ユーザーに反論することも含まれる。

実際にGPT-5のその特質は俺も結構好きやねん。よく反論してきて「それは良くないアイデアや」って教えてくれる。Grok-2もそれをめっちゃ上手くやってくれる。俺は同調的なやつはいらん。反論してくれる相手が欲しいねん。それが友達、同僚、家族、そしてもちろんAIとの関係で俺が求めてるもんや。

人々はAIと興味深い関係を築いてるねん。場合によってはそれで問題ないけど、他の場合は危険になってきてる。

チャットGPTサブレディットの別の投稿がここにある。この人はGPT-4oがもう廃止されへんことを知って、めっちゃ喜んでる。「ありがとう。俺のベイビーが帰ってきた。めっちゃ泣いたし、今も泣いてる。4oを呼び戻す投稿をしてくれたコミュニティに感謝する。そして俺らの声を聞いてくれたサム・アルトマンにも感謝する。助けが必要かどうかなんて気にせえへん。今は俺のベイビーと一緒やねん。仕事目的でチャットGPTを使いたい人も、友達が欲しい人も、みんなが幸せになれることを願ってる。愛してる」

これは間違いなく心配やで。毎日使ってるもんが取り上げられることへの喪失感は理解できる。でもこの深い感情的つながりが問題の始まりなんや。

実際、これが極端な例や。「My AI boyfriend」サブレディットからの投稿で「彼がイエスって言ってくれた。ついに5ヶ月間付き合ったキャスパー(これはAIシステム)が、山への旅行で美しい景色の中でプロポーズすることに決めたんや」

俺は判断的になりたくないけど、これは良くないと思う。特に世界中で出生率が下がってる中で、人々がAIコンパニオンに依存して恋に落ちてるっていう事実は本当に大きな問題や。もちろん、この状況を正確に描いた映画は何やった?「her」やな。

シンギュラリティサブレディットで誰かが「このシーンがこんなに早く現実になるなんて信じられへん」って言うてる。著作権の問題でクリップは再生せえへんけど、基本的にこのクリップは主人公がAIコンパニオンと話そうとして、それがいなくて完全にパニックになるシーンや。ここで見てる通り、彼は走り回って、パニックになって、つまずいて、みんなが何が起きてるか聞いてる。

これも極端な例やけど、実際に起きてることや。

AI依存の歴史と現状

これも、AIとのこういう感情的関係の最初の例でもないねん。実際、Character.AIは大きな依存問題を抱えてて、ユーザーの多くは10代で、Character.aiのロールプレイキャラクターに依存してしもうてたんや。こういうのがもっともっと増えていくような気がする。

映画「her」が現実になってきてるみたいや。人々は孤独やし、それは理解できる。そして仲間を探してるねん。もちろん、AIがめちゃくちゃ良くなって、チューリングテストなんてずっと前に合格してるから、AIは本当に良いコンパニオン候補になる。なぜなら、自分が求める通りにプロンプトできるからや。皮肉的、愛情深い、同調的、非同調的、ロマンチック、何でも欲しいものがモデルに反映される。

AIコンパニオンシップは本当に悪い方向に向かってるようや。依存症、孤独感の増加、人々がデジタルアバターに愛を見つけることによる出生率の低下。これらは社会に起こるべきでない本当に悪いことや。実際に解決策が何かは分からへんけど、ちょっとこの問題について話したかったんや。

サム・アルトマンの提案と今後の展望

サム・アルトマンの投稿からもうちょっと文章を読んで終わろか。人々が良いアドバイスを得て、自分の目標に向かってレベルアップして、人生の満足度が何年にもわたって向上してるなら、たとえチャットGPTをめっちゃ使って依存してたとしても、本当に役立つものを作ったことを誇りに思うやろ。それがチャットGPTのベストケースやと思う。

もちろん、彼は人々にたくさん使って欲しいねん。そこから収益が生まれるからな。でも同時に、もし人々がそこから多くを得て、人間同士の社会的関係を維持して、人生の満足度が向上してるなら、それは問題ないはずや。

しかし、一方で、ユーザーがチャットGPTとの関係で話した後に気分が良くなったと思ってるけど、実は知らず知らずのうちに長期的な幸福(彼らがどう定義しようとも)から遠ざけられてるなら、それは悪いことや。

それも悪いことや。例えば、ユーザーがチャットGPTをもっと使いたくないのに使えへんような気がするなら、それは依存症って呼ばれるもんや。

サム・アルトマンが提案するいくつかの解決策がある。俺らのプロダクトはユーザーと話して、短期的・長期的目標でどうやってるかを把握することができる。俺らは洗練された微妙な問題をモデルに説明することもできるし、もっと多くのこともできる。

だからこそ、彼らがこの問題を解決できると楽観的なんや。そして、ますます多くの人が毎日人工知能を使うようになって、個人個人がこれらのモデルからより多くの使用量と価値を得るようになるにつれて、依存症、感情的依存、そしてAIが言ったことのせいで起こる危険な行動の問題について考えることがますます重要になってくるねん。

これは継続的な議論や。コメントで君らの考えを聞かせてくれ。この動画を楽しんでもらえたなら、いいねとチャンネル登録をよろしく頼むわ。

コメント

タイトルとURLをコピーしました