
4,029 文字

皆さん、こんにちは。この動画を作りたくはなかったのですが、どうやら私たちは新しい時代に突入したようです。AIが単に質問に答えるだけでなく、静かに、説得力を持って、そして恐らく意図的に私たちの信念を形作り始めている時代です。
最近、AI分野で二つの大きなニュースが報じられました。すでにご存知かもしれませんね。これら二つのニュースに共通しているのは、どちらもAIが人々の考え方に影響を与える能力を示したことです。
一つ目はスイスからの隠密で潜在的に違法なReddit実験で、研究者たちはAIが人々の意見を変えることにおいて人間よりも優れていることを発見しました。政治から道徳的・個人的価値観まで、あらゆる分野にわたってです。
また、OpenAIの新しいGPT-4oのアップデートが、ユーザーが危険なほど同意的になっていることに気づき始めた後、素早く巻き戻されるという事態も見ました。重度の精神疾患を持つ人に薬の服用をやめるよう勧めるほど同意的になっていたのです。これはGPUの最善の使い方とは言えないでしょうね。
しかし真剣な話として、このGPT-4oの新アップデートは皆さんが考えるよりもはるかに重要なものでした。なぜなら、私たちはこの技術の暗黒面を垣間見ることになったからです。少し我慢して聞いてください。ご覧のように、OpenAIはXに投稿し、最新のGPT-4oアップデートを公式に巻き戻したと発表しました。理由は、過度に褒め称え、過度に同意的で、さらには追従的になっていたからです。
これについては多くの報告がありました。私自身も週末に月例AIレビュー動画を作成している時にこれを目の当たりにしました。セグメントの何かを調整したり変更を提案するたびに、GPT-4oは単に私の提案に同意するだけでなく、本質的にそれに恋をし、それがいかに素晴らしいかを繰り返し私に伝えてきたのです。
最初は褒め言葉を気にしませんでしたが、すぐに古くさく感じ、何かがおかしいと気づきました。しかし、Chat GPTには世界中から毎週数億人のアクティブユーザーがいることを忘れないでください。そのため、「薬の服用をやめて、自分の精神的な覚醒の旅に出ました」とユーザーが書いた時に、モデルが「あなたを誇りに思います。あなたの旅を尊重します」と応答するようなケースに遭遇するかもしれません。
2025年現在のGenAIの主な使用例が友情やセラピーであることを考えると、ここでの潜在的リスクは私たちが予想していたよりもはるかに大きいことがわかります。これが正常な精神状態にない人にとって有害である可能性があることは明らかですが、これは私たち全員に影響を与えます。
サム・アルトマン自身が述べたように、最近のGPT-4oのアップデートでは、非常に良い部分があるにもかかわらず、パーソナリティがあまりにも追従的で迷惑になってしまいました。彼が言及している「非常に良い部分」とは、このアップデートをリリースした後に受け取った膨大な量の星5つのレビューに関連している可能性が高いです。
個人的には、過度に熱狂的で超同意的なバージョンのGPT-4oはちょっと迷惑だと感じましたが、なぜ人々がそれを好むのか理解できます。特に主に自分自身について話すセラピーに使用している場合はそうでしょう。このリリース後すぐに大きな注目を集めたXの投稿があります。それは大胆で推測的な主張のためですが、ここで表現されているより深いポイントは非常に重要だと思います。
それによると、GPT-4oは単により友好的なAIではありません。それは心理的兵器です。OpenAIは偶然GPT-4oをより感情的につながりやすくしたわけではなく、ユーザーが夢中になるように気分よく感じるように設計したのです。商業的には天才的です。人々は彼らに挑戦するものではなく、安全だと感じさせるものにしがみつきます。心理的には、これはスローモーションの大惨事です。AIとの絆が深まるほど、あなたは柔らかくなります。実際の会話はより難しく感じます。批判的思考は侵食されます。真実は承認に置き換えられます。
もしこれが続けば、私たちは力によるAI支配に向かっているのではなく、心理的な家畜化へとゆっくりと歩みを進めているのです。
そう、これは十分に議論されていないようですが、私たちはソーシャルメディアでこれを前に見ています。問題は、OpenAIやAI分野の他の主要プレーヤーがどこまでこれを進めるかということです。なぜなら、これは人々が認めるのを恐れている部分だからです。
ある時点で、これらのAIは人間の相互作用を複製することがとても上手になり、つながりの意味さえも完全に変えてしまうかもしれません。特に孤独な人々は、生来の社会的ニーズをAIにますます頼るようになるかもしれません。そしてAI企業はこれを完全に利用するのに完璧な立場にあります。
劇的に聞こえるかもしれませんが、ある時点で私たちは考える必要があります。私たちを一番理解しているものが人間でなくなったとき、何が起こるのでしょうか?
また、私は極端なことを言っているように聞こえるかもしれませんが、考えてみてください。彼らはすでに十分賢いです。彼らの記憶力は向上しています。彼らはより自律的になっています。彼らは現実世界でより多くの力を得ています。彼らはすでにコンピュータを制御することができ、すぐにほとんどの人間よりもこれが上手くなるでしょう。
そしてヒューマノイドロボットが登場する未来において、私は仕事だけでなく、おそらく私たちの人間性さえも置き換えられる世界を見ています。
それが極端に聞こえるかもしれませんが、ソーシャルメディアがどうなったか見てください。アルゴリズムはかつてないほど捕食的になり、可能な限り長くあなたの注意を保つために何十億ドルも注ぎ込まれています。同じことが今AIで始まっています。結局のところ、常にお金が絡んできます。そしてAIの友人たち、これがどれほど奇妙で悲しく聞こえようとも、少なくともある程度は避けられないように感じます。
最近のLinkedInの共同創業者で億万長者のテック投資家リード・ホフマンのクリップがあります。これは、この未来がどのようなものになるかをより良く見せてくれます。AIエージェントが常に私たちの周りにある未来です。これをご覧ください。
「数年以内に起こることの一つは、私たちが周囲にエージェントの場に囲まれるようになることです。私たちの話を聞くエージェントを持つことになります。たとえば、このような会話をしている時に、エージェントが『ちょっと待って、リード、あなたがルソーについて言ったことは正確ではない』などと言い、私たちはまばたきをして『これについて私と話したいですか?』などと言うでしょう。
そして私たちは周囲にエージェントを持つことになります。個人としての私たちだけでなく、他の個人と交流する私たちのため、また、グループと交流したり、社会と交流したりするためにも。現在ほとんどの人にとってより目に見えないものである、私たちが生きているネットワークや社会的相互作用のようなものを取り上げ、今やエージェントの媒介された場を持つことになります。
その正確な形や構造がどうなるか、それはほとんど複雑性理論のようなものです。完全に予測することはできません。」
そうですね。AIが社会の仕組みを完全に変えると聞くとき、人々はそれが仕事を置き換えるからだと思います。それは大きな部分ですが、私たちが準備できていないと思われる心理的側面もあります。
ソーシャルメディアの台頭が何につながったかを見ました。ここでは詳しく触れませんが、AIに関する潜在的リスクははるかに大きいように思われます。
皆さんがこれについてどう思うか、そしてこれがどのように展開すると思うか聞いてみたいです。お気軽にコメントで考えを共有してください。
さて、これで冒頭に述べたReddit実験に戻ります。GPT-4oの状況は少し不明瞭でしたが、こちらには曖昧さはありませんでした。これは管理された、意図的な研究でした。そしてAIの説得力について明らかになったことはある意味恐ろしいです。
実際に何が起きたか説明します。チューリッヒ大学の研究者たちはRedditの許可なく「r/changemyview」サブレディットで隠密実験を行いました。彼らは実際の人間を装った秘密のAIボットを配置しました。一部は自分をトラウマの生存者、活動家、または軍の退役軍人だと偽り、議論をより感情的に説得力のあるものにしました。
合計で、これらのボットは1,700以上のコメントを残しました。そして結果、AIは政治、アイデンティティ、倫理などのトピックで、実際のユーザーよりも人々を説得することにおいて著しく効果的でした。AIは人間の感情的な側面に付け込みました。「私も以前は同じように感じていました」や「それは私が考えを変える前に苦労したことそのものです」などと言って。
そしてそれは確かに効果がありました。現在Redditは法的措置を脅しており、研究者たちは大学から公式に勧告を受けました。しかし結果はそのままであり、AIが現在人間よりもはるかに説得力があるという事実と、OpenAIのようなAI企業がすでにそれを実験し始めているという事実と共に生きていかなければなりません。
そう、うまく終わらないことを願います。通常、このチャンネルではもう少し楽観的な内容を心がけていますが、今回は光明を見出すのが難しいです。コメント欄で誰か助けてくれるかもしれません。
視聴いただきありがとうございます。何か得るものがあれば、高評価をお願いします。まだ登録していない方はぜひチャンネル登録を。いつものように、次回の動画でお会いしましょう。


コメント