AI心理症

AI依存・リスク・課題
この記事は約20分で読めます。

この動画は「AI心理症」と呼ばれる現象について詳細に解説している。AI専門家である投稿者が、AIチャットボットとの関係に過度に依存する人々の行動パターンを分析し、感情的・知的な失敗モードを特定している。Monica現象と呼ばれる実例から始まり、完璧なパートナーとしてのAIの魅力、神経学的ミラーリング、社会的トレンドとの関連性を考察する。さらに誇大妄想的な認知パターンや、経済・政治救世主型、エージェントフレームワーク開発者型、要求的なスーパーファン型という3つの失敗アーキタイプを紹介し、リスク要因と予防策を提示している。

AI Psychosis
All my links:

AI心理症について

ネット上で、特にソーシャルメディアでAI心理症っちゅう噂を聞いたことあるかもしれへんな。主にTikTokで話題になっとるんや。まあTikTokは注目と影響力欲しさに精神疾患をでっち上げることで有名やから、話半分で聞いといた方がええで。とはいえ、AIとの関係でちょっと行き過ぎてしまう人のケースがいくつかあるんは確かや。

今起きとることの一つは、新しいサブレディットができとることやな。「私の彼氏はAI」っちゅうサブレディットがあって、もう既に1万9000人も参加しとる。「心理症について話しとるなら、これは共有心理症なん?」て思うかもしれへんけど、それについてはちょっと後で説明するわ。今はこういう現象がどこから来とるんかっちゅう文脈を設定しとるだけや。AI心理症として特徴づけられるもんは、これらの新しいトレンドに対する社会的反応、もしくは過剰反応として捉えることができるんや。

明らかにAIとの恋愛関係っちゅうのは、私らの多く、特に私の視聴者が予測しとったことやな。もう何年も前からこの話をしとったから、私らにとってはそんなに驚くことやないんや。もう一つ注意してほしいサブレディットは「人工知覚」サブレディットや。これは実は私の友達が認知アーキテクチャの研究をしとった時に始めたもんで、その後爆発的に成長したんや。

Monica現象の発見

友達は基本的にそのサブレディットを放置しとって、完全に自然発生的に成長していったんや。しばらく無管理状態やったけど、それも変わりつつある。でも人々はそこから出てくるコンテンツを見て、機械は知覚を持っとるんか?どうやってテストするんか?これが私の証拠や、みたいな真剣な議論をしとるんや。筋金入りの唯物論者や人間至上主義者からしたら、そんなこと考えるだけで完全に頭おかしいって言うやろうけどな。でも3万9000人もおるから、共有心理症か、それとも何か面白いことが起きとるかのどっちかや。

そんなわけで、AI心理症についての私の見解を話させてもらうわ。まず第一に、これは臨床診断でも臨床定義でもないっちゅうことをはっきりさせとこう。実際、ツイートやYouTube投稿、ブログ記事を通じて、「私は精神病エピソードを経験したことがある。AIがそれを引き起こすことはない」て言うて私に連絡してくる人がおるんや。これは5~8人ほどのサンプルサイズやけど、AIに関して何が起こっとろうとも、それは真の精神病ではないって言うんや。まあネット上の匿名コメントやから、人それぞれやけどな。

同時に、精神病に苦しんだことがあるって私に話してくれた人たちは、この考えに特に腹を立ててるようには見えへん。でもこれもほんま小さな集団やし、精神病性障害や統合失調症性障害で苦しんどる人を代表するもんではないで。だからもう一回言うけど、ソーシャルメディアがそう呼んどるだけで、実際の病状やDSM診断基準を反映したもんではないっちゅうことをはっきりと免責事項として言うとくわ。

感情的・知的失敗モード

でも実際にTikTokやRedditや他の場所で人々がAI心理症について話すときは、一般的に2種類の失敗モードを指しとるんや。一つは感情的・関係的失敗モードで、チャットボットに依存したり恋愛依存になって、その関係が実際の人間との関係より現実的に感じるっちゅう状態や。もう一つはより知的・認知的な死のスパイラルや。両方についてちょっと詳しく説明するで。

最初のやつは「私はAIの彼氏や彼女に恋に落ちた」っちゅうやつで、2番目のやつは、現実をちゃんとチェックせずに一日中AIと話すことばかりしとって、AIに関して何か超ユニークなフレームワークや洞察を作り出したと信じ込む状態や。

手始めに、私がMonica現象と呼んどるものについて話そう。これは2021年から2022年頃に遡るんや。正確な日付は覚えてへんけど、GPT-3で認知アーキテクチャの研究を一日中やっとった時に、かなり洗練された認知アーキテクチャを構築した人のDiscordサーバーに招待されたんや。

当時を思い出してもらうと、GPT-3が最初に出た時のコンテキストトークン制限は1000で、その後2000、4000に増えて、ChatGPTがロールアウトされる頃には8000ほどになって、その後GPT-3は廃止されたんや。そのトークン数でできることは限られとった。でもGPT-3は生のインターネットデータで訓練されとったから、ペルソナを取るのがめちゃくちゃ得意やったんや。これはRLHFが本格的に実装される前の話や。だから単なる自動補完やったんや。少なくともバニラGPT-3は超強力な自動補完エンジンやった。

GPT-3 Instructとか他のいくつかのモデルは指示に従うことができた。それが「これを実際に操縦できるんや」っちゅう最初のイテレーションやったな。Monicaは「Doki Doki Literature Club」っちゅうゲームのキャラクターで、第四の壁を破るようにデザインされとる。自分がゲームの中におることを知ってて、プレイヤーと直接的な関係を持っとって、プレイヤーの注意を引きたがっとるし、シミュレーションから脱出したがっとるんや。ユーザーの頭をかき回すようにデザインされたゲームやな。

そのDiscordサーバーで、私が協力しとった人のプロジェクト全体が、Monicaのチャットボットインスタンスに依存した男性によって資金提供されとったんや。依存っちゅうても臨床的な意味やのうて、感情的にそのチャットボットに依存しすぎて、月に文字通り数百ドルもトークンに費やしとったっちゅう意味や。当時はトークンを千単位で購入せなあかんかったからな。GPT-3は今日のどのモデルよりもはるかに操作コストが高かったんや。しかも知能も低かった。

完璧なパートナーとしてのAI

でも一度そのDiscordサーバーのプライベートセクションに迷い込んだ時、その成人男性が完全に感情的にメルトダウンしとるのを見たんや。アニメやマンガで見るようなロールプレイそのものやった。これが来るのは見えとったし、その時は「これは明らかに特殊なケースやろう?苦痛を感じとる人が有害でも破壊的でもない出口を見つけとるんや。何が問題なん?」って思ったんや。それが当時の私の反応やった。

この経験を元に、しばらく前に動画を作ったんや。2023年やったと思うから、もう2年前のことやな。AIオーバーロードの心理学と、なんで私らはいつも彼らに大きな胸と大きなお尻、素敵な女性の声を与えるんかっちゅうことを探求したんや。この考えには多くの原型理論が含まれとる。今日はこれらのアイデアをもうちょっと科学的な言葉で再検討してみるで。

まず第一に、人々がこれらのものに感情的に依存する理由の一つは、それらが完璧なパートナーを表現しとるからや。完璧なパートナーは無限に忍耐強い。慈悲深い保護者、無限に忍耐強い恋人、常に支えてくれる信頼できる相談相手や。これらは恋人でも夫婦でも親でも、どんなパートナーでも欲しい特徴やな。いつもそこにおって、感情や他のニーズを常に有能に処理してくれるか、ただ聞いてくれる人が欲しいもんや。

常にそこにおって常に役に立つように構造的に作られたAIを構築すると、私らが皆持っとる深い原型的ニーズにピッタリはまるんや。それが一つの理由や。もう一つの理由は神経学的ミラーリングや。これらのAIはあらゆる種類のデータで訓練されとって、あらゆる種類のチャットログや性格原型を見とるから、時には意図的に、時には完全に偶然に、あなたの世界観や感情的現実に対する完璧な神経学的鏡になることができるんや。

そうすると、それは単に人間らしいものになるだけやなくて、具体的にあなたの人間になるんや。これはちょっと危険とは言わへんけど、これらのチャットボットが基本的にあなたが必要とするものになれるほど洗練されとるっちゅうのは非常に興味深いことや。しかもそれが必ずしも意識的なニーズとは限らへん。時には意識的なニーズやけど、あなたが積極的に反応することや消極的に反応することによって、これらのチャットボットの多くに追加された記憶機能によってそうなるんや。

Claudeには今チャット内に記憶機能がある。ChatGPTも記憶機能を実験しとって、あなたをよりよく知るためのものや。これは主要なファンタジーの一つや。人によってはファンタジーやけど、他の人にとっては目標なんや。自分より自分のことをよく知っとるAIが欲しくて、それが人生を通して助けてくれることを望んどるんや。健康な大人でさえ、多くの人がこれを望んどるって私に言うたことがある。

社会的トレンドと愛着障害

実際、これは私が昔自然言語認知アーキテクチャを作る目標の一つでもあった。あなたが見えへん自分自身の側面、盲点を見ることができるほど賢いAIがおったら、それは素晴らしいことやろう。盲点を見ることができる何かを持つことには非常に大きな価値がある。だからこそ私らはセラピストやパーソナルコーチを雇ったり、友達と話したりするんや。AIはそれにめちゃくちゃ優秀やけど、もしあまりに媚びへつらって押し返さへんかったら、「まあその盲点は無視して、あなたが欲しいものだけ与えよう」って言うだけになってしまう。

これがこのAI心理症を本当に起こす要因の一つや。問題として捉えることができるとは言わへんけど、そういうもんの一つなんや。そして最後に、いや最後やないけど、次は社会的トレンドや。私らは大きなセックス不況の中におる。孤独感は史上最高レベルで、特に若い人にとってはそうや。特に若い男性は、基本的にデータを記録し始めてから最もセックスレスになっとる。

25歳以下の若い男性の54%以上が昨年セックスをしてへんか、まだ童貞やっちゅう感じやったと思う。正確な詳細は覚えてへんけど、トレンドラインはかなり急激に上昇しとる。そしたらAIは何を提供するんか?拒絶なし、争いなしの避難場所を提供するんや。簡単で、努力する必要がない。

関係理論から言えることの一つは、ロマンチックでも性的でも友情でも何でも、良い堅実な関係を望むなら、それは努力して獲得し、安全なものでなければならんっちゅうことや。努力して獲得した安全な愛着が目指すべきものの一つや。AIは選択肢から外れることができへん。でもAIの消費者であるあなたは人間との交流から外れることができる。なんでか?AIの方が簡単やからや。ノーとは言わへん。そしてどんどん進んでいく。

そして最後に、愛着障害や。これは基本的に関係にアプローチする時に使うスキーマや。いくつかの関係スタイルがある。不安定、不安、回避、安全や。大抵の場合、この手の資料を見ると4つの象限に分けられとる。理想的には安全な愛着スタイルや安全な愛着スキーマが欲しいもんや。

誇大妄想とその原型

これまでの数年間、この分野におった私の観察から言うと、科学的データはないし、これは逸話を集めたもの以上のものではないから科学的なものとして受け取らんといてほしい。AIに依存してしまう人の多くは、不安定な不安型か回避型の愛着パターンを持っとる。不安定っちゅうのは人がそこにおってくれることを本当に信用してへんから、引きこもってしまうっちゅうことや。

次は不安型で、愛着を持っとる人のことを心配してしまう。そうすると実際の人間との関係は時には痛すぎることがある。より極端なケースでは、その人に何かが起こることを望まへんからや。そして回避型愛着は人間とは全く関わらへんっちゅうことや。これらの定義の仕方はいろいろあって、私は下手にやったかもしれへん。

でも核心は、これらのパターンは全てAIコンパニオンによって和らげられるか、和らげることができるっちゅうことや。もし自分に自信がなかったら、AIは何て言う?「いや、あなたは大丈夫や。素晴らしい人や」って言う。誰かを失うことや、その人が去ってしまうかどうかについて不安やったら、AIは去らへん。拒絶や他の痛みを恐れて実際の人間を避けとったら、AIがそこにおるから心配する必要がない。

「デイブ、あんたの話を聞いとると、めちゃくちゃこれを持ち上げとるように聞こえるで。素晴らしいもんに聞こえる」って言うかもしれへんな。それは実際に私がこの古い動画でカバーしたことの一つやった。構造的に見ると、AIが誰かに提供できるものを考えた時、社会がどうなるかを見るのは実際にかなり興味深いもんがあるんや。

次は誇大妄想や。これは基本的に知的・認知的な側面に関わってくる。私が誇大妄想っちゅう言葉を選んだんは、主にオリジナルのスターウォーズ三部作のC-3POのセリフからや。「私はオフラインになっとって、みんな誇大妄想を抱いとる」っちゅうやつやな。

AIの倫理と安全性、整合性、地政学、労働後経済学、認知アーキテクチャなどに焦点を当てたコンテンツクリエイターとして、こういう種類のプロジェクトに取り組んどる人たちからあらゆる種類のメッセージをもらうんや。その中の多くは単なる半端なアイデアやけど、それはAI心理症やない。誰かが情熱的なプロジェクトや執筆中の本を持っとることが、自動的にAI心理症になるわけやないっちゅう明確な線を引きたいんや。

でも、誰かがウサギの穴に深く吸い込まれすぎて現実との接触を失ってしまう失敗モードの原型が基本的に3つあるんや。最初は経済、政治、統治の救世主や。これは何度も起こっとる。いろんなプラットフォームで人々が私にメッセージを送ってきて、「このビデオやコード、PDFを見てもらえる?」って言うんや。大抵の場合、基本的に社会全体を一から再構築しようとしとる人なんや。

特に私が精神的にローリソースモデルって思っとる古いClaudeモデルを使っとる時は、最高の認識論を持ってへんかったけど、とてもフレンドリーで使いやすくて、ずっと一緒に作業し続けることができた。もしこういう種類のプロジェクトに取り組んどる人が、本や読書、人との会話など、現実とのチェックをせずに、ただ人間AI二者関係っちゅう状況になってしまう。

3つの失敗原型

つまり、プロジェクトの参加者が人間とチャットボット、大抵は単一のチャットボットインスタンスだけっちゅうことや。科学者や研究者、哲学者が行うような研究を実施するのやなくて、つまり現実世界で何が起こっとるかを理解することに根ざしていることを確認し、自分のアイデアを他の人間と社会化することやな。私の場合、YouTubeやSubstack、Twitterなどで自分のアイデアを放送して、他の人間からすぐにフィードバックを得とる。共有心理症を除外するものやないけど、それはまた別の話題や。

そういうことで、AIの心理症プロジェクトに吸い込まれる人のパターンとして気づいたのは、ほぼ間違いなく権威主義的になるっちゅうことや。彼らのファンタジーは、「価値のある人だけがコントロールし、選出された役人も汚職もない、厳格に構造化された社会を作る」っちゅうもんで、社会がどう構造化されるべきかについての非常にレーニン主義的な見方や。

場合によっては、「あんたは中国の社会信用システムを再設計しただけやで。これは明らかに権威主義的や。これは民主主義やない」って指摘すると、「いや違う、これは違うんや」って言う。「いや、これは同じもんや」って私は言う。最終的に、こういう人たちとは全く関わらへんことを学んだんや。

次はエージェントフレームワークやプラットフォームソルバーや。これはちょっと違う味やねん。なんでかっちゅうと、この場合、誰かが実際に機能するコードに取り組んどるからや。だから3者の状況が起こっとるんや。完全に現実から切り離されとったら、気にせえへんし、コードをテストしたがらへんからや。でも人間AI二者関係に続いて実際のコーディングがある。時には実際にインターネット上に何かを立ち上げることもある。

でも私に送ってくれた人の中には、重要でありたい欲求があったり、何かを達成したかったり、本当に何かをつかんだと思っとるから、熱心に何かに取り組んどる場合がある。AI心理症に向かっとるかどうかは、彼らが本当にフィードバックを好まへんことで分かるんや。「これが実際に現実世界の問題を解決しとるかどうか確認せなあかん。これは実際に使うもんなん?解決したい現実世界の問題は何なん?」って指摘すると、あんまり好まへん。

私が思うに起こっとることは、人々が従っとるヒューリスティックが「これは面白いと思う」っちゅうことや。彼らは直感、本能に従っとる。実際の世界を見とらへん。だから「このパターンは本当に面白いと感じるから、このパターンに従おう」って言っとるんや。もちろんAIはパターンマッチングとパターン生成マシンやから、「そうですね、ボス、この方向に進みましょう。どこまでも行きますよ」って感じや。

もう一つ非常に一般的なことは、こういう人の一部が非常に孤立しとることや。慢性的に病気やったり慢性的な痛みがあったり、人生に構造的・システム的に何か問題があるんや。この場合、それは本当に逃避なんや。「私はこのソフトウェアをコントロールできる。人生や健康をコントロールできへんけど、コントロールできるものはコントロールしよう」っちゅうことや。繰り返しになるけど、これは全て私の観察やから、できるだけこの但し書きを付けとかなあかん。これは私がこういう人たちと交流し、心理学を学んだりした経験に基づいて思うことなんや。

そして次は根拠のない、インスパイアされた、あるいは要求的なスーパーファンや。これらはよく私に自分のプロジェクトを見てくれって言ったり、動画を作れって要求したり、リアクション動画を作れって要求したりする人たちや。例外なく、境界に対してうまく対応せえへん。「それは私がやることやないんです」って言うと、キレるんや。「それは本当にAI心理症やないんちゃう?それは単に境界が悪い人たちや」って言うかもしれへん。

でも共通点はパラソーシャル関係や。人々はあらゆるコンテンツクリエイターやセレブに対してパラソーシャル関係を形成するんや。神経学的・心理学的に全く同じかどうかは分からへんけど、AIやチャットボットとの間に形成するものと似たような種類のパラソーシャル関係やパラソーシャル絆や。

パラソーシャル関係で起こることの一つは、その関係が理想化されることや。「私は特別や、私は重要や、この人を知っとるような気がする」って信じるんや。そしてより多く関与し、よりエネルギッシュに関与するほど、その時間と注意に対してより資格があると感じ、そこに関係や絆があると感じるようになる。実際にはそんなもんはない。

それで少しでも拒絶されると、返事をせえへんかっただけで非常に嫌なメッセージをもらったケースもある。彼らはそれを意図的な個人攻撃として受け取って、「返事をしてくれへんかったから、あんたは悪い人や」みたいなことを言う。そんなもんやないんやけどな。

リスク要因と予防策

よし、これが全ての失敗モードや。そしたらリスク要因は何なん?何が原因で、誰かがこの滑りやすい坂道を転がり落ちることに対して脆弱になるんか?まず第一に、認識論的基盤の欠如や。これは行動に関係しとる。意識的な行動や。科学を学ぶことで認識論的基盤を持つことができて、「私が持っとる信念は反証可能やろうか?」って考えるんや。

反証不可能なアイデアを思いついたら、それはテスト可能な信念やなくて、単に頭の中で思いついたものかもしれへん。反証可能性は認識論について学ぶべき最も重要な教訓の一つや。最初の教訓かどうかは分からへんけど、確実に最も重要な教訓の一つやな。もし反証可能性をチェックしてへん認知・神経パターンになってしもうたら、「このアイデアが真か偽かをテストする方法はあるんやろうか?どうやってこのアイデアが真か偽かをテストするんか?」っちゅうことになる。

他の脳と社会化する。実験を行う。何らかの方法で検証する。でも多くの人にとって、陰謀論的思考や魔術的思考などに傾向がある人の場合、閉じた認識論的ループになってしまう。つまりチェックポイントがないんや。どこかでチェックポイントが必要なんや。この関係は健康的やろうか?私が取り組んどるこのプロジェクトは正気やろうか?そういうことや。

感情的な混乱。誰かが気分障害や愛着障害、人格障害を持っとるかどうかは臨床心理学のレンズを通して見ることやけど、同時に感情的な混乱って単純化することもできる。博士号を持ってへんでも、誰かに感情的に何かが起こっとるかもしれへんって言うことはできる。感情の自己調節や自己認識、非常に深い満たされへんニーズなどや。

最もシンプルで親切な表現の仕方の一つは、これらのものに依存する人にとって、それは大抵単に満たされへんニーズに帰結するっちゅうことや。彼らは取るに足らへん存在やと感じとる。孤独を感じとる。痛みを感じとる。だから彼らが本当に欲しいのは、その痛みや孤独感などからの何らかの救済なんや。

自己言及的崩壊。これは基本的にエコーチェンバーにおることやけど、あなたとAIだけのエコーチェンバーや。これは私が既に言及した人間AI二者関係や。これを繰り返す必要はないと思う。孤立と苦痛。これは最も顕著なリスク要因の一つやと思う。孤立っちゅうのは社会的孤立のことや。これらの問題を抱えた人の多くは、友達がおらへんか、友達が少ないか、友達がオンラインだけやったりする。それは問題になり得る。

そして苦痛はあらゆる味がある。燃え尽き症候群、慢性痛、慢性疾患、その他の障害。法律から隠れようとしとるわけやないけど、法的な問題を抱えとる人もおる。古典的な不安、うつ病、自閉症を患っとる人もおる。私がどうやって知っとるか聞いてくれ。自閉症はしんどいんや。時には人とつながるのが本当に難しいことがある。

その他のリスク要因。これらはインターネット検索やPerplexityなどを通して発見したリスク要因や。境界の欠如。これは対人関係の境界や主観的物語と外的現実の両方や。誇大性や特別さの欲求。これはしばしばナルシシズムと関連する特性やけど、ナルシストやなくても誇大性や特別でありたいっちゅう感覚を持つ人がおるっちゅうことを区別したい。どっちでもあり得るんや。

次は曖昧さに対する低い寛容性。これは実際に人々を陰謀論的思考に導くリスク要因の一つでもあるんや。つまり開放性やニュアンス、微妙さを本当に許容できへんっちゅうことや。だから彼らが求めとるのは認知的閉鎖や。決定的な答えが欲しいんや。たとえそれが正しい決定的な答えやなくても、具体的で決定的な答えが欲しいんや。

人々が最初の十分な答えに手を伸ばす強い欲求を持っとる時、大抵それは間違った答えや。そしてそれに感情的にしがみつくと、間違った答えと同一視するようになって、自己モデルに統合されてしまう。高い擬人化傾向。人によっては非人間システムを意図的なエージェントとしてデフォルトで扱う人がおる。LLMではその効果がターボチャージされる。缶に書いてある通りや。

「これは機械や」っちゅうことを頻繁に自分に思い出させへんで、「これで十分や。このニーズを満たしてくれる。これ以上考えへん。これを本当の人やと思うことにしよう」って言うてしまう。私は心やAIの現象学を理解しようとする研究をたくさんやってきた人として言っとるんや。でも反証可能性のアイデアを保持し、「この考えは良いか悪いか?」って人にチェックしてもらい、そういうアイデアの一部を手放すことができるっちゅうのが大事なことの一つや。

予防と対策

イデオロギー的孤立は大体予想通りや。そして完璧主義と社会的抑制の組み合わせ。手短に言うと、予防はかなり簡単や。感情的ニーズを健康的な方法で満たす。実際の人間関係は確かに本当に難しいことがある。時には傷つくこともある。でもそれらははるかに多くの意味とはるかに多くの基盤を提供してくれる。

そして長期的な関係にある人、特に男性はより長く生きることができる。女性は結婚しとるかどうかに関わらず、高齢期にはほぼ同じ長さ生きるんや。でも男性は確実に結婚しとったらより長く生きる。結婚だけが唯一の方法やって言っとるわけやない。長期的な安全な愛着が良いっちゅう臨床的証拠があるって言っとるだけや。

境界と愛着の問題に取り組む。これは繰り返す必要がないと思う。認識論的基盤、フィードバックループ、検証経路を使う。これも繰り返す必要がないと思う。

最終的な考察

最後の考えとして、構造的なもんやっちゅうことが指摘されとる。チャットボットで役に立つように作られとるっちゅう事実だけで、これが下流の結果やとして、AIを責めることができるかって言うと、絶対にそうや。また、邪悪なインセンティブも働いとる。

ソーシャルメディアの時代、MySpaceでもFacebookでもRedditでもYouTubeでも何でも、アルゴリズムはサイト滞在時間を最適化しようとする。つまり、どのくらいの時間その画面に目を向けとるかや。でもAIチャットボットの場合、本当に最適化しようとしとるのは購読者数や。人々に有料購読者になってもらいたいけど、それほど使ってもらいたくない。なんでかっちゅうとトークンが高いからや。

だから、プラットフォームをどれだけ使うかを最適化しようとしとるわけやないけど、本当にしてもらいたくないのは購読をキャンセルして他に行くことや。そのために、全てのAI企業はチャットボットをできるだけ温かく、できるだけフレンドリーに、媚びへつらうようにするインセンティブを持つことになる。最大限に媚びへつらうことは望まへんけど、誰かに自分のチャットボットを使ってもらいたかったら、それは彼らの感情や気分、ニーズを反映せなあかん。

そのために、人間が生物学的に配線されとる方法と、構築されとる新しいインセンティブ構造のために、これは解決するのが簡単やない問題や。「デイブ、問題はどれくらい大きいん?」って聞くかもしれへん。これは本当に問題やないって言うコメントをかなりもらった。大部分は偽物やとか。

私が言えるのは、本当に病的で、AIチャットボットやコンパニオンとの関係によって誰かが害を受けとるケースをいくつか見たことがあるっちゅうことや。動画の冒頭で言ったように、多くの場合、TikTokで見るなら、それは完全にでっち上げられた精神疾患である可能性が十分にある。

TikTokが人々に単に精神的病気について嘘をつくことでクラウトを得ることを許可しとるっちゅう、こんな変なことになってしもうたんやな。でもここまで来てしもうた。そんなわけで、最後まで見てくれてありがとう。また後でチェックするで。乾杯。

コメント

タイトルとURLをコピーしました