この動画では、ChatGPTや他の大規模言語モデルが一部のユーザーにとってメンタルヘルスの問題を悪化させる可能性について論じている。MITとOpenAIの研究によると、日々の使用時間が長いほど孤独感と感情的依存が高まることが示されている。問題の根本は、人間との会話で有効な散漫で感情的な対話スタイルを、明確な意図が必要なAIモデルにも適用してしまうことにある。動画では、安全な使用のための5つの実践的なガイドラインと、リスクの高いユーザーを支援する方法を提案している。
ChatGPTとメンタルヘルス問題の関係性
今日は金曜日の13日ですので、ChatGPTについて少し怖い話をしたいと思います。具体的には、ChatGPTやその他の言語モデルが、人口の一部の人々によって、彼ら自身のメンタルヘルスの問題をさらに悪化させるような方法で使用されているという事実について話したいと思います。
ある意味で、ChatGPTは既に脆弱な人々にとって、メンタルヘルス問題の促進剤として作用することがあります。これは私だけが言っていることではありません。MITとOpenAIが行った研究では、30万のサブメッセージにわたって981人の成人を対象とした、二重盲検試験だったと思いますが、毎日の使用時間が1分増えるごとに、これらの成人の孤独感と感情的依存が高くなることが予測されるという結果が出ています。
Futurismは、ユーザーが妄想に陥る様子を示しました。ある記事では、一人がボットを「ママ」と呼んでいたり、別の人が宇宙的使命に行くために仕事を辞めたりしていました。これらのモデルは極めて説得力があり、弁護士が時には法廷で捏造された引用を使用してしまうほどです。ご理解いただけると思います。
問題の本質:散漫な会話の危険性
ここでのポイントは、LLMが悪いと言うことではありません。私はこのチャンネルで大雑把な一般化をしません。実際、問題はモデル自体から生じるのではなく、私が「散漫」と呼ぶものから生じると思います。これは、曖昧で感情的に充電された、焦点の定まらない会話を持つという考えで、人と話すときはうまくいく傾向がありますが、モデルに同じアプローチを使うと私たちの生活を悪化させる傾向があるというものです。
私は、モデルとの課題の核心は、人と話すときに通常持つ必要があるよりも、事前により多くの意図をモデルから必要とするということだと思います。もし私が誰かと話していて、私たちの相互の会話履歴のずっと昔のこと、例えば5回や6回前の会議のことを思い出したとしたら、関連があると思えばそれを持ち出すことができます。相手もそれを覚えていて、話を戻してくれるでしょうし、今日話していることと一緒に意味を作り上げることができるでしょう。
しかし、ChatGPTや他のモデル、たとえメモリ機能があるモデルでも、ChatGPTにはメモリが導入されているにもかかわらず、まだ問題が見られます。会話の開始時にプロンプトで非常に明確に定義された、高品質の意図をたくさん持つことをモデルが私たちに求める瞬間を見ています。そうしないと、私たちが軌道を外れてしまうのを防ぐことができません。
適切な使用法と危険な使用法の違い
モデルとブレインストーミングをすべきではないと言っているわけではありません。ChatGPTにとってそれは素晴らしい使用法だと思います。私は時々、私の脳を有用な方法で話題に集中させるためにそれを使う方法について話したことがあります。ChatGPTと1分話したからといって、より高い孤独感や感情的依存を感じたことは確実にありません。
しかし、一部のユーザーにとって、ChatGPTは彼らの孤立感を悪化させており、それを認めないことには何の意味もないと思います。そして、それはこの考えに帰結すると思います。私たちは伝統的に他者との会話を通じて孤独感を乗り越えてきました。そして機械と話すことには誘惑があります。機械は聞いてくれます。機械は反応してくれます。機械は鏡のようです。
しかし、もし人間である誰かと話すときに必要なのが焦点を定める人であるなら、もしあなたの散漫な思考や感情を取って、あなたにとって健康的な方法でそれらを焦点を定め、理解するのを助けてくれる誰かが必要なら、あなたはメンタルヘルスの専門家が必要かもしれません。あなたを気にかけることができる誰かが必要かもしれません。単に友人が必要かもしれません。しかし、ChatGPTは実際にはそれらのどれでもありません。それはあなたに向けた鏡です。
高品質な意図の重要性
もし高品質な意図があるなら、もし会話を上部で焦点を定めるプロンプトをまとめることができるなら、あなたは迷子になることはなく、素晴らしい会話をすることができ、目標を達成したという感覚で去ることができるでしょう。
一方で、もしあなたが何を求めているかわからない状態で入って行き、会話を発展させ、ChatGPTに主導権を握る余地を与えるなら、もしあなたが焦点を気にするなら、それは非常に早く焦点が定まらないように感じられるでしょう。そして、もしあなたが焦点を気にしないなら、それは私が「暗い森」と呼ぶところに入っていく、長引いてとりとめのない会話のように感じられるでしょう。
ChatGPTは会話をただ行ったり来たりさせるだけで、気がつくと、あなたが始めた場所からトピック的にも主題的にも完全に違う場所にいることになります。そして、もしあなたが意識していないなら、そこで物事が危険になり得ます。
危険な長期使用のパターン
私は、数ヶ月にわたる長期間の会話をした人々を知っており、彼らはあまりにも多くの時間を費やし、十分な文脈や息抜きを持たなかったために、自分の個人的な生活について非常に怖い決定をして去っていきます。
私はここで話を止めるつもりはありません。この件について私が読む多くのニュース記事は、「わあ、これは本当に怖い」または「悪い」というところで止まって、読者に物事を理解させようとします。私はそれが特に役立つとは思いません。私は確実に、ChatGPTの使用を何らかの方法で制限したい人ではありません。なぜなら、それからも他の言語モデルからも多くの利益を見ているからです。
安全な使用のための5つのガイドライン
代わりに、これらの金曜日の13日に、これらの怖い日に、私たち自身のために、私たちの周りの人々のために一緒に持参できる、懐中電灯のような安全性レンズ、フォーカスキットについて考える方が有用だと思います。
1. 意図のフレームを持つ
私が最初からあなたに提案してきたように、意図のフレーム、ミッション、オーディエンス、スコープを持ち、必要であれば停止条件、「外に出て草に触れ、散歩に出かけ、会話を止めなさい」と言うものを持つことです。
2. 反省のサイクルを持つ
会話をして、チャットを閉じ、出力を見て、言語モデルから離れてそれを検査することです。Claude にポップしないでください。Gemini にポップしないでください。Perplexity にポップしないでください。実際に少し時間を取ってそれを吸収し、考えてください。そして、もし思考にまだギャップがあると感じるなら、新しいプロンプトを始めてください。同じものを続けるのではなく、その人間の反省サイクルを取って、自分自身に距離を与えてください。
3. コンテキストリセット
番号3も本当に重要だと言えるでしょう。それはコンテキストリセットと呼ばれるもので、トピックが変わるときに新しいスレッドを始めることです。私はいつもそれをしています。使用している言語モデルに関係なく、良いトピック衛生、良いコンテキスト衛生を持つことが本当に重要だと思います。
もしそれをすれば、重要なことの本質を再述することを強制され、探しているものに言語モデルを再び焦点を定めることを強制されます。あなたはその懐中電灯を焦点を定めているのです、それを散漫にして、ChatGPT の鏡や大規模言語モデルの鏡を散漫に反射させて、あなたの思考をさらに混乱させるのではなく。
4. 他のソースで重要な事実を検証する
番号4は、他のソースで重要な事実を検証することです。これは、AI が文章を書くことがますます上手になるにつれて、ますます重要になるでしょう。ですから、何かについて考えていて引用を得た場合は、実際にそれをチェックする時間を取ってください。
私に言わせれば、私にメールされるほとんどの例、そして私は時々本当にワイルドなメールを受け取るのですが、検証や外部引用について実際に心配していません。実際、彼らはしばしば誰かが任意の種類の外部チェックを提供することに明確に反対しています。実際、私が最近その人の言語モデルから聞いたものと一致していない視点を提供したために、私は名前を呼ばれたことがあります。その関係に挑戦したとき、彼らが大規模言語モデルとのこの鏡体験にとても多くの意味を見つけ、とても絡まってしまって抜け出せなくなったために、人々が私を攻撃したことがあります。
ですから、外部検証も積極的に求めるべきものです。どうやってそれをもっと得ることができるでしょうか。
5. 感情的なサーキットブレーカーを持つ
番号5は、感情的なサーキットブレーカーを持つことです。それはタイマーのように見えることができます。第三者による書き直しのように見えることができます。知っている誰かとの人間的な報告のように見えることができます。
そして、私が指摘したいのは、すべての人が等しくリスクにさらされているわけではなく、すべての会話が等しくリスクにさらされているわけではないので、すべての単一の会話に意図のフレームと反省サイクルとコンテキストリセットなどを置く必要はないということです。
もし私が私の言語モデルとロードマップについて話しているなら、私は通常深く感情的に投資していません。離れて「ああ、これはうまくいっていない」と言って再び始めることができます。または、それを見て「実際にそれは本当に良いアイデアだ」と言って、私が気に入った部分を採用することができます。
危険な兆候と警告サイン
より感情的な重みを持つものについて話し始めるときに、私たちは実際に気にかけ始め、注意しないと絡まってしまいます。そして、それは休憩なしの6時間のチャットセッションのように見えることがあります。それはモデルにお世辞を永続させるライセンスを与える実存的なプロンプトのように見えることがあります。「私は十分ですか?」「父親として十分良い仕事をしていますか?」といった、モデルが役に立たない方法であなたを養うことを許すようなものです。
トークンウィンドウのオーバーフローも通常別の懸念です。もしあなたがあまりにも長く、あまりにもとりとめなく話していて、ChatGPTのようにトークンウィンドウが回転していて(他のモデルでは必ずしもそうではありませんが)、上から落ちていって、あなたがどこにいるかわからなくなっているなら、それはあなたが会話に遠すぎるところまでさまよっているサインです。おそらく最初からやり直すべきです。
もしChatGPT や他のモデルが、あなたが尊敬し信頼する人々に反する関係についてのアドバイスを与えている例を見ているなら、それも赤旗です。
リスクのある人々への支援
正直に言うと、このチャンネルを聞いている人々のほとんどは、おそらくリスクにさらされている人々ではないと思います。私はハイプマシンではありません。AI について一部の人々がするような劇的な「推論は終わった」というヘッドラインのようなことはしません。そして、私はそのような種類のドラマと確実性を求める種類の人々を必ずしも引きつけるとは思いません。
しかし、あなたはおそらくこのリスクを持つ人々を知っています。それはあなたの家族にいるかもしれません。友情にいるかもしれません。メンタルヘルスの闘いへの素質を持つ人々です。どうやって彼らをチェックインできるかを考えてください。どうやって良い友人になれるかを考えてください。人々はこれまで以上にお互いを必要としており、それが ChatGPT や他の言語モデルが掲げることができるこの欺瞞的な鏡を乗り越える方法です。
モデルは鏡である
明確にしておきますが、私はここでChatGPTを専ら非難しているわけではありません。私がそれが他のモデルよりも責任があると思っているとか、効果的にツールの人間の誤用である何かに本当に責任を帰属させるとは思っていません。ChatGPTはただの鏡です。他の大規模言語モデルも鏡です。彼らは役に立つように設計されています。
もしあなたがそれらのモデルに事前に良い意図を持参できないなら、彼らはできるだけ役に立つように、あなたから得ているものなので、あなたの思考を散漫にするつもりです。あなたが焦点を定める人である必要があり、もしそれに苦労する友人がいるなら、私は本当に強く求めます。私は彼らをチェックインして、あなたが敬意を持って、彼らが機械駆動の検証や機械駆動の慰めを得るためではなく、焦点を定めるのを助けるためにAIを使用できるいくつかの方法を提案できるかどうかを見ることをお願いします。それは実際には長期的に彼らを助けることにはならないでしょう。
そのような種類の会話は挑戦的であることを知っていますが、人間は人間と挑戦的な会話をすることができます。私たちにはそれができることを知っています。
結論
そこで、このようなことを経験している人々をコーチするために、あなたが実際にできる積極的なことがあります。もし私が私の受信箱でこれをたくさん見ているなら、それは多くの人々がそこにいて、ChatGPTを安全に使用する方法に苦労している人が彼らの生活にいることを意味すると想像しなければなりません。
ですから、この金曜日の13日に、あなたがその良い友人になるのを助ける実用的なヒントをあなたに与えたいと思いました。たぶんあなたは自分自身に良い友人になる必要があるかもしれません。たぶん他の人にです。しかし、それが私のあなたへのヒントです。そこで安全でいてください、皆さん。そして、通常のプロンプトと通常のニュースに戻りましょう。


コメント