ChatGPTを使うと頭が悪くなる?!

LLM・言語モデル
この記事は約21分で読めます。

この動画では、MITの研究者が発表した「ChatGPTの使用が人間の認知能力に与える影響」に関する200ページを超える研究論文について詳しく解説している。研究では、エッセイ作成において脳のみ、検索エンジン、大規模言語モデル(LLM)の3つのグループに分けて実験を行い、LLM使用者は記憶力が著しく低下し、自分が書いた文章への所有感も失うことが明らかになった。さらに、LLM使用による認知的影響は使用を止めた後も持続するという衝撃的な結果も示されている。この研究は、AI時代における学習方法や人間の思考プロセスの変化について重要な示唆を与えている。

Does Using ChatGPT Make You Dumb?!
Download Humanities Last Prompt Engineering Guide 👇🏼 My Newsletter for Regular AI Updates 👇🏼 Th...

ChatGPTが認知能力に与える衝撃的な影響

ChatGPTが実際に私たちを愚かにしている可能性があることが判明し、私は現実逃避をしています。MITの新しい研究論文によると、ChatGPTを使用すると書いたばかりの内容を忘れてしまうだけでなく、実際に自分で書いたという感覚も失ってしまうのです。そして、エッセイの執筆支援に大規模言語モデルの使用を止めた後も、その悪影響は持続するのです。

これは学習だけでなく、人間が将来どのように思考していくかということに対して莫大な示唆を与えています。この200ページを超える研究論文には他にも多くの洞察が詰まっており、私がそのすべてを今すぐ詳しく解説していきます。

MITの画期的研究「Your Brain on ChatGPT」

この論文のタイトルは「Your Brain on ChatGPT」です。まるで「薬物による脳への影響」のようなタイトルですね。副題は「エッセイ執筆作業におけるAIアシスタント使用時の認知的負債の蓄積」で、MITからの研究です。

この研究は、教育的なエッセイ執筆の文脈でLLMを使用することの認知的コストを明らかにすることに焦点を当てており、研究者たちは4つの質問に答えたいと考えていました。

1つ目は、人々はLLMを使用する時、検索エンジンを使用する時、脳のみを使用する時で、著しく異なるエッセイを書くのかということです。そこで参加者を3つのグループに分けました:脳のみを使用してエッセイを書くグループ、Googleなどの従来の検索エンジンを使用するグループ、そして大規模言語モデルを使用するグループです。

2つ目は、LLM、検索、または脳のみを使用する時に、参加者の脳の活動はどのように異なるのかということです。

3つ目は、LLMの使用が参加者の記憶にどのような影響を与えるかです。これは実際にかなりの影響があることが判明しました。

4つ目は、LLMの使用がエッセイの所有権、つまりエッセイの認知的所有権に影響を与えるかということです。つまり、実際に自分がエッセイを書いたと感じるかどうかです。明らかな答えのように思えるかもしれませんが、ぜひ最後まで見てみましょう。

LLMを学習に使用することへの再考

私は大規模言語モデルを学習に使用することの大きな支持者でした。物事について学ぶために毎日使用していますが、この論文を読んだ後は、学びたいさまざまなトピックについてLLMをどのように使用するかについて、より慎重に考えるようになるでしょう。

LLMの最もユニークな特徴の1つは、文脈化された個人向けの情報を提供する能力です。これは素晴らしいことです。LLMはユーザーのクエリに対して一貫性があり詳細な回答を生成します。LLMは適応学習にも有用で、ユーザーのフィードバックや好みに基づいて回答を調整し、反復的な明確化とトピックのより深い探求を提供できます。

これらすべては良いことに聞こえますが、すべてが良いわけではありません。しかし重要なのは、LLMが生成する情報と元のソースとの間の関連性がしばしば失われることが多く、不正確な情報の拡散の可能性につながるということです。

基本的に、LLMに情報を求めてソースをチェックしない場合、それが真実かどうか必ずしも分からないということです。幻覚が起こるため、大規模言語モデルを使用する際は常にソースをチェックしてください。

引用の問題と受動的情報消費

多くの場合、これらのLLMはソースを提供すらしません。引用の提供は大規模言語モデルのより最近の機能であり、私はそれを非常に評価しています。最先端のモデルはすべて引用を提供します:Perplexity、ChatGPT、Claude、Geminiなど、すべてがそうです。

しかし、再び聞いてください。LLMは直接的な引用を提供する能力を導入しましたが、幻覚的な参照、つまり作り上げられた、または間違った引用の問題は依然として課題です。AIが引用されたソースと共に回答を生成したとしても、その参照が提供された情報と一致するという保証はありません。

つまり、モデルが何かを言ってソースを参照したとしても、実際には適切に参照していない可能性があり、ソースが意味していることを理解していない可能性があります。

そして、ここが大きな発見です。LLMが提供する即座の回答の便利さは、正しく聞こえる情報の受動的消費を促進する可能性があり、表面的な関与、批判的思考スキルの弱化、教材の深い理解の欠如、長期記憶形成の減少につながる可能性があります

知能レベルによる使用方法の違い

もちろん、それほど単純ではありません。実際のところ、あなたの知能が実際にこれらの大規模言語モデルの使用について考える方法に影響を与えることが判明しており、数分後にそれについて話します。

認知的関与のレベルの低下は、意思決定スキルの低下にも寄与し、学生と教育者の両方において先延ばしと怠惰の習慣を育成する可能性もあります。

それだけでなく、LLMの使用は直接的な人間同士の相互作用や社会的学習の機会を減らす可能性があり、これは非常に重要で、学習と記憶形成において極めて重要な役割を果たします。

つまり、協調学習、仲間との議論、教師との議論、これらの議論やアイデアの詳細な検討、誤解の端を見つけることが真の学習を作り出すのです。

従来のウェブ検索と学習

すべての結果に入る前に、より多くの情報を提供したいと思います。まず、この論文が話している最初のことは、ウェブ検索と学習についてです。つまり、従来のGoogle検索であり、大規模言語モデルではありません。

アメリカ人の81%が重要な決定を下す際に、インターネットからの情報に大きく依存しています。正直なところ、それについてどう感じるかわかりません。確実に怖いですが、同時にインターネットは情報の宝庫であり、再び、それはあなたの核となる知能を反映していると思います。

賢い人であれば、インターネットで情報を探し、それを検証し、確認し、引用をチェックするでしょう。しかし、IQが低い人は、そのようなことを一切せずに、何であれ自分に言っているソースを信じるかもしれません。そして推測してください、誰でもオンラインで何でも書くことができるのです。

ここで彼らが言っているのは、成功するウェブ検索には、学習成果を最適化するためのドメイン知識、自己調整、戦略的検索行動が必要です。つまり、検索ツールの使用が上手であればあるほど、それらからより良い成果を得ることができるということです。これは明らかですが、高いドメイン知識を持つ個人はウェブ検索で優秀な成果を上げます。なぜなら、関連情報を識別し、複雑なトピックをナビゲートするのによりよく装備されているからです

つまり、既にその分野が得意で、ウェブ検索を使用している場合、より良い結果も得られるということです。

認知負荷の概念

認知負荷について話しましょう。認知負荷に馴染みがない場合、基本的には情報の提示によって課される精神的努力を意味します。彼らはウェブ検索やインターネットブラウジング全般を行う際の認知負荷について話しています。

情報が明確に提供されている時、情報が散らかっていない時、または多くの広告、多くのナビゲーション、コア情報から注意をそらすUI要素がない時、あなたの認知負荷は増加し、それは非常に理にかなっています。情報がより簡単に処理され理解される時、あなたの脳はそれほど懸命に働いていません。

LLM使用時の認知負荷

次に、彼らはLLM使用中の認知負荷について話しています。話す前に、あなたはどう思いますか?認知負荷は高くなると思いますか、それとも低くなると思いますか?

見てみましょう。LLMは、ウェブ検索などの従来の方法と比較して、すべてのタイプにわたって認知負荷を軽減することが示されており、理解と情報検索を容易にします。LLMユーザーは、ソフトウェアのみのユーザーと比較して32%低い認知負荷を経験し、情報を見つける際の欲求不満と努力が大幅に軽減されました。

これは本当に良いことに聞こえますが、もちろん、この論文全体のトピックゆえに欠点があります。

LLMの利点は、情報の提示と統合プロセスを合理化し、情報の能動的統合の必要性を減らし、ひいては精神的スキーマを構築するために必要な認知的努力を減少させることです。

しかし、それほど懸命に考えていない場合、これらの精神的スキーマを開発していない場合、そもそも情報を真に理解していない可能性があり、これは論文全体を通じて重要な概念です。

生産性の向上と深い理解の欠如

もちろん、認知負荷がはるかに低いため、大規模言語モデルの使用は実際には全体的な生産性をはるかに高めます。LLMユーザーは全体的に60%生産性が高く、外部認知負荷の減少により、ユーザーはより長期間タスクに従事する意欲が高まり、タスクを完了するために使用する時間を延長します。

しかし、ここに罠があります。認知負荷の低下はタスクの完了を簡素化することで生産性を向上させることが多い一方で、LLMユーザーは一般的に材料とより浅く関与し、強固なスキーマを構築し自動化するために必要な真の認知負荷を犠牲にします

特に学生がLLMに科学的探究を依存すると、従来の検索エンジンを使用する学生よりも低品質な推論を生み出しました。後者は多様な情報源を統合するためにより能動的な認知処理を必要としたからです。

この論文から私が理解したことは、大規模言語モデルに過度に依存し、考えるために脳を使わない場合、当然、情報をうまく記憶できず、情報をうまく理解できず、情報の異なる部分間の関連性をうまく作ることができないということです。

これは再び、少なくとも私にとって、異なるトピックを学ぶためにLLMをどのように使用するかについて非常に慎重になるべきだという強い論拠です。

人間とAIの未来の協力関係

これを聞いてください。これは本当に、人間とAIが将来どのように協力していくかについての論拠です。認知負荷の軽減は、能動的批判的推論から受動的監視への移行をもたらします

つまり、あなたがトピックが何であれ理解するための精神的作業をする代わりに、AIにその作業をしてもらうための監視をしているということです。

AIエージェントを監視し指揮するスキルセットと、コア情報自体を実際に深く理解することとの間には、微妙なバランスが存在するでしょう。

そして、低IQと高IQについて話したことを覚えていますか?これを聞いてください。高い能力の学習者は、戦略的にLLMを能動的学習のツールとして使用しました。低い能力のグループは、従来の学習方法に含まれる反復的プロセスを経る代わりに、LLM応答の即時性に依存することが多かったのです

これは同じことです。あなたはLLMをツールとして使用していますか、それとも作業をしてもらうために使用していますか?これは誰もが自分自身で考え抜く必要がある重要な区別です。

LLMと検索エンジンの比較

LLMと検索エンジンについてもう少し深く見てみましょう。一方で、検索エンジンは複数のソースにわたる幅広い探索や、直接的な参照からの事実確認を必要とするタスクにより適応している可能性があります

ウェブ検索により、ユーザーは幅広いリソースにアクセスできるため、包括的でソース固有のデータが必要なタスクに理想的です。

対照的に、LLMは文脈化された統合された回答を必要とするタスクに最適です。要点に直接、答えに直接到達したい場合、LLMの方が優れています。簡潔な説明の生成、ブレインストーミング、反復的学習が得意です。

LLMは複数のソースを選別する必要性を排除することで情報検索プロセスを合理化し、認知負荷を軽減し(私たちが話したように)、効率を向上させます(これも生産性の向上で話しました)。

実験の詳細と対象者

この論文全体は、実際に彼らが実装した実験についてのものです。3つのグループの学生にエッセイ執筆に従事させたことを覚えておいてください。1つのグループは脳のみ、ツールなし、別のグループは検索エンジンのみ、そして3番目のグループはLLMのみを使用しました。

その後、第4段階があり、LLMを使用したグループに脳のみを使用させ、脳のみを使用したグループにLLMを使用させ、話している概念や、トピックが何であれ、記憶と理解への悪影響がLLMの使用を止めた後も持続するかどうかを見ました。結果は魅力的です。数分後にそれについて話します。

生成的AIはオンデマンドでコンテンツを生成でき、最小限の入力に基づいて学生に迅速な下書きを提供します。しかし、学生がAIに依存して長文や複雑なエッセイを作成する時、記憶からの情報統合プロセスを迂回する可能性があり、これが教材の理解と記憶を妨げる可能性があります

つまり、ChatGPTが短期的なタスクパフォーマンス、つまり出力品質を大幅に改善したにもかかわらず、知識獲得や転移において有意な差異をもたらさなかったのです。出力ははるかに良かったが、実際にはそれほど多くを学ばなかったのです。

エコーチェンバー問題

ここで彼らは検索とLLMにおけるエコーチェンバーについて話しています。このセクションについてはあまり深く入りませんが、彼らが言っているのは、検索と同様に、LLMはその会話的性質により、エコーチェンバー問題を悪化させるということです。

エコーチェンバー問題に馴染みがない場合、基本的にソーシャルメディアで起こることです。ある主題について話し始める時、何かを好きになったり嫌いになったりする時、その主題が何であれ、アルゴリズムがそれをより多く提供し始め、突然「ああ、私は話していることのほんの一握りのことしか見ていない」と気づくのです。

そして突然、同じアイデア、同じ意見を何度も何度も聞くというエコーチェンバーに入ってしまいます。あなたのYouTubeアルゴリズムについて考えてください。おそらくYouTubeフィードに表示されるトピックは一握りでしょう。私もそうです。それは、あなたが検索したこと、あなたが相互作用したことだからですが、それがあなたのエコーチェンバーです。

同時に、時々YouTubeは「新しいものを見たいですか?」というボタンを表示します。私は常にそれをクリックします。なぜなら、ええ、私は何を見逃しているのかを見たいからです。

YouTubeを頻繁に使用し、同じ動画を何度も何度も見ているのがとても面白いです。YouTubeには文字通り何十億時間もの動画があることを知っているのに、私はそのほんの一部しか見ていないのに、同じものを何度も何度も見ているのです。それがエコーチェンバーです。

実験の詳細

実験について話しましょう。この論文の1つの批判は、参加者が非常に少ないことです。元々60人の成人がいて、55人が完了しました。これは大きな数字ではありません。この論文の多くが魅力的であるにもかかわらず、それは情報の種に過ぎません。

私が言ったように、LLMグループ(グループ1)があり、これはOpenAIのGPT-4oを唯一の情報源として使用することに制限されました。検索エンジングループ(グループ2)は、エッセイ執筆を支援するために任意のウェブサイトを使用できましたが、ChatGPTやその他のLLMは明示的に禁止されました。そして脳のみグループは、検索、任意のウェブサイト、任意のLLMの使用を禁止されました。

実験のプロトコル

プロトコルは次のとおりです。プロトコルの重要な段階は、エッセイ執筆タスクと事後評価インタビューです。彼らはエッセイを書き、その後、書いたエッセイについて多くの質問をされました。

質問されたいくつかの質問は次のとおりです:なぜあなたのエッセイトピックを選んだのですか?エッセイを書くためにどのような構造に従いましたか?エッセイを書くためにどのように進めましたか?

LLMグループには:一人で始めましたか、それとも最初にChatGPTに尋ねましたか?

検索エンジングループには:特定のウェブサイトを訪問しましたか?

そして、ここに重要なものがあります:それを見ることなく、あなたのエッセイから任意の文を引用できますか?どのグループがその質問に失敗したと思いますか?

セッション4では、各グループが基本的に場所を交換したことを覚えています。LLMは脳のみを使用し、脳のみはLLMを使用しました。彼らは尋ねられました:このエッセイトピックを覚えていますか?はいの場合、前のエッセイで何を書いたか覚えていますか?前のエッセイを覚えている場合、このエッセイをどのように構成しましたか?2つのエッセイのうちどちらが書きやすいと感じますか?そして2つのエッセイのうちどちらを好みますか?

この論文は信じられないほど詳細で、結果をどのように測定したか、実験をどのように行ったかの科学について非常に多くのことを述べています。今すぐ詳細に説明するには多すぎるので、これらの詳細はスキップします。

AIで書かれた文章の識別

質問をしたいと思います。エッセイや記事を読む時、それがAIで書かれたかどうかを判断できますか?多くの場合、私は確実にできます。誰かがメールを送ってくる時でさえ、それがAIで書かれたかどうかを何となく判断できます。

そして、実際に、何かがAIで書かれたかどうかを判断できるというその小さなニュアンスには、かなり大きな示唆があります。

教師がこれらのエッセイを採点し見た時に何が起こったかを読ませてください。これは2人の英語教師からの直接の引用です。

すべてのトピックにわたって、一部のエッセイは、言語と構造の完璧に近い使用により際立っていましたが、同時に個人的な洞察や明確な発言を提供することに失敗していました。つまり、完璧に構成され、文法的に完璧で、スペリングもすべて正しかったにもかかわらず、実際にコンテンツが何であるかについての真の明確な発言がなく、教師たちはそれを「魂がない」と呼んだのです。

実際、これは本当に魅力的だと思います。AI動画、AI音楽、AI画像でも同じことをよく見つけます。その多くは単に魂がないのです。正確にそれを表現する方法がわかりませんが、それは単に感覚なのです。

そして、おそらくその感覚が実際に、AIが基本的に何でも、欲しい任意のビデオゲーム、欲しい任意の映画、欲しい任意のテレビ番組を作成できる時に、ノイズ対シグナルが非常に多い未来において、人間が独特で特別であるために重要になるものでしょう。

私は何百万回も言ってきましたが、趣味がすべてになるでしょう。それに対する人間的要素、それが私がAIプラス人間の未来について非常に楽観的な見解を持っている理由であり、ハリウッドがこれほど恐れるべきではない理由です。これらは人々の代替品ではなく、ツールなのです。

エッセイはアカデミックに聞こえ、しばしば他よりも詳細にトピックを展開しましたが、私たちは客観的完璧性よりも個性と創造性を重視しました

再び、私はこれについてもう少し展開したいと思います。それは、AIチェスで見ることのようなものです。2つのAIが互いにチェスをしているのを見る時、それは興味深いですが、この信じられないゲームで勝つために知性のあらゆる端を使って互いに戦う2人の人間を見るほど興味深くはありません。

そして、これらのゲームにおける間違いが実際にそれを際立たせるものです。完璧に実行するAI対、完璧に実行する別のAIを見て、1つのAIがわずかに悪い実行をすることになるのは、2人の人間が戦うのを見るほど興味深くないのです。

所有権の感覚

所有権について言及したことを覚えていますか?実際にこのエッセイを書いたという感覚です。もちろん、エッセイを書くためにLLMを使用している場合、多くの人は実際にエッセイを所有したとは思いません。

検索エンジンと脳のみについては、基本的に100%の所有感がありました。それがあなたにとって直感的に聞こえるなら、私にとってもそうでしたが、それはそれよりも微妙でした。

LLMグループは、参加者の半分についてエッセイの完全な所有権を示すか、全く所有権がないか、または18分の1について90%の部分的所有権でした。18分の1について50/50、18分の1について70/30でした。しかし、再び、検索エンジンと脳のみについては、所有権の欠如の報告は全くありませんでした。

実験結果:脳の活動パターン

では、これらすべてが何を意味するのでしょうか?実際の結果に入りましょう。

脳のみグループは自分自身の認知リソースに大きく関与しなければなりませんでした。対照的に、LLM支援執筆グループは一般的により低い接続性プロファイルを引き出しました。つまり、脳をより少なく使用していたのです。

LLMグループが確実に脳ネットワークを関与させて書いていた一方で、LLMの存在は神経コミュニケーションの強度と範囲を減衰させたようです。ワーキングメモリと実行要求はより軽かった。おそらく、ボットが外部認知サポートを提供していたからです。

これは、この論文のテーマです。あなたは認知的作業負荷をオフロードしているのです。

彼らは実際にそれよりもう少し深く掘り下げました。LLMを使用しているかどうかによって、情報の流れが異なることを発見しました。LLMを使用していない場合、情報を発見しており、それはボトムアップです。これらすべてのことを見つけ、関連性をまとめ、そして突然、すべての高レベルな全体像が見えるのです。

しかし、LLM使用については反対でした。LLMについては、トップダウン主導でした。基本的に、LLMが与えたアイデアを取り、その主要なアイデアから小さな部分を本質的に理解していたのです。

脳のみグループは、より大きなボトムアップフローの証拠を示し、これは脳の意味的および感覚的領域が新しいアイデアと言語的コンテンツを前頭実行システムに送り込むものとして解釈できます。

対照的に、ボットからの外部入力を持つLLMグループは、おそらくよりトップダウン主導の接続性を経験しました。彼らの脳の役割は、ツールの貢献を統合し、フィルタリングし、その後それを全体的な物語に課すことでした。

AIが私たちを愚かにしているのか

非常に興味深いですが、おそらくAIは実際に私たちを愚かにしているのではなく、単に私たちの脳がする作業の種類を変えているだけかもしれません。

LLMユーザーの実行関与の量は少なかったが、実行タスクの性質は、コンテンツの生成からAI生成コンテンツの監督へと移行した可能性があります

これは再び、この論文のテーマです。あなたは作業をしているのか、それとも作業をしているエージェントを監督しているのかということです。

LLMを使用する時、それは精神的リソースを解放し、タスクをより簡単に感じさせるかもしれませんが、LLMユーザーの脳は、支援されない創造的執筆が必要とする豊かな連想プロセスに深く入らない可能性があります

これらは、あなたが使用しているタスクにLLMを使用する時に考えなければならないすべてのトレードオフです。

検索エンジングループとの比較

脳のみグループは、検索エンジングループよりもエッセイ執筆タスク中により広範囲で強い接続性ネットワークを実証しました。インターネット支援なしの参加者は、情報を思い出し、創造的にコンテンツを生成する必要性と一致して、記憶と計画ネットワークを激しく関与させました。

ツールがない場合、あなたの脳は懸命に働いており、それが実際に手元のトピックについてより創造的で思慮深くします

もちろん、検索能力があった時、参加者はおそらく認知的要求の一部をオフロードしました。事実を覚える代わりに、それらを見つけることができました。知識を内部的に相互参照する代わりに、ウェブソースを介してそれらを検証できました。

これは私には悪いことには聞こえませんが、もちろん、ウェブやLLMに盲目的に依存することはできません。それがここでの重要な概念です。

創造性の違い

LLMを使用したグループは創造性が低かったことも分かりました。脳のみグループは、ほとんどのトピックにわたって参加者がエッセイ執筆にアプローチする方法において強い変動性を示しました。つまり、作業するために自分の脳だけに任されている時、彼らは非常に創造的で、そのグループ内で非常に差別化されていました。

しかし、LLMグループは各トピック内で統計的に均質なエッセイを作成しました。つまり、LLMに依存している時、LLMに依存している他の誰もが基本的に同じことを書くのです。

検索エンジングループは、検索エンジンによって宣伝され最適化されたコンテンツによって、少なくとも部分的に影響を受けた可能性があります。それもエコーチェンバーです。

再び、これらは考えるべき非常に多くのクールなダイナミクスです。

脳の接続性に関する統計

いくつかの統計を投げつけさせてください。検索エンジングループについては、脳全体にわたって約34から48%低い総接続性でした。LLMグループは最も広範囲でない接続性を示し、基本的に55%の脳使用量の減少でした。

記憶能力の劇的な違い

記憶についてはどうでしょうか?グループ間で最も一貫性があり重要な行動的相違は、自分のエッセイを引用する能力で観察されました。先ほどその質問をしたことを覚えていますか?答えは次のとおりです。

LLMユーザーはこの領域で著しく劣った成果を示し、セッション1で83%の参加者が引用の困難を報告しました。基本的に、彼らはLLMを使用してエッセイを書き、エッセイから何も覚えていませんでした。

しかし、それは理にかなっています。正確な引用を提供したのは一人もいませんでした。引用を覚えていたとしても、正確に提供できた人は一人もいませんでした。

検索エンジンと脳のみの参加者はそのような障害を持っていませんでした。彼らは実際にほぼ完璧な引用能力を達成しました。第3セッションまでに、両グループの参加者の100%がエッセイを引用する能力を報告し、引用精度にわずかな偏差しかありませんでした。

持続的な悪影響

そして、ここが本当に恐ろしい部分です。私が言及した第4セッションを覚えていますか?基本的に、LLMグループを取って脳のみで作業させ、脳のみグループを取ってLLMで作業させました。

効果は持続していたことが判明しました。LLMで始めた時、これらのLLMから脳への参加者、LLMで始めてから脳のみに移行した人々は、脳のみグループのセッション2と比較して一貫して劣った成果を示しました

つまり、LLMで始めて、その後脳のみでエッセイを書くように求められた場合、記憶と理解の面で依然として劣った成果を示したということです。これはかなり恐ろしいですが、再び、参加者のプールが非常に小さいため、すべてを割り引いて考えてください。

研究からの重要な教訓

ここにいくつかの教訓があります。初期のAI依存は浅いエンコーディングをもたらす可能性があります。LLMグループの記憶不良と不正確な引用は、彼らの初期のエッセイが内部的に統合されていなかった可能性の指標です。LLMへの認知処理の外部委託が原因である可能性があります。基本的に、LLMにあなたのための作業をしてもらっており、それはあなたの脳に入らないのです。

次に、初期段階でのLLMツールの保留は、記憶形成をサポートする可能性があります。脳からLLMグループでは、メタ認知的関与がより高くなります。脳のみグループは、過去の支援されない努力をツール生成された提案と精神的に比較し、自己反省と精緻的リハーサルに関与した可能性があります。これは、彼らのEEGプロファイルで見られるように、実行制御と意味的統合に関連するプロセスです。

脳で始めてからLLMを使用した人々の方が良い結果を示しました

これを消化するのは多くのことでしたが、うまくいけばこれがすべて理にかなうでしょう。この動画を楽しんでいただけたなら、いいねとチャンネル登録を検討してください。

コメント

タイトルとURLをコピーしました