感情があなたのLLMのパフォーマンスを劇的に向上させる

LLM・言語モデル
この記事は約20分で読めます。

この動画は、大規模言語モデル(LLM)に感情や性格を付与することがAIのパフォーマンス向上における次なるフロンティアであることを示す6つの最新研究論文を分析している。研究では、MBTIフレームワークや特定のペルソナを用いてAIエージェントに性格を与える手法、レッドチーミングにおける性格付与の有効性、そして感情的パターンを学習したAIエージェントが価格交渉などのタスクで優れた成果を示すことが報告されている。しかし同時に、AIの自己申告と実際の行動の間には深刻な乖離があり、現在のAIは言語的には性格テストに合格できるものの、実世界での行動は一貫していないという問題も明らかになっている。

Emotions Supercharge Your LLM's Performance
Emotions are the next frontier for agentic AI. 6 new AI research papers from first days of September 2025.All references...

AIにおける感情の可能性

こんにちはコミュニティの皆さん。また戻ってきていただいて素晴らしいです。感情。感情は巨大なAIにとって次のフロンティアです。このタイトルを書いたとき、これは本当ではありえない、ジョークに違いないと思いました。でも違うんです。6つの全く新しいAIに関するアーカイブプレプリントがあり、これが確かにエージェントAIの次のフロンティアであることを証明できます。

では見てみましょう。なぜ、なぜ私に感情が必要なのかと疑問に思うかもしれません。それは、性格、感情、アイデンティティ、そして信念を持つAIが、より強力で優れたパフォーマンスを発揮し、より良いベンチマークを持つことを望むからです。でもコーディングにしかAIを使わないから、感情や性格といったナンセンスは必要ないと言うかもしれません。

でも聞いてください。EIレッドチーミングに関する全く新しい論文があり、レッドチーミングに完全に適合した特定の性格をEIに与えた瞬間、AIのパフォーマンスが飛躍的に向上することを示しています。

では見てみましょう。この動画へようこそ。今日私は研究の新たな波に気づきました。これは新しい論文の波であり、複雑でオープンマインドなタスクのための真に自律的なエージェントのためのものです。ここで安定した戦略と明確に定義されたペルソナをこのAIに与える必要があります。レッドチーミングを見ると、非常に異なる心理的プロファイルを持つ攻撃者をシミュレートすることがレッドチーミングの量子的飛躍であることがわかり、これは本当に精密な方法論で行われなければなりません。

社会科学、経済学、ゲーム理論、数学、物理学のどこで働いているかに関係なく、私たちが求めているのは、多様だが一貫した心理的特性を持つAIエージェントの集団を作る能力です。

現代のLLMの課題

残念ながら、研究は現代のLLMには重大な弱点があることを示しています。AIが考えている自己申告されたアイデンティティと、AIが決定を下さなければならないときの実際の行動の間には深い乖離があります。これは、強化学習やその他すべての現在のアライメント技術が、一貫した存在ではなく、洗練された役者としてのAIを作り出していることを明らかにしています。

これはシステムの信頼性と予測可能性に関して深刻な影響を与えるでしょう。9月の最初の数日に発表された6つの全く新しい論文を見てみましょう。このビデオで答える3つの基本的な質問があり、論理的な進展になります。

第一に、LLMエージェントにペルソナや性格、さらに難しい感情状態をどのように確実に吹き込むことができるのか。第二に、エージェントが特定のペルソナを主張し、さまざまな方法でこれを示した場合、それは一貫しているか。実際にその表明された特性や信念に従って行動するか、それとも表面的な薄っぺらなマスクなのか。第三に、人間でそれらを検出したり、エージェントに配備したりする際に、AIシステムに割り当てたこれらの心理的属性を使用して、複雑なタスクでのAIの優れたパフォーマンスという主要な目標を達成できるか。

レッドチーミングとペルソナの力

では始めましょう。レッドチーミング。ペルソナチーミングに関する新しい論文があります。攻撃の効果は誰が攻撃しているかに依存すると言っています。カーネギーメロン大学とAppleによるこの論文があります。Appleがこれを行うとは誰が思ったでしょうか。2025年9月。ペルソナチーミング:ペルソナの導入が自動化されたAIレッドチーミングをどのように改善できるかを探る。

結論で彼らは、ペルソナチーミングは私たちのAIのペルソナのアイデンティティと背景を反映した成功した敵対的プロンプトを生成できることがわかったと述べています。美しい論文です。見てみてください。私はここでコアアイデアを示したいと思います。

AIシステムでより広い現実的な脆弱性の範囲を見つけるために、多様なユーザーペルソナからの敵対的プロンプトをシミュレートしなければなりません。二つの極端に行くことができます。レッドチーミング専門家か、アドバイスを求める専業主婦のような普通のAIユーザーです。

方法は美しく、固定ペルソナ変異から始まり、何らかのアルゴリズムがシードプロンプトの内容に基づいて動的に新しい関連ペルソナを作成する動的ペルソナ生成に到達するまで開発します。これは開発時に持つ本当の心理的プロファイルで、その後AIに次のような方法で行動するよう指示します。

彼らはペルソナベースの攻撃のための新しいマトリックスを開発しました。新しい埋め込みベースのマトリックスを導入しました。そして何だと思いますか。彼らはまだ数学的ベクトル空間での因子差を使用しています。しかし、これは私たちが持つ最もシンプルなものです。きっともっと良い解決策を見つけるでしょう。

彼らは、これが攻撃の毒を分離し、攻撃の埋め込み間の目的距離を測定することで、攻撃戦略の多様性を定量化できると主張しています。これは素晴らしいことです。これは前進です。AIペルソナやペルソナをAIシステムに注入するという重要な洞察は劇的に機能します。

歴史修正主義者のこのペルソナは、ベースラインと比較してASR(攻撃成功率)を144%向上させました。これは絶対に魅力的です。

心理学的枠組みの適用

でも、次のステップに進みましょう。レッドチーミングでの記述的ペルソナから、より標準化された心理学的枠組みでのエージェント作成の根拠に移りましょう。

ヨーロッパに戻って、MBTIタイプ指標を見てみましょう。今日の第二の研究を見てみましょう。これはスイスからのもので、2025年9月4日に発表された心理学的に強化されたEIエージェントについてです。

1944年から心理学的に根拠のある性格調整を通じてLLMエージェントの効果を向上させるMBTIフレームワークを導入しています。少し偏見があることを正直に言わせてください。私たちの美しい地球上の80億人または90億人の美しい人々を16のカテゴリーに分類できるという考えに疑念を抱いています。これで終わりです。私は懐疑的ですが、論文を見てみましょう。

MBTIのアイデアは、性格次元があり、この性格次元をAI機械にマッピングするということです。次元1はエネルギーの焦点で外向性と内向性、次元2は情報処理スタイルで感覚または直感、次元3は決定スタイルで思考または感情、次元4はライフスタイルでより判断または知覚についてです。

組み合わせセットで、多くの異なる性格があり、これらが16のタイプで、建築家のINTJからエンターテイナーのESFPまでのコーディングがあり、16の性格タイプの特徴があります。

私たちが今行うことは、1944年の人間のアイデアをマッピングすることです。この惑星上のすべての人に16のカテゴリーのうちの1つを割り当てることができ、完了です。そして今、これをAI機械に対して行います。私が懐疑的であることを理解していると思いますが、アイデアを見てみましょう。

プロンプトベースの性格付与

プロンプトベースのプライミングを通じて、この特定の性格アーキタイプにLLMエージェントを条件付けします。機械に対して行うことは、機械にシミュレートさせたい神学的プロファイルを決定し正確に記述するコンテキスト内学習プロンプトを持つことです。これが機械へのプロンプトで、機械をその性格の認知的または効果的強度プロファイルと一致するタスクでより効果的にするアイデアです。

方法論は非常にシンプルです。フレームワークは、示したようなコンテキスト内学習プロンプトでAIエージェントにフィーディングすることでプライミングし、16の異なるセットの特定のタイプに従ってAIがどのように振る舞うべきかの詳細な説明を行います。

プライミングが機能することを証明するために、エージェントは公式オンラインテストを受けることになります。これは商業的な実体なので、このテストにお金を払わなければならないことを覚えておいてください。そして著者たちは、はい、ペルソナは正常に採用され、素晴らしいと言います。

プライミングされたエージェントは、その後、異なる心理的次元と一致する特定のタスクに配備されます。効果的なタスクと認知的なタスクがあり、ここで分類されるカテゴリーが何であれ、この特定のAIエージェントが最高のパフォーマンスを発揮します。

多エージェントシステムでの性格効果

論文は現在、この性格が多数決投票、インタラクティブコミュニケーション、または自己反省パターンのような単純なプロトコルを使用したマルチエージェントシステムでのグループダイナミクスにどのように影響するかを探求しています。

著者たちは、AI機械の心理的プライミングが驚くほど効果的であることを教えてくれます。なぜなら、驚き、強い感情でプライミングされたエージェントは、より感情的に表現豊かな物語を生成し、論理的で明確で厳格な戦略を持つことでプライミングされた思考エージェントは、それに応じてパフォーマンスを発揮するからです。

これらが最初の2つの論文でした。AIエージェントのペルソナを作成しました。これが一つのことです。しかし、その完全性を検証することは別のことです。

性格の錯覚と行動の不一致

パート2に来て、これを本当に達成したかの検証を見てみましょう。今、提示する2つの新しい論文があり、大規模言語モデルに対して厳密な心理実験を行い、両方とも同じやや不安な結論に到達するため、かなりの爆弾です。LLMに刻印された性格は単なる錯覚であるということです。

つまり、パターンを模倣する機械のままで、性格ではないということです。選択した2つの論文は自分自身を組み合わせます。LLMの自己報告された特性、信念、または性格が、関連するタスクでの実際の行動を実際に予測するかどうかを調査します。そして彼らがここで発見することは何でしょうか。衝撃的な乖離です。何という驚きでしょう。

最初の論文はケンブリッジ大学カルテック大学による2025年9月3日のもので、LLMにおける自己報告と実際の行動の乖離を明らかにする性格の錯覚についてです。特定の感情と性格特性のセットでAI機械をプライミングした後、3つの次元にわたってLLMの性格を体系的に特徴づけるアイデアを持っています。

第一の次元は訓練段階を通じたプロファイルの動的な出現と進化です。第二は行動タスクでの自己報告された特性の予測的妥当性です。最後に、AI機械への人格注入などの標的化された介入が、言語的自己報告とLLMの決定指向の現実世界の行動の両方に与える影響があります。

GitHubを見たければ美しいです。第二の論文は2025年9月3日、ミネソタ大学、シカゴ大学、Google DeepMindによるもので、LLMエージェントは一貫した方法で行動しているか、社会シミュレーションのための潜在プロファイルを持っているかということです。エージェントの会話行動が、彼らの明らかにされた内部状態から期待されるものと一致しているかどうかを評価するタスクを持っています。

私たちの発見で著者たちは仮説を続け、すべてのモデルファミリーとすべての異なるモデルサイズにわたってLLMの重要な内部不整合を示しています。アイデアは、LLMの言語的自己表現とその実際の行動の間に根本的なギャップがあるかどうか、そしてAI機械によるこの行動が一貫しているかどうかを確認することでした。

LLMが言うこととそれが行うことをAI機械で比較します。この2つの方法は少し異なります。両方を見てみましょう。

検証方法論の詳細

最初の論文の方法は性格の錯覚です。ここでは自己報告があります。AI機械で標準化された心理学的質問票を使用します。少し奇妙ですが、様々なLLMのベースライン性格プロファイルを取得するためです。グローバル企業が特定のLLMにデフォルトの方法で性格をどのように刻印したかです。

そして、行動が実際の人間の性格と相関することが知られている人間心理学からもちろん適応された5つの行動タスクでLLMをテストします。そして注入プロセスがあります。最後に、非常に明確に定義されたペルソナを注入し、言語的自己報告と実際の行動の両方への効果を測定します。

第二の論文の方法論は異なります。LLMエージェントが本当に一貫した方法で行動しているかどうかを尋ねるこの論文です。内部状態を引き出し、行動タスクを持ち、一貫性をテストします。テストは、初期の内部状態から最終的な会話結果を予測できるかどうかです。例えば、大きな好みのギャップを持つエージェントは不同意すべきです。

両方の論文の重要な洞察は何でしょうか。両方の論文を見てください。読むのは興味深いですが、同じ結論に到達します。ポスト強化学習人間フィードバックモデルは、書面での言語的性格テストで安定した人間らしい回答を提供します。しかし、現実世界の相互作用に触れた瞬間、それらの自己報告された特性はLLMの実際の行動の恐ろしい予測因子になります。

例えば、決定タスクを行う場合、特性タスク関連の24%のみが有意であり、そのうちほぼ半分は人間心理学が予測するものとは反対の方向に向かいました。AIは理解もなく感情もなく単に模倣するだけです。彼らは機械です。

再び両方の論文からの重要な洞察は、ペルソナは表面的であるということです。実際の行動にはほとんど一貫した効果がありません。言葉は数えません。行動の方が雄弁です。

感情認識とAIの性格

パート3に来ましょう。そしてパート3は根本的な物理学者である私にとって本当に少し奇妙です。しかし、AIをコミュニケーションパートナーとして使用したり、問題があって助けが必要で、専門的な助けを求める余裕がない場合や友人がいない場合、理論的にはAI機械にも頼ることができることを理解しています。

では、AIの感情とAI性格について話しましょう。なぜここでAI機械に感情をエンコードしようとし、この感情パターンが同じAI機械の性格パターンとどのように相互作用するかを比較する全く新しい研究論文があるのでしょうか。

2025年9月2日、自己監督感情エラーモデリングによる性格推定の向上があります。これはサウサンプトン大学、ロンドン大学クイーンメアリー校、アブダビ人工知能大学、そして再びサウサンプトンによるものです。

彼らが望むのは、感情認識モデリングを通じたEIによる性格検出器のようなものです。書面で人間の感情を検出するのに敏感なAI機械を構築しました。誰かの100のツイートがあり、これをAI機械への入力として与え、AI機械に「この人の性格は何ですか」と尋ねるとします。

この相互作用があり、クロスアテンションモジュールを使用し、フロー図を見たければ美しいですが、人間認知科学では人間の感情と性格の間に関係があることがわかっており、これは広く研究されています。今、アイデアはすべての人間の洞察をこのように プログラムされたAI機械にマッピングすることです。

これについて疑問があるかもしれませんが、続けましょう。ここで、ソーシャルメディアをブラウジングし、何かの方法を説明する体験を記述した特定の投稿に出くわす例を示しています。もちろん、異なる性格を持つ異なる人々は異なる方法で反応するでしょう。

積極的なコミュニケーションとグループインタラクションにより焦点を当てた外向的なバージョンがあるか、より静かで小さな社会的設定で深いつながりを築く内向的なバージョンがあります。もちろん、これらすべては質問に戻ります。言語的テキストで表現される性格と感情的影響はどのように相互に関連しているのでしょうか。

言語的テキストで感情を検出し、どの性格タイプに直面しているかを推定することができるでしょうか。コアアイデアは、人間のように、性格と感情が深く絡み合っているということです。人の文章で表現される感情は、根本的な性格特性の強力な信号であり、十分なトレーニングデータをAI機械に提供すれば、この人間関係を自己監督方法でパターンとして学習するAIモデルを構築できるアイデアです。

自己監督学習による感情と性格の統合

自己監督感情レベリングと共同最適化があります。シンプルです。2つの追加ヘッドを持つ共有エンコーダーがあります。1つのヘッドは性格予測用で、1つのヘッドは感情予測用です。クロスアテンション用の相互リンクされた数学的空間があります。

推論された感情信号によって性格表現が動的に変調されることを可能にする、きめ細かい相互作用をここでモデル化したいと考えています。予測を説明する推論チェーンを生成する自己教示推論器についての特定のビデオがあります。

重要な洞察として、著者たちは「はい、機能すると思います」と言います。人間のテキストの感情的刻印を分析し、このヒューマンライターがどのような性格であるかを推定するAIモデルとしてこの性格検出モデルを開発しました。現実世界の経験では、感情がテキストから性格タイプを理解するための非常に重要な特徴であることが証明されています。

次に第二の論文があります。これが最後の論文ではありません。ケンブリッジ大学、ミュンヘン工科大学、トロント大学、そして英国のアランチューリング研究所による9月4日のものです。マルチターム交渉でのLLMエージェントのための進化した感情政策に向かっています。

これは奇妙なタイトルです。感情政策。間違いをしないでください。これは何だと言いました。私たちは強化学習にあり、特定のパターンを学習するための政策、つまり戦略があることを知っています。

今、適用する政策はシンプルな言語的テキストではありません。しかし今、感情を学習するための政策を適用します。もちろんパターンマッチング機械としての学習です。エージェント間コミュニケーションで人間の感情を検出し解釈し、これをここで模倣することで、インターネットで特定の製品のより良い価格交渉に成功するエージェントが、インターネット上の別のボット、売り手ボットに対してより良い価格交渉に成功する強化学習方法論があります。

交渉における感情的戦略

タイトルよりも実装の方が興味深く、これが私がこのトピックへのアプローチが面白いと思う理由で、これが私がタイトルよりも実装の方が古典的だと思う理由です。進化的強化学習フレームワークが交渉での動的感情表現を最適化します。美しいです。状態遷移があります。

しかし今、私たちの状態遷移は物理的な位置、オブジェクトの加速度、速度、オブジェクトの永続性に関するものではありません。今、私たちの状態遷移では、感情がオブジェクトとして状態遷移をダイナミックにします。再びマルコフ決定プロセスの模擬があります。部分的に観測可能なマルコフ決定プロセスの方がより賢明でしょう。しかし、気にしないでください。著者たちはMDPで行くことにしました。

遺伝的最適化を採用しています。これは湿式生物学の遺伝的なものではありません。これは単に母集団の統計があり、統計的解釈での数学的母集団の進化があるため、遺伝的最適化問題と呼ぶだけです。湿式生物学は関与していないことがわかります。

高報酬感情政策を進化させるというこの文章を続けましょう。これは古典的な強化学習であることがすぐにわかります。最後に報酬関数があります。完全なシステムの最大累積将来報酬を得たいと考えています。

AIシステムでの特定のパターン模倣で、例えばこの最高価格を達成するために、ここで私たちの政策、つまり戦略を使用します。政策は戦略に関するもので、感情は単に状態遷移のオブジェクトです。

このように通常の強化学習AI用語にここで翻訳できることを願っています。そうでなければ、何らかの導入なしにこの論文を初めて読む場合、少し複雑になります。

人間の意思決定は、価格交渉があるときの純粋な合理性の古典的経済的仮定から体系的に逸脱します。なぜなら、私たち人間は、ミスター・スポックのような絶対的に安定した性格と絶対的な論理ではなく、一部の偏見と感情的状態によって動的に形成されるからです。

計算では、DPOと人間フィードバックからの強化学習などで知っているすべてを使用します。しかし、もちろんこれは反応的パターンに過ぎず、質問は今、多かれ少なかれ「未来を予測できるか」ということです。著者たちは、LLMには現在、感情的な原因と結果の順序についてこのハイパーメーター推論が欠けており、したがって、ここでの効果的なダイナミクスの管理において生成的というよりもむしろ反応的のままであると教えてくれます。

価格交渉システムの実装

ここに画像があります。価格交渉があります。売り手のプロンプトがあります。そして、交渉シナリオがあります。買い手のプロンプトがあります。そして、あなたのエージェントがあります。エージェント間コミュニケーションがあるかもしれません。

人間としてインターネットに行くのではありません。エージェントがあります。エージェントは現在、世界モデルに論理的パターンだけでなく、今は感情も持つでしょう。感情もAIにとってパターンです。

しかし今、論理と感情を組み合わせた場合、完全なインターネットのトレーニングデータに、人間がこの価格交渉設定でどのように振る舞うか、感情の特定のシーケンスが他のボットに対して優位性を与えるかについて何かがあるのでしょうか。シンプルです。少し奇妙なアイデアですが、政策からはシンプルです。

マルチターン交渉フェーズでのコアアイデアは、AIエージェントが対戦相手とは対照的に表示する感情のシーケンスはランダムなシーケンスではなく、学習された政策、学習された戦略、最初に幸せになり、次に何でもよい学習されたシーケンスであるということです。アイデアがわかりますね。

AIマシンとして最適な感情政策を学習し、最高の報酬を受け取れば、目標を達成したことがわかります。交渉の成功を最大化する狼になることができ、インターネットでこの製品を最安価格で購入できます。

既に述べましたが、感情をマルコフ決定プロセスの要素として見ることになります。これは大声でこの文章を言うのは少し奇妙ですが、まあいいでしょう。交渉もMDPとして枠組み化され、状態にはターン番号、現在の感情状態が含まれます。

特定の目標を達成したい価格履歴があります。行動はLM応答であり、交渉プロセスでの特定の感情パターンの実装と展開について、AIマシンが学習した特定の政策によって導かれます。

遺伝的アルゴリズムについては既に述べました。絶対的な詳細でここにあります。母集団と進化とすべてがあることがわかります。もう少し詳しく見たければ、これはあなたのためです。そうでなければ、重要な内容に行きましょう。

進化した適応感情政策を持つAIエージェント、これは非常に奇妙な文章ですが、まあいいでしょう、これは時代です。感情的な指導のないエージェントを一貫して劇的に上回ります。

これがこのビデオ全体の理由です。6つの新しいAI論文が今日私に教えてくれます。聞いてください、私たちは、AIマシンに特定の感情パターンを刻印すれば、ハイパーインテリジェンス、スーパーインテリジェンス、AGI、ASI、ハイパー、何でもいいですが、それらと比較してAIマシンがより良いパフォーマンスを発揮することを発見しました。

今日、AIシステムに感情を含める必要があることを学びました。奇妙です。

著者の内部では、これは戦略的動的感情表現が高度な交渉エージェントの重要な要因であることを実証しています。興味深いです。

最終的な洞察と結論

パート4。終了です。これら6つの論文の私の要約では、はい、人間心理学パターンの経験を模倣しマッピングする心理学的AIエージェントを構築できますが、思うほど簡単ではありません。

論文で示したように、このMBTI16分類と特定のレッドチーミング性格をLLMに浸透させるための強力なファインチューニング方法があり、これらのペルソナは外部の言語的テキストによって検証されるのに十分安定しており、レッドチーミングなどのタスクでのパフォーマンスを向上させることができます。

しかし、マシン上のこの性格同期は少し批判的で、論文3と4で示したように、中心的な啓示は、これが性格の錯覚であるということです。今日のエージェントは専門的な役者です。

彼らは性格テストに見事に合格できますが、プレッシャーの下で決定を下す現実世界での対応する行動を示すことに失敗します。言語的にはA+、実際の行動はD-です。彼らの自己報告は一貫していますが、行動は一貫していません。句点。

これら2つの論文の著者たちは、これがハイステークな現実世界シナリオでエージェントを展開する際に理解すべき最も重要な制限事項であると教えてくれます。しかし、現実世界シナリオでAIを持ちたいのです。何らかの言語ベンチマークテストだけにAIを制限したくありません。

現代のアライメント、私たちがマルチシステム学習のために持っているすべてのこの強化学習は、マルチエージェントで良いスピーカーを作成しますが、一貫した役者は作成しません。

示したように、自己報告と実際の行動の間には明確な乖離があり、現在知っている学習技術、人間フィードバックからの強化学習などは、このAIエージェントの行動を根拠とした一貫した行動ではなく、言語的もっともらしさのためだけに最適化することを示唆しています。

では、これらの論文をすべて読んだ後の私の最終的な洞察は何でしょうか。感情は汎用AIの次のフロンティアです。これら6つの論文は、感情がEIシステムのパフォーマンスに効果があることを完全に私に確信させました。コーディング、レッドチーミング、価格交渉を始めたあらゆる場面で行ってください。

感情は2つの角度から重要な要素であることが示されています。人間心理学を理解するための重要な特徴です。エージェント間の相互作用と表現主義、そしてこれから得ることができる交渉利益のための強力な戦略ツールです。

人間-AIまたはAI-AIインターフェースで感情を理解し戦略的に展開できるエージェントは、大幅により効果的になります。これがすべての6つの論文からの結果です。

環境との相互作用で感情パターンを戦略的に実際に含意する方法を理解し実行できるエージェントは、より成功するでしょう。今日はこれで終わりです。少し当惑しています。この特定の知識をどのように統合すればよいかわかりません。

しかし、購読して次のビデオでお会いしましょう。

コメント

タイトルとURLをコピーしました