MITの研究でAIが人間の思考力を奪うという結果が話題となった中、多くの人がChatGPTに重要な決断を丸投げしている現状を批判し、AIを単なる答え検索ツールとしてではなく分析パートナーとして活用する重要性を解説する動画である。特に金融分野を例に、構造化されたプロンプトによってAIから質の高い分析を引き出し、最終的な意思決定は人間が責任を持って行うべきだと主張している。

AIが人間の思考力を奪う問題
MITから出た研究覚えてるか?AIが人の脳力を奪うっちゅう話や。かなり話題になったやつやな。要するに、ChatGPTから決断や思考、文章をコピペしとったら、脳みそがあんまり使われへんっちゅうことや。当たり前やけどな。
金融業界での責任回避問題
ここからもっと大きな教訓があるんや。特に注目してるのが金融業界やけど、多くの人がAIに結果の重荷を肩代わりしてもらいたがっとる。AIに決断させて、うまいこといったら「俺はAI使って賢いやろ」ってドヤ顔して、株価下がったらAIのせいにするっちゅうわけや。
ChatGPTで遊んどる人らを見とったら、強いプロンプトを投げてへん。分析的なプロンプトでもない。後でもっとええやり方教えたるけど、ただ単に「答えくれ」って言うとるだけや。「6.2%でリファイナンスすべきか?」「今は住宅ローンの借り換えのタイミングか?」「いつ家を売ったらええ?」「家買うのにいくら要る?」「この街に引っ越すのにいくら要る?」「雇用主と昇給交渉するのに、いくら要求したらええ?」
答え探しから思考への転換
こういうのは答え質問や。俺が「ドメイン補完質問」って呼んどるやつやな。実はGoogleがこういうのは得意や。Googleはこのために設計されとるからな。Googleは脳みその「答え求める」傾向と一緒に働くように作られとる。答えマシンなんや。
今俺らみんなが経験しとるのは、Googleみたいな答えマシンから思考マシンへの移行や。ChatGPT、Claude、Geminiとかな。高いレバレッジで価値の高い活動には、思考マシンへの移行を優先せなあかん。金融なんかまさにそうやろ。かなり価値が高いと思うで。
LLMに答えを求めたら、LLMは親切になるよう訓練されとるから、完璧に受け入れられる一般的な答えをくれる。でもそれは、プロンプトがLLMの得意なことをする余地を与えてへんからや。プロンプトが分析する余地を与えてへん。本当に深く掘り下げる余地をな。
金融を例にした分析的アプローチ
この動画で焦点当てたいのは原則や。金融をレンズとして使うで。高いレバレッジで価値の高い活動やと思うからな。みんな何らかの形でやっとる。予算アプリ使ったり、投資したり、給与交渉したり、お金と付き合わなあかん。
LLMをどう使うかについて話したいんや。これは高価値な思考活動でLLMをどう使うかっちゅうレンズになるからな。提案したいフレームワークは、ドメイン補完や「答えくれ」タイプの質問の代わりに、「これから俺が与える全ての入力を踏まえて分析してくれ」っちゅう風に変えることや。
プロンプトを非常に慎重に構造化して、LLMが合理的な全体像を与えるために必要な分析を完了させるための正しい場所を実際に作るんや。検討中の決断のな。
LLMを統合者・対話パートナーとして活用
目標は、LLMを統合者にすることや。LLMを対話パートナーにして、あんたより効率的に入力を処理できるようにするんや。ウォーレン・バフェットでもない限り、あんたよりも効率的にディスカウント・キャッシュフロー・シートを見れるかもしれへん。ウォーレンがあの世から聞いとったら、こんにちはウォーレン。
でも要点は、俺らのほとんどがそんな風に使ってへんっちゅうことや。これは俺らが不確実性にめちゃくちゃ居心地悪く感じとるからやと思う。LLMをこんな風に使うと、不確実性の滑走路がほとんどの人には扱いにくい程度まで延びるんや。
LLMにリファイナンスのポジションを分析させても、決断は返ってけえへん。返ってくるのは、もっと色彩豊かな選択肢のセット、詳細についてもっと明確な選択肢のセットや。LLMにたくさんの情報を与えとる。W2、1099の収入、何でもええ。家の現在の金利、何をしたいかとかな。
そしたらたくさんの選択肢が返ってくる。LLMは意見を持ってるかもしれへんし、それでもええかもしれへん。同意するかもしれへんし、せえへんかもしれへん。でも答えはくれへん。答え補完マシンとしてプロンプトしてへんからや。だから不確実性と決断の責任と一緒に座らなあかん。
不確実性を受け入れる重要性
ここでレンズが広い世界にズームバックする。俺らはもっと不確実性とLLMに慣れなあかん。LLMは素晴らしい分析ツールや。その分析を受け取って、決断を自分のものにして、その決断の結果を自分のものにせなあかん。そうすることで、はるかにはるかに良い結果が得られる。
LLMが俺らの指先に置いてくれる信じられないトークン処理能力を活用できるようになる。その全ての力を一つの決断だけに減らすんやなくてな。実際にはその全ての力を選択肢の探索に使いたいんや。
俺が金融用に開発したプロンプトは、これを探索する方法として、まさにそれをやる。Substackで手に入れられるし、自分で実行できる。様々な特定の金融シナリオの分析を解き放つように設計されとる。
ライブ実験の実施
でもそこで止まらへんかった。実際にライブ実験を実行したらもっと迫力があると思ったんや。だからRobinhoodとKalshi(イベント市場)で少額の実際のお金を使ってライブ実験を実行しとる。
どちらの場合も、3つの異なるLLMに意見を形成させて、分析させて、実行したい特定の取引に賭けを設定させとる。それからそれらの取引を実行して、90日後に結果を判定するとLLMに伝える。投資の観点から、コールシートの観点からは90日は非常に短く感じるけど、方向性は掴めるし、期間を与えることでLLMに短期計画を立てる機会を与える。
どうなるか見てみよう。これにはo3 Pro、Opus 4、Grok 4を選んだ。全部書き起こして、彼らの予測のコピーを持って、追跡して、どうなるか見るで。
実験の真の目的
ここでのポイントは、ちなみに株価を上げるモデルを選ぶことやない。AI洗浄で資金調達してる会社の例を知っとる。基本的に「AIで」って言ったら株価が上がるって言うとるやつや。ブルル。そんな風には行かへん。
株式はAIの手の中でお金印刷機やない。代わりに、大量のテキストを処理できる。決断を下す人間に有用なコンテキストを提供できる。有用な分析を提供できる。だから俺の質問は実際には、強いプロンプトを与えられて、実生活のテストからの良いデータを使って、LLMがデータストリームとどう相互作用して、実生活の市場に対して実生活の結果を伴う推奨をするかを理解するのに役立つかっちゅうことや。
統計分析への期待
それを見つけるつもりや。時間が終わったら、これらのいくつかはうまく行かへん、いくつかはうまく行くと完全に予想しとる。実際に台帳より前に出てくるやつがあるかどうか見るで。これらのモデル間に実質的な違い、意味のある違いがあるかどうか見る。
実際に終了残高の違いに統計分析を実行して、それらが互いに正規分布範囲内にあるか、実際に信頼区間から大幅に外れとるか見るかもしれへん。昔少し統計分析をやっとったから、それは俺にとってかなり楽しいやろな。
それがポイントやろ?ポイントはネイトがそれから全ての株を上げるLLMを選んで、みんなが幸せになるっちゅうことやない。LLMは金融アドバイザーやない。俺も金融アドバイザーやない。俺はあんたがLLMについてどう考えるかを再構成して、分析空間に入れるのを手伝うためにここにおる。
構造化プロンプトの重要性
プロンプトを見るとき、分析のためのツールとしてプロンプトを考えてほしい。「関連する入力はこれや」「あんたの役割はこれや」「俺があんたにしてほしい静かな反省はこれや」隠れた思考の連鎖で、タスクが何か、全ての入力があるかなどを理解できるように。「俺が欲しい出力はこれや」「成功基準はこれや」「フォールバックや拒否基準はこれや」これら全てのものを、特定の決断周りの構造化プロンプトにまとめるんや。
株式イベントを受ける従業員の一人になったら株を売るべきかどうかとかな。それは特定の決断イベントや。そのためのプロンプトを作れる。家を買う、そのためのプロンプトを作れる。新しい仕事を始める、そのためのプロンプトを作れる。
分析の汎用性
だから俺の目標の一部は、基本的にこれらの例を十分に配置して、あんたがそれらを取って自分のものにし始められるようにすることや。「どこでもっと分析が必要か?」って言い始められるように。金融やないかもしれへん。大学を選ぶことかもしれへん。MBAプログラムを選ぶことかもしれへん。
時々人が意見を求めてきて「ネイト、受けるべき最高のAIプログラムを教えて」って言う。俺には判断しにくいって言うんや。これは実際に、よく構造化されたプロンプトを使うべき素晴らしい例や。高価値の決断や。何をすべきかを教えてくれるべきやない。
決断不安を克服するツールを与えてくれるべきや。分析を通して作業する不快感と一緒に座れるならな。だから、俺らが本当に求めとるのは投資アドバイスやない。結果の責任を自分の中に保持して、LLMに決断が何であれ強い分析を与えてもらえるかっちゅうことや。
LLMの分析能力の活用
特に、LLMは広範囲のテキスト入力の分析と代替案の開発、代替案の検討に非常に強い。だからプロンプトを正しく組み立てれば、ほとんどの人間から得られるより広い画像を得られる。もっと読んで、もっと選択肢を見るからな。
こういう状況で時々役立つことの一つは、一つのプロンプトだけを書くんやなくて、プロンプトを書いてから入力の一部を調整することや。このシナリオが変わったらどうなる?あのシナリオが変わったらどうなる?それは文字通り一つのプロンプトの距離や。以前はほぼ不可能やった。
従来の相談との比較
以前なら、金融アドバイザー、不動産の人、キャリアガイダンスの人と座ったら、一時間全部と払うお金を使って一つのシナリオだけを検討しとった。一つのシナリオを、LLMでの一回のチャットでできるより少ない粒度でな。今なら10回のチャットができる。
家に25%頭金を入れるシナリオ、15%頭金を入れるシナリオをモデル化したいか?X給与でマーケティングマネージャーの仕事を取るシナリオ、Y給与でのシナリオ、それが予算にどう影響するかをモデル化したいか?LLMを分析者として生きることを喜んで受け入れるなら、チャットで全部できる。自由にしてくれる。
デジタルツインとしてのLLM
これは俺がLLMをデジタルツインとして話したことと関連しとる。同じコンセプトや。LLMを使って将来のタイムラインを安く モデル化しとるんや。それを効率的にできるようになったら、意思決定の質を大幅に改善するのに役立つ。
人々が金融を非常に具体的に感じて、それをより現実的にするのに役立つから、金融を例示するために選んだんや。だからプロンプトを出しとる。欲しかったら見てくれ。でも、これを持ち帰りたいだけなら、AIとの相互作用で構造化思考フレームワークを使うように再度挑戦したい。
構造化思考の重要性
Googleみたいなドメイン補完質問はするな。プロンプト質問で人々に対する俺の最大のスーパーティップの一つや。GoogleにプロンプトするようにChatGPTにプロンプトするな。うまく行かへん。最適な結果は得られへん。
代わりに、実際に考えるように求めることでAIの力を使え。それは、あんたが思考帽子を保持して身に着けなあかんっちゅうことや。結果を自分のものにして、構造化思考フレームワークで挑戦せなあかん。俺のプロンプトが設計されとるのは、基本的に構造化思考フレームワークをどうやるかを示して、AIが要求する力を最大限に活用できるようにすることや。
努力の必要性と長期的利益
そう、これは難しい。実際のデータを集めなあかん。俺が手伝えるプロンプトクラフトと座らなあかん。でもみんなのプロンプトは少しずつ違うやろな。分析アプローチは不確実性を前面に持ってくる。不確実性を最初に扱わなあかん。それでええ。
今そのパターンに入れる。金融で入れる。大きな決断でどんなフレームでも入れる。そしたら第二の天性になって、AIをますますそんな風に使うようになる。それはあんたにとって下流の利益のトンを解放する。
人生でLLMをこんな風に使う人やったら、もっと早く進歩するで。文字通りもっと多くの将来のタイムラインを見れるからな。一回のチャットの距離にある隠れたスーパーパワーみたいなもんや。
実験の真の教訓
目標は金融決断でAIを避けることやない。これを聞いて「まあ、ネイトがGrok 4とOpus 4とChatGPTでテストを実行して、見てみて、うまく行ったら金融決断に使って、お金を失ったら使わへん」って言ってほしくない。
これの美しさは、どっちにしても何かを学ぶっちゅうことや。ポイントは決断やなかった。ポイントは分析と、プロンプトと結果の関係やった。ポイントはLLMを思考パートナーとして使うことや。
だからそれが俺のあんたへの挑戦や。選択は皮肉にも非常にあんた次第や。ドメイン補完に使うだけやなくて、AIを思考パートナーとして使えるか?考えてみて。乾杯。


コメント