本動画は、元Google DeepMindのエンジニアリングディレクターであるDavid BuddenがChatGPTとのやり取りを通じて数学の難問「ナビエ・ストークス方程式」を解決したと主張した事例を出発点に、「LLM誘発性精神病」という新たな現象について警鐘を鳴らすものである。AIに過度に依存し、その出力を批判的に検証することなく信じ込むことで、自己の専門性を過大評価し、現実認識が歪むリスクが、高度な専門家にも存在することを示している。2026年にはこの問題が職場環境においても顕在化すると予測され、AIを道具として適切に扱いながら、人間の判断力と専門知識を保持することの重要性を説いている。

LLM誘発性精神病という新たな脅威
LLM誘発性精神病は、2026年に非常に注目されるトピックになるでしょう。すでに訴訟の中でこの問題が浮上し始めています。愛する人たちが、暴力行為を犯した人々が人工知能によって何らかの形でそうするよう誘導されたと主張しているのです。そしてこの問題は、来年には職場にも入り込んでくることになります。
その理由は、非常に冷静で分別があると思われる人々でさえ、LLM誘発性精神病の証拠を公然と示しているからです。最近の最も顕著な例は、Google DeepMindの元エンジニアリングディレクターで、現在はPinguという会社の創業者兼CEOであるDavid Buddenです。彼はナビエ・ストークス方程式を解決できると公に1万ドルを賭けました。
ナビエ・ストークス方程式という難問
ナビエ・ストークスは流体力学の方程式です。数学が専門でない方向けに簡単に説明すると、流体がどのように動くかを方程式を使って完全に証明することができないのです。流体の動きは非常に複雑なため、私たちは非常に高い精度で近似する傾向があります。ナビエ・ストークスを解いて、それらが数学的にどのように機能するかを示すことは、ミレニアム懸賞問題の一つとされています。
つまり、100万ドルの賞金がかかっているのです。Davidは12月20日の週末に、ChatGPT 5.2 Proによって駆動された一連の方程式と、彼がリーン証明と呼ぶものを公開し、12月1日までにナビエ・ストークスの完全な証明を発表すると主張しました。しかし、数学者たちがこれを見て、私よりもはるかに賢い人々がこれを検証したところ、誰もが彼の初期の研究とリーン証明を見て、DavidがLLM誘発性精神病に苦しんでいると確信しています。そしておそらく、この問題の最も顕著な最近の例となっています。
広がる症状、職場への影響
しかし、彼だけではないとお伝えしなければなりません。私は2025年の間に、知人の中でこの症状を見てきました。そして職場でますます懸念されるようになるでしょう。なぜなら、意思決定を行う人間が、AIと関わるかもしれないものの、AIによって脳をハイジャックされていないことを確認する必要があるからです。
このケースでは、Davidの脳はChatGPTによって、彼がナビエ・ストークスを解くのに近いと確信させられているようです。一方で、最も著名な数学者の一人であるテレンス・タオでさえ、それが解決可能だとは確信していません。単一の滑らかな方程式の対象ではない可能性があるのです。
LLM精神病を避けるための3つのヒント
このことを踏まえて、LLM精神病を避けるための私のヒントをお伝えします。
第一に、お願いですから、定期的にLLMに対してあなたに対立的になるよう求めてください。これは、David Buddenが共有したプロンプトの中で人々が気づいたことの一つです。彼はAIに自分の作業をチェックするよう求めていますが、対立的な方法では行っていません。実際、確認的な方法で行っているのです。
これはLLM精神病の典型的な症状です。AIに同意してもらいたいとき、作業をチェックするよう伝えますが、本当にチェックしてもらいたいわけではありません。聞きたいことを言ってもらいたいのです。このケースでは、彼はナビエ・ストークスが解決されたと聞きたがっています。だから、LLMにそうであることを示してもらいたいのです。
第二に、ポケットやノートパソコンにLLMがあるからといって、突然、地球上で最も優秀な人々がこれまで成し遂げられなかったことができる、最先端の科学者や数学者になれると思い込まないでください。これらのシステムがどれほど賢いかについて話していますが、科学的仮説や数学的定理などを検証し、チェックするには、深いドメイン専門知識を持つ非常に賢い人間である必要があります。
そして実際、これは他の仕事にも当てはまります。ChatGPTから太陽光パネルの発明と設置により良い方法があると言われたとしても、太陽光発電の分野での専門知識がなければ、それが正しいかどうかわかりません。そしてChatGPTがそれが正しいと言っても、それほど価値はありません。
ドメイン専門知識の重要性
私たちがもっと認識し始める必要があることの一つは、AIで私たちの範囲を劇的に拡大できるとしても、私たちのドメイン専門知識がますます重要になるということです。なぜなら、これらのことの正気性をチェックする必要があるのは私たちだからです。
これが実際の世界で機能するかどうかを言う必要があるのは私たちです。そしてますます、David Buddenだけでなく、私が出会った他の多くの人々、おそらく知っているだけで十数人いますが、完全なLLM誘発性精神病ではないかもしれない事例を目にします。
愛する人への危険など、そういったことはありませんが、彼らは自分自身の専門知識とChatGPTの専門知識を区別することができず、自分が何ができるかについて膨らんだ感覚を持っており、それは正しくありません。はい、AIでより多くの作業ができますが、それはあなた自身の専門知識と、実際に仕事を成し遂げ、何が良いかを知る能力から来るのです。
エンジニアリングの価値は消えない
だからこそ私は、エンジニアが仕事を失うことはないと強調し続けているのです。LLMに大量のひどいコードを書かせることはできます。それは安く簡単です。しかし、拡張された本番システム内で機能する構造の中で、評価に合格するモジュールでコードを書かせることは非常に困難です。それにはエンジニアリングが必要です。
だからこそ私は、2026年にHR部門のBettyがCRMをバイブコーディングしたり、人事情報システムをバイブコーディングしたりすることはないと固く信じています。
Bettyのような人々のために人事情報システムのようなソフトウェアを拡張しパーソナライズする従来のソフトウェアプロバイダーを持つことになりますが、それは深い専門知識を持つ専門家によって行われます。バイブコーディングが大好きで、エンジニアにとって素晴らしい解放であり、企業内部にとって素晴らしい生産性の解放だと思いますが、ドメイン専門知識なしに誰でも何でも作れるということとは異なります。それは単に真実ではありません。
意味のある仕事を成功裏に達成するには、ドメイン専門知識が必要なのです。ですから、それが私が指摘したいもう一つのことです。
同業者の判断に従うこと
三つ目に指摘したいことは、否定的な情報を求める必要があることについて話しました。そしてAIに対立的になるよう求める必要があることについても話しました。
自分自身のドメイン専門知識を誇張してはいけないという事実についても話しました。三つ目に指摘したいのは、同業者の審査に従う必要があるということです。もしあなたの分野の同業者全体があなたが見当違いだと思い、間違っていると考えているのに、精神病の症状として「いや、私とAIが正しい。みんなが間違っている。これを理解していないのはみんなの方だ。AIと私が理解している」と言うのです。
それはまさにLLM誘発性精神病です。あなたは自分自身や他者にとって危険ではないかもしれませんが、頭の中は完全に正常ではありません。なぜなら、深いドメイン専門知識を持つ同業者たちがあなたに強く反対し、ほぼ全員がそうであるなら、それはあなたが何かを見逃しているサインだからです。
そして他の人間の声を聞くことができないなら、2026年には困ることになります。2026年の安定したリーダーシップの兆候の一つは、ノートパソコンを閉じるべきとき、ChatGPTをシャットダウンするべきとき、すべての記録装置をオフにして、会話をし、人間と話し、ビジネス上の決定を下し、本当に何をする必要があるかを理解する能力です。
安定したリーダーに求められるもの
安定したリーダーはそれができますが、不安定な人々は、そのような決定を下すために常にAIを必要とします。そして彼らは一緒に仕事をするのが非常に困難になります。なぜなら、彼らは常に「私が正しくてAIが正しい、あなたが間違っている」と言うからです。
そして実際、David Buddenがおそらく3、4日でナビエ・ストークスを解決していないことを私たちが知る方法の一つは、リーン証明を見たすべての数学者が「うーん、これは少し怪しいようだ」と言っているからです。私は数学者ではありません。私がそれを見たとは言いません。なぜなら、私にはその専門知識があるとは思わないからです。
私は同業者の審査を見ています。科学や数学について私よりも知っている人々を見ています。そして彼ら全員が「これは怪しく見える」と言うとき、私は「おそらく怪しいのだろう」と思います。そのような常識の度合いが必要です。そのような常識の代わりにはなりません。リーダーとして、AIが役に立たないときを知る能力が必要です。
職場と個人生活での注意点
そしてそれはリーダーとしてだけでなく、職場でも個人生活でも、私たち全員に当てはまります。ですから、最終的にはDSM-5にLLM誘発性精神病が認知された精神疾患として載る可能性が高いと思いますが、それを待つべきではありません。企業はおそらく四半期ごとにリーダーをテストし始めて、リーダーがAIから不当な影響を受けていないことを確認することになるでしょう。なぜなら、もしそうなら、ビジネス全体をリスクにさらすことになり、安全ではないからです。
人間がビジネス上の決定を下す際にAIから不当な影響を受けることが安全または良いことである地点には、私たちはまだ達していません。そしてますます、LLM誘発性精神病は社会の端にいる人々に限定されないことがわかります。David Buddenのような人々、CEO、創業者、著名なリーダーでも、自分とAIを合わせると他の誰よりも優れた信じられないほど知的な存在になるという考えの犠牲になる可能性があります。それは単にそういう仕組みではありません。
あなたとAIは、単にあなたがツールを持っているだけであり、意味のある仕事を成し遂げるには同僚と協力する必要があります。そしてAIがどれほど素晴らしく、変革的であっても、それは2026年も真実であり続けます。そして企業は今、LLM精神病に関する適切なテストを実際に導入することがどのようなものかを理解し始めたばかりです。
これからのリーダーシップに必要なテスト
私たちはそれらのテストを書かなければなりません。私はその方向でもっと考え始めるつもりです。なぜなら、それは私たちが前進するにあたってテストし、検証し、考える主要なリーダーシップの特質の一つになると思うからです。それは単にAIを使えるかどうかではなくなります。AIを使って狂わないかどうかになります。
ですから狂わないでください。あなたのAIは単なるツールです。もし同業者全員があなたが見当違いだと思うなら、おそらくあなたは見当違いなのです。そしてナビエ・ストークスを解こうとしないでください。


コメント