ChatGPT-5があんたを救うことはない:AI戦略が失敗する10の理由

GPT-5、5.1、5.2
この記事は約17分で読めます。

この動画では、ChatGPT-5などの新しいAIモデルが登場しても解決されない10の根本的な問題について解説している。多くの企業がAI導入で直面する課題は技術的な問題ではなく、むしろ人間と組織の問題であることを指摘し、データの準備不足、不明確な目標設定、変更管理への投資不足などの具体的な問題領域を詳しく分析している。

ChatGPT 5 Won't Save You: 10 Reasons Why Your AI Strategy is Failing
My site: substack: 1. Data Delusions: 78 % of failed AI projects trace back to messy...

ChatGPT-5が解決してくれへん問題とは

今日はな、ChatGPT-5が解決してくれへん問題について話したいんや。なんでって?別に特別な魔法の虫眼鏡や魔法のタイムマシンを持ってるわけやないからな。未来がどないなるかを詳しく調べに行けるわけやないんや。

その代わりに、会社や役員会での豊富な経験に基づいて、ビジネスが実際にどうAIを使ってるかをしっかり理解してるんや。そして分かってることは、今日AIで見てる問題の大半は、AIの問題やなくて人間と組織の問題やということなんや。

だから、モデルメーカーが新しいモデルがどれだけ素晴らしいかという大きな主張をするときは、いつもそれを実際の組織の現実にフィルターをかけて考えるんや。ChatGPT-5が魔法のように解決してくれそうにない、めちゃくちゃ退屈な解決策があるいくつかの具体的な問題領域を一緒に見ていこか。

データに関する魔法の杖思考

1番目、これが一番よく見る問題なんや。データに関する魔法の杖思考や。何度も何度も見る間違いなんやけど、使ってるLLM(Azureクラウドでも、Copilotでも、Geminiでも、ChatGPTでも)にデータを渡しさえすれば、それが直してくれるやろうと思ってしまうんや。いや、直してくれへんで。

実際、8対2の法則がここでは文字通り当てはまるんや。Techradarによると、AIで苦労してる企業の78%が、データの準備不足を根本原因として挙げてるんや。データの準備不足は、LLMが魔法のように解決してくれるもんやないんや。

AIのもっと高度な研究サイドでは、最終的にはこれが解決されるという考え方があるんや。AIが人間のデータの混乱を認識するのがめちゃくちゃ上手になって、コンテキストウィンドウも大きくなって、処理能力も向上するから、この混乱を全部読み込んで魔法のように意味を理解してくれるようになるっていうんや。

そしてそれが、まるで現在ここにあって今日その仕事ができるかのように語られることが多いんや。そんなことは全部嘘や。そして、たとえそれが本当やったとしても、AIに悪いデータを与えるのは悪いアイデアやという具体的な理由がたくさんあるんや。データの入力がきれいであればあるほど、強いAI体験を得られる可能性が高くなるんや。

データについて魔法の杖思考を使ったらあかん。「うちのデータの何が悪いねん?」と言われて、データを見てみたらLLMにとって意味論的な意味が全然ない状況にいたことがあるんや。分類もされてない、整理もされてない、ただのデータの塊なんや。そこが問題なんや。それ以上問題を探す必要もないくらいや。

何千何万という文書があって、そういう区別のないような巨大なテキストの塊があって、それが全部意味をなすと期待してるって言われても、そんなんできるわけないやん。だって、より大きなデータ構造の中での意味論的な意味を与えてないからな。使える下位コーパスの意味構造がないんや。

コーパスっていうのは文書の全コレクションのことなんやけど、何らかの意味を持たせるべきなんや。例えば、Wikipediaやったら、内部のwikiに意味論的な意味を持つ異なるセクションがあるかもしれん。そして記事のタイトルがあって、それらは分離する価値があるし、wikiのどこにいるかの感覚を与えてくれるんや。

これはシンプルな例やけど、健康記録みたいな公式文書を扱ってるなら、患者名に意味論的意味があって、診断にも意味論的意味がある、みたいな感じや。伝えたいデータについて本当にはっきりさせればさせるほど、実際にAIを使ってデータを引き出すのが簡単になるんや。

モデルに関する魔法の杖思考

2番目に見る問題は、密接に関連してる魔法の杖思考、モデルに関するもんや。人はより速く、より良く、より強い推論モデルが必要やと思い込みがちなんや。毎日使うドライバーをChatGPT-4oからより強いモデルに移行することの大きな支持者なんや。明確に言ってきたんや。o3に行け、Gemini 2.5 Proに行け、Claude Opus 4に行けって。

個人の生産性に役立つのは確かやけど、それがAIの仕事のあらゆる側面を、利用可能な最高の推論モデルでやらなあかんという意味やないんや。見てみ、PDFでカラムを正しくソートしたいだけなら、地球上最高の推論モデルでソートしてもらう必要はないんや。きれいに区切られたデータセットを注意深く調べて、特定の会社に関連するすべての値を抽出したいだけなら、それも推論モデルである必要はないかもしれん。

実際、それはLLMですらないかもしれん。ただの洗練されたSQLクエリかもしれんのや。人はパイプラインにオーバーパワーをかけすぎて、その代償を払うことになるんや。基本的にフェラーリのプレミアムを払ってるんや。最高のモデルを持ってる感じを味わうために払ってるんやけど、それが知能やと思ってるんや。

でも実際は、知能っていうのは、よく整理されたデータ、そのデータに対して適用される適切なモデル、適切なクエリ、適切なガードレール、適切な評価が、人間が有用だと感じる方法で表面化されることなんや。

分かるか?適切なデータなんや。適切なモデルが、有用な仕事をできるように制約されて、人間が理解して使える方法で表面化される。それが職場で知能が実際に働く仕組みなんや。そして、モデルがその中でどれだけ小さな役割を果たしてるか気付いたか?ChatGPT-5は出たときにビジネス界で最高のフェラーリかもしれんけど、その全体的な価値の流れの中では小さな部分なんや。

だから、面白いAIの仕事を構築しようとしてるなら、もっと広く考えなあかん。

曖昧で変化する目標

3番目の問題は、曖昧で変化する目標や。これは繰り返し繰り返し見る人間の問題なんや。特定のビジネス問題を解決するAIプロジェクトに紐付ける意味のあるビジネスKPIを持つ必要があって、そのビジネス問題は重要でなければならん。

ビジネス問題が重要やなかったら、何度も見てきたけど人は諦めて、去っていくんや。ビジネス問題が重要やけどKPIに紐付いてない場合、チームの一部にとってただ迷惑なだけやから、優先順位も付けられへん。組織にとって重要で、ビジネスKPIで測定可能で、問題に必然的に遭遇したときに目標が動いたり変化したりするのを防ぐために、可能な限り公に目標を固定する必要があるんや。

AIプロジェクトは、実際に価値にたどり着くまで解き続けるネストされた問題セットの連続なんや。ビジネスが気にかけてる、C-suiteが気にかけてる、彼らが動かすような明確なKPIがなければ、そのネストされた問題セットを通り抜ける忍耐力は持てへん。それが本当に人を持続させるもんなんや。チームを持続させるもんなんや。

AI戦略をビジネス戦略から切り離すこと

4番目に見る問題は、AI戦略をビジネス戦略とは別のもんとして扱うことや。微妙な問題やけど、これもまたモデルでは解決せえへん。予算を無駄にしたくなくて、AIネイティブなビジネスになる上で実際に進歩したいなら、AI戦略をビジネス戦略から切り離したらあかん。

AIの担当者と一緒に隅っこでAI戦略をやったらあかん。それが皆やってることなんやけどな。AIをプロジェクトとしてやるだけやったらあかん。実際には、大型言語モデルがかなり細かいレベルでどう働くかを役員が理解する時間を取って、ビジネスの中でそれが適用されるレバレッジポイントを見つけられるような方法で、AI戦略をビジネス戦略に統合しなあかん。

例えば、AIとは何の関係もないと思うビジネスで働いてるとしよう。カスタマーサービスが最重要で、すべては白い手袋の体験で顧客の前に人を置くことや。そういう状況の役員は、よく「AIはここそこで役立つかもしれんけど、うちのビジネスにとって変革的やない。誇大宣伝は買うてないで」と言うのを見るんや。

間違いや。そういう態度のせいで見逃すチャンスを、あんたのビジネスや競合のビジネスの人が見つけるんや。あんたの価値提案がAIに対して非常に耐性があることを認識する必要がある。おめでとう。人間のタッチを持ってる、それは非常に価値があることや。素晴らしいことや。

でもバックオフィスの部分は、ビジネスKPIのコストを削減することに焦点を当てた完全なAI戦略が必要やない理由はないんや。ちなみに、それは人を解雇することだけを意味するわけやない。販売するすべてのアイテムをより効率的に追跡することや、データセットに対してより効率的に能動的にクエリをかけることや、より効率的に思慮深く価格設定することかもしれん。

バックオフィスでできることは半ダースくらいあるんや。文書管理やろ?非常に退屈なことやけど、ビジネスをうまく運営する上で本当に重要な部分になって、AIが助けになるんや。

既製の基盤モデルへの過度な依存

5番目、既製の基盤モデルへの過度な依存や。汎用のLLMがすべてのニッチなドメインに合うと思って、合わなかったら、すぐに独自のモデルを訓練しなあかんと思い込むんや。でも独自のモデルを訓練するってことが何を意味するかも分からへん。

ほとんどすべての会話で「これにはモデルを訓練する必要がありますか?」と言われるんや。ある意味、モデルメーカーを責めるわ。モデルを訓練することが信じられるような、もっともらしいような感じにしてしまったんや。簡単な作業やない。推奨せえへん。

その代わりに、データと、モデルが繁栄できる制約とガードレールについて考えろ。アーキテクチャについて考えろ。プロンプトエンジニアリングについて考えろ。RAG(検索拡張生成)データセットとして策定されたデータセットが必要かどうか考えろ。モデルが仕事を適切に処理するためのコンテキストをどの程度助ける必要があるか、そのコンテキストを提供することが何を意味するかを考えろ。でも人はせえへん。

「モデルが知ってるはずや」と言うんや。モデルが知ってることによってモデルが知能的やという、この間違いがまたあるんや。でも実際は、モデルは細かいレベルでは変換する方法によって知能的なんや。これらはTransformerベースのアーキテクチャで、知能は変換して次のトークンを予測する方法から来るんや。

それが魔法のように知ってることからではないんや。訓練されて強化学習で役立つようになった方法のせいでそう思うんやけど、プロダクションシステムを構築するときは実際にはそうやないんや。

統合と運用の無視

6番目、AI の統合と運用を無視することや。チームは概念実証をデモして、評価がないことを発見するんや。監視もない。ロールバックもない。問題があったときにモデルをプロダクションから引き戻す方法もない。プロダクションに到達する基準が何かも分からへん。到達したら到達したで、どう監視するかも分からん。どのツールセットと統合されてるかも分からんから、それらのツールセットが変わったらどんな脆弱性があるかも分からん。

基盤となるデータセットをどう更新するかも分からん。モデルがやってくれると思ってるんや。モデルをプロダクションに投入したら、モデルが問題を解決してくれると。それがまさに、Air Canadaが自分たちのAIがでっち上げた遺族給付方針で法廷に立つことになった考え方なんや。AI運用を無視したらあかん。

実際、キャリアパスを探してるなら、AI運用に入って、AIを本番環境で安定かつ安全にデプロイして引き戻す方法、サンドボックスの扱い方を理解することは大きなことや。簡単なことやない。ほとんどの組織が危険を承知で無視してることなんや。

これにはソフトウェアの特性があることを何度も人に思い出させなあかん。ソフトウェアやないかのようにデプロイして、動作することを期待したらあかん。

ヒューマン・イン・ザ・ループの欠如

7番目。同じように、ヒューマン・イン・ザ・ループがない。Claraの話が有名やけど、LinkedInの誇大宣伝を読んだやる気満々のCEOがいる他のケースでも見るんや。「この人たちは必要ない。あんたを雇って、人が仕事を失って、このチームを削減できるようにしたい」と言うんや。Claraが顧客サービスチームを再雇用しなければならなかったことを知らへん。

AIが軌道から外れたときに人間のところに行って実際の真実が何かを見つけ出す能力がなかったら、幻覚を招いて、コンプライアンス違反を招いて、ブランドダメージを招いて、ビジネスの心臓部を失うような顧客体験を招くことになる。

だから、システムを設計するときに非ハッピーパスを予測することが本当に重要なんや。プロダクト管理をやってるならこれを徹底するんや。ハッピーパスだけを予測したらあかん。みじめなパスを予測しろ。それをどうもっと優雅に、よりみじめでなく、顧客を維持する可能性を高くするか。

AIでも同じで、AIが間違って、会話の最後で人間がそれを知ってて、AIがそれを認めないとき、どうやって人間のヘルプを得るか?人はそれについて十分考える時間を使わへん。

人間に100%正確であることを期待せえへんのに、AIには100%正確であることを期待するんや。それは合理的な基準やない。何かが非常に役立って、87%正確ということもありうるんや。だから、アプリケーションによっては、AIが87%正確で、残りの13%に人間が必要で、あんたの仕事はその2つの使用例の間をきれいに切り替えるシステムを設計することという状況にいるかもしれん。

ほとんどのビジネスがその数字を把握して、その問題をどう解決するかにほとんど投資してないのを見るんや。

変更管理への投資不足

8番目、変更管理への投資不足。大きな問題や。チームの前にAIを置きさえすれば魔法のように動作すると思い込むんや。ここでもまた、モデルメーカーがある程度罪があるんや。今週見たChatGPT-5のリークのように、何度も何度も言おうとするんや。リークの後にリーク、スライスしたパン以来の次の大物や。信じられないほど素晴らしい。驚くべきものや。

人はまた同じサイクルを通ることになるんや。組織にChatGPT-5を渡しさえすれば、それが底辺に魔法のような驚異をもたらすと思うんや。それは販売の観点からモデルメーカーには都合がええかもしれんけど、本当やない。人がAIを使うようになるためには、変更管理とスキルアップのプロセスを通らなあかん。そうでなければ、チャットボットはきれいに読み込まれて、週に2、3の基本的なタスクで相互作用するだけで、モデルがあんたのためにできることの力を実現することには程遠いんや。

程遠いで。それでも、ほとんどの組織はモデルやAIテクニカルスタックにより多く投資してて、人には投資してない。変更管理に投資せえへん。スキルアップに投資せえへん。公平に言うと、彼らにそうさせるのは歯を抜くようなもんや。誰もそれについて話さへんからな。モデルメーカーは技術、技術、技術、技術を強調してる。

もちろん、彼らの話を聞いて技術やと思うやろ。そして、これが新しい汎用目的技術やという事実から考えてないんや。この新しい技術を有効活用するためには人の変化が必要なんや。人を事実上まったく新しいデジタル組立ラインに置いて、勝手に理解しろと言って、それが魔法のように動作することを期待することはできへん。

工場ではそんなことしないやろ。なんでここでするねん?でもそれが皆やってることなんや。

総所有コストの忘却

9番目、総所有コストを忘れること。よく人はトークンコストについて考えへん。開発者の維持コストについて考えへん。一人の開発者がこれをやってて、その開発者に、神様お許しください、何かが起こったら、もう終わりやという「バスにひかれる問題」について考えへん。

本番環境でこれらのモデルを評価する維持コストについても考えへん。何も考えへん。「これを本番環境に持っていけるか?持っていけるなら、すばらしい。残りは後で心配しよう」という感じや。競合他社より先に市場に出るという強行軍的リスクオンアプローチがあるからなんや。

理解できる。実存的な必須事項なんや。AIを市場に出せなあかん。だからそこでのインセンティブは理解できる。間違ってるとは思わへん。でもクラウド推論コスト、ベクターDBクエリがどう動作するか、コストガードレールがどう維持できるかを理解することは本当に重要や。さもなければマージンが逆さまになるのが本当に速いんや。

それは顧客にモデルを提供してる場合のモデル提供についてだけや。内部で提供してる場合は、コスト持続可能な方法で内部フットプリントのより多くの使用例に拡張することを確実にする問題でもある。後続のシステムを構築しようとしてる場合は、AIシステムが従来のソフトウェアよりも本番環境でより多くの維持を必要とすることを認識することでもある。

継続的に評価しなければならん。QAでテストして忘れるわけにはいかん。実際、8対2の比率が逆転すると思うんや。80%の時間を本番環境の使用例を見ることに費やすべきや。なぜなら、起動前にすべての使用例についてモデルを適切にテストすることは本質的にできへんからや。ある閾値に達して「起動して評価し続ける」と言わなあかん。

それはより多くの維持コストを意味して、一緒に働いてる組織のほとんどが考慮してないんや。総所有コストは大体壊れた計算機なんや。悪いんや。そして繰り返すけど、モデルメーカーは技術がそれを解決するということを暗黙的にも明示的にも何度も何度も言うんや。

彼らは自分たちの成功の犠牲者のようなもんや。なぜなら、普通そういうことを言ったら人は割り引くからなんや。西欧市場で70年の宣伝が頭にあるから、みんな主張を割り引くんや。でもこの人たちは実際にやってのけたんや。石に考えることを教えたんや。信じられないほど新しい汎用目的技術を開発したんや。

本当に本当に本当に良いもんなんや。だからモデルメーカーに対する割引がなくなるんや。そして「ひょっとしたら彼らは本当に正しいかもしれん。ひょっとしたら誇大宣伝してるわけやないかもしれん。この製品で信じられない仕事をしたから、これは本当にこんなにいいものかもしれん」と思うんや。実際そうなんや。これらのLLMが信じられないもんで、素晴らしい仕事ができないと言ってるわけやない。

ビジネスで素晴らしい仕事をするようにどう設定するかということなんや。そして人が見逃してる部分がそれなんや。見逃してる段階があるんや。

セキュリティとプライバシーのショートカット

最後に挙げたいのは、10番目、セキュリティとプライバシーのショートカットや。「データがどこにあるかは後で心配しよう。セキュリティ要件が何かよく分からん。とりあえず始めて、立ち上げて、理解しよう」とか「ベンダーの利用規約を見てない。基盤モデルメーカーとどういう関係にあるか分からん。誰か他の人に理解してもらおう」。

そんなことしたらあかん。これは、誤用のリスクが高すぎるから、初日からデータのストーリーを知らなあかんもののひとつなんや。これらのことを無視して速く進むのが本当に役立つケースやない。そして部分的に速く進むのに役立たない理由は、解決策が存在するからなんや。利用規約を素早く簡単に読めるんや。どの安全なクラウド環境にデプロイしたいかを素早く理解できるんや。AI革命から2年半経った時点で、比較的少ない労力でコンプライアントで安全になれるんや。

だから言い訳はない。「速く進むことがこの理由や」とは言えへん。セキュリティとプライバシーを真剣に受け取らなあかん。そして、これもまたビジネスが2つの心を持ってる分野なんや。必死の状況にあるスクラッピーなスタートアップ的なところは「まあ後で対処するわ」という感じになりがちなんや。

一方、よりエンタープライズ的なところは「セキュリティとプライバシーをやって、6か月間セキュリティとプライバシー以外何もしない。それから最終的に次のことに進む」という感じになりがちなんや。それもそれでリスクなんや。実際、この時点では安全でプライベートなAIをデプロイするのはそんなに難しくないからなんや。ほとんどのケース、ほとんどのフットプリントで6か月もかからん。

だから、そんなに長時間それに費やしてるなら、Amazonで言う「2日目の思考」を使ってる可能性が高いんや。欲しい結果を見るんやなくて、プロセスとして見てるんや。だから、この10番目の最後のもんを推しすぎて、セキュリティとプライバシーに過度に取り憑かれすぎることも可能なんや。

これが問題やと分かってて、クラウドプロバイダーがこれを大規模にビジネスが非常に迅速に解決できるもんにすることに強くインセンティブを持ってるから、そう言うんや。あんたのビジネスが欲しいからなんや。Google CloudとAzureは、AI側でより進んでるからAWSからビジネスを盗む最高のチャンスを何年ぶりに得たと見てるんや。

あんたの仕様に合わせた安全でプライベートな環境を提供することに絶対に執着するやろ。だから言い訳はないんや。手に入れるべきやし、素早く手に入れて、それから先に進むべきなんや。

まとめ

これらの10項目を見てもらったけど、ちなみにこの10個は網羅的なリストやないんや。他にもあるんや。CEOがAIの使い方を知らないっていうのが、お気に入りの秘密の11番目なんや。それは問題なんや。前にも言ったことがあるんやけど、CEOがAIの使い方を知らんかったら、AI変革を推進するのは本当に難しいんや。終わりや。

チェーンの上の方にいる人の半分が本当にその使い方を知らんかったら、汎用目的技術は機能せえへん。他にもたくさんの例があるんや。

これらの例を見てもらって、ここにある例のうち、人とプロセスがどれだけあって、技術アーキテクチャがどれだけあるか、ただのモデルやデータやなくて、ただのモデルやないかを気付いてもらいたいんや。何度も何度も指摘してきたんや。

だから、新しいモデルは素晴らしいって言い続けるんや。もらえて嬉しいわ。生きて働くのに驚異的な時代や。でも魔法の弾丸やない。すべてを魔法のように解決するわけやない。その代わりに、良いアーキテクチャがあって、ここで概説した問題を解決した時に、そうでなければ得られるよりも多くの投資収益率を上げるのに役立つんや。

きれいなデータ環境で、優秀なヒューマン・イン・ザ・ループのセーフティネットがあって、良いMLOpsデプロイ実践があって、良いAI戦略がある、より良いモデルはもっと遠くまで行くやろ?エンジンを適切に構築された車に入れるようなもんで、実際に最大限に活用できるんや。ジャンキーなT型フォードにエンジンを詰め込んで「まあ、F1エンジンが入ってるから、フルスロットルや。きっとうまくいくやろ」と言ってる人たちとは対照的にな。

いや、うまくいかへんで。新しいモデルに備えてビジネスを設定する時間を取れ。ちなみに、ChatGPT-5は素晴らしいやろうけど、1か月後、2か月後、3か月後にまた別のモデルが出てくるんや。我々は指数関数曲線の真ん中にいるんや。

だから、もっと指数関数的な改善を見ることになる。だからこそ、ビジネスのための変更管理の持続可能な側面に焦点を当てることがとても重要なんや。他に代替はないんや。ChatGPT-5があんたの問題を魔法のように全部解決してくれへんすべての方法について考えてもらえて嬉しいわ。乾杯。

コメント

タイトルとURLをコピーしました