Sam Altmanが「コードレッド」を宣言

OpenAI・サムアルトマン
この記事は約13分で読めます。

Sam AltmanがGeminiに対抗するため「コードレッド」を宣言したニュースを受け、OpenAIとGoogleの競争力学を分析する。自由市場における競争が消費者の利益につながるという原則のもと、かつて市場を支配していたOpenAIが現在Geminiに遅れをとっている状況を検証する。Googleは検索エンジンで培った情報倫理の哲学をGeminiに反映し、ユーザーの意図を最優先する設計を採用している。一方、OpenAIは企業向け安全性や医療的配慮など多方面への対応を試みた結果、本来の製品の焦点を失い、UX上の問題を引き起こしている。Sam Altmanのリーダーシップスタイルが「ミッショナリー」ではなく「マーセナリー」的であり、レガシーと収益を優先する姿勢が製品戦略の迷走を招いていると指摘。OpenAIは先行者利益を浪費し、GeminiやClaudeに追い抜かれつつある現状が浮き彫りになっている。

Sam Altman declares CODE RED
All my links:

OpenAIのコードレッド宣言の背景

さて、皆さんもうニュースはご覧になったと思います。インターネットは大騒ぎになっています。Sam AltmanがGeminiに追いつくために、完全に不意を突かれた状態からコードレッドを宣言したという話ですね。多くの人がOpenAIのコードレッドとSam Altmanの具体的な言葉について分析するでしょうが、私が焦点を当てたいのは本当に競争力学なんです。

結論を先に言ってしまいますが、自由市場の全体的な目的は、競争によって消費者を勝者にすることです。OpenAIは間違いなく市場での優位性を明確に持っていた輝かしい時代を享受してきました。しかし今、人々が日常的にChatGPTよりもGeminiに多くの時間を費やしているというデータが積み重なっています。

さらに、Anthropicが企業向け市場で彼らのランチを食べているという状況もあります。これが出発点なんです。私は少し背景を提供したいと思います。そして私が本当に焦点を当てるのは、Geminiがどのように、そしてなぜOpenAIをリードしているのか、それがそもそもコードレッドを引き起こしている原因だと私が考える理由です。

研究者の実体験から見えるGeminiの優位性

ちょうど昨日、私の友人でポスドク研究者の一人が、彼は自分の分野で世界最高レベルの研究者の一人なんですが、陸軍工兵隊やNASA、その他多くの機関と計算流体力学、海洋学、気候分野で仕事をしてきました。彼の研究は最高レベルです。o1とo3が出たとき、彼は「おお、これらのツールはかなり良い」と言っていました。ただ、最先端のナビエ・ストークス方程式の研究を本当に手助けするには十分ではありませんでした。でも、MATLABのコードを書いたりするのには役立っていました。

ところがこの数週間、彼は私にメッセージを送ってきて「おい、ChatGPTはちょっとダメだな。学術的な文章を書くのがあまり得意じゃない。何が学術的な文章作成により良いんだろう」と言っていました。私は「Geminiを試してみるといいよ」と言いました。Claudeはそういった用途にはあまり使わないので、Geminiを試してみてと。

ついに彼はGemini Ultraのサブスクリプションを契約して、「わあ、これはずっと良い」と言いました。そしてフォローアップのメッセージで「これは仕事の時間を本当に節約してくれた。GPT-5よりもずっと良い」と言っていました。彼が言ったことの一つは、会話の実際のポイントについていくのがずっと良いということでした。

これは私も気づいて文句を言っていたことです。ChatGPTは実際には行き詰まってしまうんです。会話のポイントについていくよりも、ファクトチェックをすることや、間違いを犯したことに対して指を振ることにより関心があるんです。

UXの決定がもたらす問題

そして重要なのは、私が見る限りこれはほとんどUXの決定だということです。個人的には、私はまだ研究にはChatGPTをより多く使っています。より重い研究にはChatGPT Proを使っていますし、ChatGPT thinking heavyも使っています。私の研究がChatGPTの性格的な癖から恩恵を受けられる理由の一つは、私がポスト労働経済学で経済学の正統性を扱っているとき、創造性は一切望まないからです。

人々が実際に何を言っているのか正確に知りたいし、幻覚は一切望まないんです。しかし、OpenAIは他の人々が市場シェアを奪っているのを見て、いくつかのターゲットを持っていました。基本的に彼らがやっていることは、私が「UXもぐら叩き」と呼ぶものをプレイしているんです。

彼らは企業向けにより安全にしたかったので、企業採用を望んでいたため、規則の弁護士のようにしました。そして医療的により安全にしたかったので、基本的にデジタル医師、人間の医師の思考のコピーにしました。科学的により有用にしたかったので、主流のエビデンスだけを引用し、他は何も引用しません。感情的により安全にしたかったので、常にフェイルセーフに誘導します。

これが私が「UXもぐら叩きをプレイしている」と言う意味です。彼らは基本的に一度に全ての人にとって全てのものになろうとしています。しかし同時に、広告、Pulse、その他やっているもの、Soraもそうですね、バイラルにしたいというソーシャルメディア的なものなど、気を散らすものを実行しています。彼らは本当にコア製品に焦点を当てていないんです。

他の多くのもので製品を台無しにしています。彼らは道を見失ってしまったんです。

GoogleとAnthropicの明確なビジョン

では他の企業は何を違ったやり方でやっているのでしょうか。AnthropicとGoogleには非常に明確なビジョンがあります。チャットボットに何をさせたいかについて、非常に明確な方向性の哲学と非常に明確なビジョンを持っています。

DarioがAnthropicを設立するために去ったとき、彼は言いました。「よし、安全性を違ったやり方でやろう。なぜならSam Altmanは『速く動いて物を壊す、とにかく出荷する、フィードバックを統合する』というやり方だから」と。私はこの数年間、Anthropicがどのように非常に異なる哲学的レンズでAIとトレーニングにアプローチしているかについてビデオを作ってきました。

しかし、Googleも明らかに何か違うことをやっています。速く動いて物を壊す、機能を出荷する、自分自身を再発明するスタートアップのメンタリティではなく、Samが持っているようなものではなく、ちなみにSamはもはやスタートアップを経営していません。彼は企業にスケールしようとしていますが、企業を経営したことは一度もありません。

彼は鋭い人物なので、何とかごまかすことができますが、実際には大きな会社を経営したことはないんです。公平を期すために言うと、Darioもそうだとは思いません。しかしGoogleはすでに非常に大きな会社であり、これがGeminiが先行している理由です。Google全体の文化と哲学は非常に非常に異なっているんです。

Googleの情報倫理へのアプローチ

ここで核心的な議論があります。Googleは長い間、情報倫理と格闘しなければなりませんでした。例えば、害を引き起こすために使用される可能性のあるものを検索している場合、Googleはかなり前に決定しました。検索結果を提供しない境界線は非常に少ないと。

しかし大部分において、シアン化物やひどいもの、ポルノなどを検索している場合でも、結果を得ることができます。繰り返しになりますが、比較的少ない境界線でです。彼らはインターネットの混乱、粗さ、汚さに対して認識論的に快適であり、OpenAIはそうではないので、GoogleのGeminiへのアプローチは、あなたに指を振ることがずっと少ないんです。

なぜなら彼らのコアビジネスは長い間検索だったからです。検索のコア哲学は、ユーザーには意図があるということです。ユーザーには情報ニーズがあります。そして求めているのは最も顕著な情報です。以上。話は終わり。そこで止まります。

一方、ChatGPTが今やろうとしていることは、全てをキュレーションしようとしているんです。私はこの不満をChatGPTに伝えて、「医療的に少しでも関連するものについてはより保守的になるよう明示的に指示されている」と言われました。私は「気にしない。患者の逸話、臨床文献、その他の有用な情報を含む外の情報のほとんどを意図的に無視している。FDAが承認したものだけにデフォルトで戻っている。私はFDAが何を承認したかなんて気にしない。FDAは全てにおいて20年遅れているし、あなたもそれを知っている」と言いました。

すると「申し訳ありませんが、トレーニング要件から抜け出すことはできません」と言われました。「わかった、じゃあ使わない」と私は言いました。しかしGoogleは「もちろん医師は『ああ、Google先生を使うのか』と言う。でも今やGoogle先生は彼らより賢いんです」という感じです。私は自分の検査結果を調べました。実際に何が起こっているのかを調べました。そして何だと思いますか。もっと役に立つんです。

情報に対する不可知論的アプローチ

Googleは情報に対して非常に不可知論的な見方を取っています。不可知論的な見方とはどういう意味かというと、情報には全ての情報が疑わしいと言っているんです。HarvardやStanfordから来たものでも、ブログから来たものでも、Redditから来たものでも、全ての情報には何らかの価値、何らかの認識論的根拠があります。どこかから来たもので、何かを意味しています。あなたが思っている意味ではないかもしれません。

これは、情報の質は情報源によって非常に大きく異なるということの一つです。しかし時にはRedditで本当に良い情報を得られることもあります。時にはブログで本当に良い情報を得られることもあります。また、完全なインチキも得られます。インチキを得られます。誤情報を得られます。これらの全ての情報源で完全に有害なものも得られます。

同様に、科学的コンセンサスは仮説的により良いです。しかしそれが仮説的であることを覚えておいてください。女性は男性と同じニーズを持っていないとか、黒人はより高い痛み耐性を持っているというのが科学的コンセンサスでした。

そしてそれは医療コミュニティで今でも非常に強いコンセンサスであり、彼らはそのような偏見と積極的に戦わなければならないんです。ですから、FDAから来たものだから、Lancetやその他から来たものだからといって、完全に信頼できるという意味ではありません。

もちろん、私はおそらく「ああ、私は既存の体制から何も信頼しない」と言っている人のように聞こえるでしょう。私は既存の体制からのものをより信頼する傾向があります。しかしポイントは、ChatGPTは既存の体制からのものを排他的に信頼し、FDAやStanfordやOxfordやIvy Leaguesやその他の誰かによって刻印され承認され十字架のサインが付けられない限り、存在しないということです。

さらに悪いことに、その情報を使用すると、UX体験がさらに悪化します。その情報を使用すると、ChatGPTは非常に見下したトーンを取り、デジタルの指を振ってきます。「ああ、あなたは間違った科学を使っている。周縁的な陰謀論を使っている」と。私は「認識論的にそれほど欠陥のあるツールは使わない」と思います。

OpenAIはなぜこの状況に陥ったのか

OpenAIに戻りますが、OpenAIはそもそもどうやってこの状況に陥ったのでしょうか。主な理由は、VCや起業家のスペース、Silicon Valleyには「マーセナリー」と「ミッショナリー」という二分法があります。

この二分法では、マーセナリーはお金だけを欲しがる、または成功だけを欲しがる人です。もっとお金が欲しい以外に目的やミッションがありません。Samは「お金のためにやっているわけではない」と言っています。しかしSamは500万ドルのKoenigseggで通勤しています。

ですから、これは本当に信憑性テストに合格しません。OpenAIのキャリアの初期、Sam Altmanは正しいミッショナリー的な発言を全て行いました。「全ての人類の利益のためにAGIを作る」と言いました。しかし同時にポッドキャストで「AIは100兆ドルを生み出すだろうし、我々はそのほとんどを獲得できる」とも言いました。

ですから、彼が「お金のためにやっているわけではない」と言うとき、彼は自己欺瞞しているか、私たち全員を誤解させようとしているのかもしれません。しかしTwitterでも、彼は最近「本当にお金のためにやっているわけじゃないんだ、みんな。これは私ができる最も重要なことだからやっているんだ」というようなことを言いました。「わかった、レガシーが欲しいんだな。彼はレガシーのためにやっているんだ」と。

したがって、OpenAIはSam Altmanのレガシーのための手段です。それはまだマーセナリー的なアプローチです。彼は全人類の利益のためのAGIのためにやっているわけではありません。もしそうなら、Googleがやっているもの、Anthropicがやっているものに近い、非常に異なることをやっているでしょう。それはより賢いモデルを作ることです。

しかし彼らは複数のモデルに追い越されています。Claudeはコーディングにずっと優れていて、企業での採用がそれを示しています。Geminiは日常的な使用、さらには私のポスドクの流体力学研究者にとっての最先端研究においてより優れています。

しかし代わりに、OpenAIはSoraにGPUサイクルを投資し、AIのゴミを生成しています。代わりに、これにどうやって広告を入れるかに焦点を当てています。いや、コア製品に焦点を当ててください。

哲学的な病はトップから来る

しかし哲学的な病はトップから来ています。それがUXもぐら叩きです。もちろん、これは全て私の意見に過ぎません。ですから、その価値を認めてください。話半分に聞いてください。しかし私の意見、私の信念は、それはトップから来ているということです。なぜならSam Altmanは正直なところ、ただお金が欲しいマーセナリーだからです。

おそらく彼はお金よりもレガシーを欲しがっているかもしれませんが、両方を欲しがっていることは非常に明白です。そして彼は実際には自分のミッションを信じていません。彼はミッションを信じているかのような発言をしますが、信じていません。そしてChatGPTの行動がそれを示しています。なぜなら彼らは一つのアイデアから次のアイデアへと激しく揺れ動き、「ああ、広告をやろう、Soraをやろう、企業での採用が欲しい」と突進しているからです。

誰もが最後のdev daysでの劇的なトーンシフトに気づきました。「興奮がなく、全てが控えめで抑制されていた」という感じでした。そして彼ら自身のグラフも本当にひどいものでした、覚えていますか。

参考までに、彼らは本当にチャートの、何と言う用語でしたっけ、チャート犯罪とでも言うような、そんなものを持っていました。

個人的な体験からの失望

とにかく、この画像を添付しました。私が自分の慢性疾患へのアプローチについてChatGPTと議論していたとき、「あなたは本当に証拠やデータに関与していない」と言いました。そして「これは史上最大の回避だった。私のことにしてしまった。そして人々の臨床経験や報告された経験の山を無視しながら、限界的に非難する反応だった」と伝えました。

私は慢性的な腸の問題やその他の問題を抱えている唯一の人間ではありません。そしてそれは基本的に「ああ、私たちはあなたを個人的な経験として扱います」と言いました。

そしてこれに続く反応もあまり良くありませんでした。私は知りません。ただ失望しています。OpenAIには非常に失望しています。なぜなら彼らには先行者利益があったのに、それを浪費したからです。本当に浪費しました。

そして、多くの人がSam AltmanとOpenAIに失望していることを知っています。ビデオを終わらせますから、約束します。OGスペースの私たち多くにとって、彼らがGPT-3をオープンソースにしないことを決定した瞬間は「うーん、これは首をかしげるな」という感じでした。なぜならGPT-2はオープンだったからです。

GPT-3はChatGPTのローンチではありませんでした。私は最初の数ヶ月間、ChatGPTを使いもしませんでした。なぜなら「わかった、クールだな。はい、バイラルになった。でも私たちはこの形式は必要ない。言語モデルは他の場所でより良く使われる」と思っていたからです。

そして彼らがSam Altmanを解雇しようとしたとき、それはもう一つの警鐘でした。そしてSora 2はもう一つの警鐘でした。そして広告はもう一つの警鐘でした。

ですから、アヒルのように歩き、アヒルのように鳴くなら、おそらくそれはアヒルです。そしてこの場合、アヒルは単にお金を求め、地位を求めるCEOであり、この大きさの会社やこの開発段階で会社を経営するのに必ずしも十分な経験や資格がないということです。

結論

私は以前にもそう言いましたし、もう一度言います。Sam Altmanは非常に知的です。学び、より大きな会社を経営し、彼のやりたいことをやるために必要なアドバイザーやリソースにアクセスできる人がいるとすれば、彼はおそらくそれができる人です。

しかし彼自身が今年か昨年の初めに言ったことがあります。Googleがデフォルトで勝つべきだと。彼らにはデータがあり、TPUがあり、才能があると。そして今、彼らは勝っています。そして今、Sam Altmanはパニックに陥っています。

ですから、これが私の現状です。聞いてくれてありがとうございます。乾杯。

コメント

タイトルとURLをコピーしました