GPT-5.3 Codex Sparkが登場 驚異的な高速性能を実現

GPT-5、5.1、5.2、5.3
この記事は約8分で読めます。

OpenAIが専用ハードウェアで動作する初のモデルGPT-5.3 Codex Sparkをリリースした。Cerebrasとの提携により毎秒1,000トークンという驚異的な速度を実現し、リアルタイムコーディングに特化している。同日にはGoogleがGemini 3 Deep Thinkを発表し、こちらは高度な推論タスクに最適化された対照的なアプローチを取る。さらにMiniMax M2.5やGLM-5といったオープンウェイトモデルも登場し、コーディングとエージェント機能における競争が激化している。フロンティアラボは汎用AGIから実用的なコーディングモデルへと焦点をシフトしており、検証可能な報酬を持つタスクやエージェント型ワークフローの実現を目指している。

GPT 5.3 Codex Spark: Its Crazy Fast
First look at GPT-5.3-Codex-Spark! We also look at Gemini 3 Deep Think, MiniMax M2.5 and GLM-5. These are exciting relea...

GPT-5.3 Codex Sparkの登場とその革新性

OpenAIがGPT-5.3 Codex Sparkを発表しました。これは専用に設計されたハードウェア上で動作する初のモデルで、その速度は圧倒的です。毎秒1,000トークンという処理速度は、フロンティアラボのモデルとしては前例のないものです。これまでこのようなスピードを見たことがありません。

これを可能にしているのが、Cerebrasによる専用ハードウェアです。OpenAIはCerebrasと提携し、大規模言語モデル向けのカスタム設計されたハードウェアを活用しています。これは非常に重要なことです。なぜなら、ほとんどのコーディングアプリケーションでは、コードを極めて高速に生成できるモデルを使いたいからです。

そのため、OpenAIはこれをCodex上でのリアルタイムコーディングのための超高速モデルとして提示しています。これはGPT-5.3 Codexの小型版です。したがって、パフォーマンスの面では確実に低下を感じるでしょう。しかし、すべてのタスクにフロンティアモデルが必要なわけではありません。

Gemini 3 Deep Thinkと新世代のモデルたち

フロンティアと言えば、GoogleもGemini 3 Deep Thinkを発表したばかりです。これは極めて高度な推論と思考を必要とするタスクに最適な彼らのベストモデルです。

さらにMiniMax M2.5があります。これはより強力で高速、そしてスマートなオープンウェイトモデルです。それからGLM-5があり、これはコーディングからエージェント型エンジニアリングへと進化しています。こちらも同様にオープンウェイトモデルです。これらすべてについてお話ししますが、まずはCodex Sparkに焦点を当てましょう。

これはリアルタイムコーディング用に設計されており、OpenAIによれば毎秒最大1,000トークンを提供できます。

AI業界では非常に興味深いトレンドが起きています。これらのフロンティアラボはかつてAGIや汎用システムについて語っていました。しかし最近の傾向を見ると、誰もが特にコーディングに焦点を当てています。その理由は、コーディングを正しく実現できれば、検証可能な報酬を持つあらゆるタスクを実質的にこなせるからです。

また、コーディングはエージェント型の使用を可能にします。つまり、これらのモデルはコーディングモデルによって駆動されるエージェント型タスクが得意であれば、知識労働において経済的に実用可能になるのです。

Codex Sparkの仕様と利用条件

いくつか簡単な注意点があります。これはChatGPT Proユーザーのみが利用可能で、Codex上でリアルタイムに作業するために特別に設計されており、このモデルを使ってサブエージェントを駆動できます。

コンテキストウィンドウは128,000トークンとかなり小さくなっており、通常のGPT-5.3 Codexの200,000トークンと比較すると制限があります。そして最も重要なのは、これが速度のために特別に設計されているということです。ですから、通常のGPT-5.3 Codexと同レベルの知能は期待しないでください。パフォーマンス面では少し劣ります。

いくつか例を見てみましょう。左側にGPT-5.3 Codex、右側にGPT-5.3 Codex Sparkがあります。GPT Codexモデルは低速で有名です。しかし、Sparkモデルを見てください。すでにアプリを構築してテストしています。一方、GPT Codexはまだ計画とファイル作成の段階です。

もう一つの例です。この場合、アプリの計画を立てているか、書いています。もう完了しています。

タスクに応じた最適なモデル選択

すべてのタスクに最新かつ最高の最先端モデルは必要ありません。これらのモデルは非常に高価になります。特にサブエージェントアーキテクチャを検討している場合はなおさらです。速度と知能のバランスを取りたいですよね。ですから、GPT-5.3 Codex Sparkのようなモデルは、明確に定義されたタスクをサブエージェントに割り当てられるシステムを構築する場合に非常に重要になります。

速度が重要な場合に、このようなモデルを使いたいのです。期待できるパフォーマンスの簡単な例を見てみましょう。通常のGPT-5.3 Codexと比較すると、確実にパフォーマンスの低下がありますが、タスクを完了するのにかかる時間ははるかに短くなります。Terminal Benchでも同様のパターンが見られます。

これは実験やプレビューとして捉えるべきだと思います。彼らの新しいResponses APIにより、往復時間が80%削減され、永続的なWebSocket接続により最初のトークンまでの時間が50%短縮されました。

これらすべてはCerebras CS-3エンジンによって駆動されています。

カスタムハードウェアの重要性とOpenAIの戦略

これは推論用のカスタム専用ハードウェアの実用性も示しています。これはNvidiaが多くの競争に直面する分野です。OpenAIは最近Groqを買収しました。おそらく同じ方向に進んでいると思われ、この専用カスタムハードウェアビジネスの実用性を示しています。

このリリースで、OpenAIは実際に2つの異なる分野をターゲットにしています。一つは長期的な推論と実行、もう一つは迅速な反復のためのリアルタイムコラボレーションです。Codex Sparkのようなモデルは、リアルタイムコラボレーションを望む場合に非常に重要になります。そして、オーケストレーターとして機能する、はるかに大きく有能な推論モデルが存在することになります。

前述のとおり、現時点ではハードウェアの制限のためProユーザーのみが利用可能です。Cerebrasチームは現在、OpenAIに十分なハードウェアウェーハユニットを提供できていないと思います。しかし、通常のOpenAI APIとは異なるレート制限が設けられます。

Gemini 3 Deep Thinkの登場

では、Gemini 3 Deep Thinkについて話しましょう。これはGemini 3のためにトレーニングされたDeep Thinkアーキテクチャの特定バージョンであり、推論タスクにおいては他のすべてを圧倒します。

特にGPQA-Diamondを見ると、大規模言語モデルにとって非常に難しいチャレンジとされていたものの80%を超えた最初のモデルです。また、コーディングタスクでも、Claude Opus 4と比較して非常に大きな改善を示しています。ただし、これは日常使いのモデルではありません。

2つのモデルの対比は実に興味深いです。OpenAIのCodex Sparkは速度のために特別に設計されています。一方、同じ日に発表されたGemini 3 Deep Thinkは、長時間かかる可能性のある計算集約的な推論タスク向けに設計またはトレーニングされています。

ユーザーは即座の応答にはあまり興味がなく、応答の正確性を求めています。つまり、研究グレードのモデルと言えます。私は彼らの早期アクセスプログラムに参加していました。難しいタスクには本当に素晴らしいモデルです。Ultraサブスクリプションをお持ちなら、ぜひチェックすることをお勧めします。

オープンウェイトモデルの進化

この数日間、2つの主要なオープンウェイトリリースもありました。

今日はMiniMax M2.5が発表され、少なくともこれらのベンチマークにおいてエージェント型コーディングに関して最先端のオープンウェイトモデルとなりました。昨日リリースされたZhipu AIのGLM-5を上回りました。非常に速いペースで進化しています。

簡単な実験から言えば、これらのオープンウェイトモデルは両方とも非常に有能なモデルです。ただし、本当に安定しているとは言えません。一貫した結果が得られるわけではありません。いつものように、ベンチマークだけを鵜呑みにせず、実際に自分で実験したいところです。

コスト効率と実用性の重要性

とはいえ、最初のポイントに戻りたいと思います。すべてのタスクに最新かつ最高のモデルは必要ありません。

実際にMiniMax M2.5やGLM-5のようなものをサブエージェントとして、Codex Sparkモデルの潜在的な代替として使用することもできます。なぜなら、これらのオープンウェイトモデル、特にM2.5で得られるパフォーマンス対コストの比率は非常に素晴らしく、本当に打ち負かすのが難しいからです。そして、コーディングを超えた知識労働においてはさらに重要になります。

最新のモデルを実行しようとするだけではありません。企業はそれがいくらかかるかを気にしなければなりません。だからこそ、ワークホースモデルという用語を見かけることが多いのです。アイデアは、アクションを非常に速く、妥当な価格で実行するのに十分賢いモデルが欲しいということです。そのため、フロンティアラボはフロンティアのモデルだけでなく、Haikuシリーズ、Flashシリーズ、そして今やCodex MiniやCodex Sparkといったワークホースモデルも提供しているのです。

いずれにせよ、これは非常に興味深い年になるでしょう。まだ2月ですが、すでに素晴らしいリリースがいくつも見られました。これからどうなるか本当に楽しみです。

とにかく、この動画が役に立ったことを願っています。ご視聴ありがとうございました。いつものように、次回お会いしましょう。

コメント

タイトルとURLをコピーしました