
11,909 文字

OpenAIが突然O3(大型モデル)とO4 Mini Highをリリースしました。これらはかなり優れているように見えます。O3はO1に取って代わり、O4 MiniはO3 Miniに取って代わります。そしてO3は大きな前進のように見えます。OpenAIはこれを「AIシステム」と呼んでおり、強力な画像推論能力、ウェブ検索機能、レポート作成能力を持ち、思考の流れの中でツール呼び出しを行うことができます。
まだ解明すべきことはたくさんありますが、この動画ではOpenAIのリリース動画を見て、主なポイントを素早く確認してみましょう。
こんにちは、私はグレッグ・ブロックマンです。私はマーク・チェンです。OpenAIで研究をリードしています。未来への質的な一歩と感じられるモデルがあります。GPT-4はそのひとつでした。今日もそういう日になるでしょう。
私たちは今日、2つのモデル、O3とO4 Miniをリリースします。これらは、一流の科学者たちが「正当に良い、役立つ、斬新なアイデアを生み出す」と言うモデルの最初のものです。法律分野でも素晴らしい結果が出ています。昨日同僚の一人と話していた時、彼は「O3がシステムアーキテクチャについて素晴らしいアイデアを出してきた。これまで見たことのないようなものだ」と言っていました。
これらのモデルの本当に驚くべき点は、単なるモデルではなく、実際にAIシステムだということです。私たちは以前の推論モデルでは行っていなかったツールの使用を訓練しました。難しい問題を解決しようとする思考の流れの中で、実際にこれらのツールを使用します。例えば、O3が非常に難しいタスクを解決しようとして、連続して600回のツール呼び出しを行うのを見たことがあります。
私たちは今日から始めて、APIとChatGPTでこれらのモデルを段階的に利用可能にし、できるだけ迅速に展開していきます。そして私の心に非常に近いものの一つは、それらのソフトウェアエンジニアリング能力です。単なる一回限りのコード片を生成するだけでなく、実際のコードベースで作業できることです。私は実際、これらのモデルが私よりもOpenAIのコードベースをナビゲートするのが上手いことに気づきました。これは私にとって本当に役立ちます。
はい、それはずっと前からそうでしたが、それだけでもより多くのことを達成するのに役立ちます。私たちはこれらを世界に提供し、皆さんがこれらで何をするのか見るのが本当に楽しみです。
ツールの使用に私たちが非常に興奮している理由は、それが推論モデルをより有用で、より賢くするからです。あなたが難しい数学の問題を解くために計算機を使ったり、見知らぬ道を案内するために地図アプリを使ったりするのと同じように、私たちのモデルは適切なツールと組み合わせることで、それだけ強力になります。
そのことを念頭に置いて、私たちはOシリーズの推論モデルと全ツールスイートを組み合わせて、AIME、GPQA、CodeForces、SWEBenchを含む非常に難しいベンチマークで最先端の結果を達成しました。
ツールの力を示すために、新しい機能も多く提供できます。例えば、モデルが画像を使って考えることができるようになりました。つまり、モデルはPythonを使って、あなたが行いたいタスクのために画像を操作、切り取り、変換することができます。これは今日、複雑な画像、ぼやけた上下逆さまの画像をアップロードでき、モデルが問題なく処理することを意味します。
これらの進歩は、私たちのRL(強化学習)パラダイムにおけるアルゴリズムの継続的な進歩によって実現されています。私たちは訓練時のスケーリングとテスト時のスケーリングの両方を継続的に拡大してきました。これらのモデルについて私を非常に興奮させるものの一つは、ほんの1、2週間前に、凝縮物質物理学の新しい論文が出たことです。それはO3 Mini Highを使用して、未解決の定理の証明を支援していました。私は本当に、このモデルスイート、O3とO4 Miniで、そのような進歩がもっと見られると信じています。
ここに私たちの研究者が二人います。エリックとブランドンで、彼らがデモを見せてくれます。
はい、私はブランドン・マッケンジーです。OpenAIでマルチモーダル推論に取り組んでいます。こんにちは、エリック・ミッチェルです。他の多くの人と一緒にOシリーズモデルのポストトレーニングに取り組んでいます。
よし、O3ができることをいくつか見せましょう。物理学の例から始めます。これは物理学のポスターです。O3に考え始めてもらいましょう。時間をかけられるようにします。私が与えるのは、2015年、つまり10年前にやったある物理学インターンシップのポスターです。
このポスターやプロジェクトは、陽子のアイソベクトルスカラー電荷と呼ばれる量を推定するものでした。これは標準モデルを超える素粒子物理学の量で、短距離相互作用の強さを示すものです。見てわかるように、モデルO3はズームインして、ある意味閲覧しています。少し見やすくするためにズームアウトしますが、モデルは私が尋ねた質問に関連する正しい量を探しています。基本的に私の結果を見つけて、最近の文献と比較するという質問です。
でも小さなひねりがあります。実際にはその結果はポスターには載っていないのです。それは私がまだ結果を持っていなかったからです。最終的な論文にはありますが、このポスターにはありません。実質的に私はO3にプロジェクトの残りの部分をやってもらっているのです。
本当ですね。素晴らしい、探していたプロットを見つけました。このプロットの傾きを見つけて、特定の物理的なクォーク質量まで外挿し、その量を取得してから、別の量を適用してその値を正規化する必要があります。モデルはすでにこれをすべきだと理解しているようですが、もう少し画像を探索する時間をかけています。
良いですね、今はウェブを閲覧して最近の結果を探しています。なぜウェブを検索しているのですか? ああ、私が「最新の見積もりを更新した最近の知見を見つけて」と頼んだからだと思います。なので今は文献を見て、人々が何をしたのか、そして私が最終的に到達したと思われる結果とどう比較されるのかを調べています。
このタスクを完了するのにどれくらい時間がかかると思いますか? かなり長い時間ですね。そもそも自分のポスターが何を意味するのかを思い出すのに長い時間がかかりましたし、最初にこの質問をした時、結果がそこになかったことにも気づいていませんでした。実際にモデルが教えてくれたのは親切でした。自分のプロジェクトに再び取り組むだけでも何日もかかり、文献を検索するにはさらに数日かかるでしょう。モデルは数秒で少なくとも10の異なる論文を読んだはずで、それは大きな時間の節約です。
素晴らしい、私の結果をまとめてくれました。これらの数字は正しく見えます。外挿して推定した未正規化値があり、特定の定数を掛けると再正規化されることを理解しています。そしてこれが最終的な結果になると言っています。私の論文では約1.2になったと思います。そして実際の文献と比較しています。いくつかの異なる見積もりがあり、かなり近いように見えます。
それによると、私の裸の値は再正規化する必要があるため高く見えるとのことです。それは正しいです。その値を掛けると、最先端の結果とより一致するものが得られます。素晴らしいです。しかし私の精度は最先端ほど良くないと言っています。まあ、インターンシップでしたから、それでいいでしょう。最近の結果よりも少し不確実性が高いかもしれませんが、それでも合理的な見積もりのようです。つまり、分野は進歩したということです。それを見るのは素晴らしいことです。
それはとても素晴らしい例ですね。素晴らしいです。では、エリックに彼の例を紹介してもらいましょう。
ありがとうございます。そのようなデモの後は難しいですが、私もO3の能力の別の側面を紹介したいと思います。これも非常にクールだと思います。マークとグレッグが言ったように、これらのモデルの素晴らしい点の一つは、ChatGPTで利用可能なすべてのツールを使用できることです。
このモデルのメモリをオンにしたので、モデルは私についていくつかのことを知っています。これも開始させましょう。人々が言うように、モデルは非常に賢いです。これは本当に素晴らしいことで、あらゆる分野の最先端の研究を手助けできます。しかし、あなたが文字通り素粒子物理学の研究者でなくても、この新しい知性とツールを使用するより主体的な能力は依然として有用であり、あなたにとっても非常に価値のあるものです。
ここで私が尋ねたのは、私についてあなたが知っていることに基づいて、ニュースを読み、私がおそらく知らなかったが面白いと思うことを教えてくださいということです。これには私についての何かを知ることと、関連する興味深いことを探すためのこの主体的な思考とツールの使用が含まれます。また、このクールな新しい事実について人々に伝えるためにブログ投稿に入れることができるデータや情報をプロットすることも頼みました。
私の興味はスキューバダイビングと音楽を演奏することです。モデルはこれらの興味を組み合わせて、実際にデモに取り組むまで私が知らなかった研究の方向性を見つけました。研究者たちは健康なサンゴ礁の録音を作り、それを水中スピーカーで水中に再生すると、新しいサンゴの定着や魚の集まりが加速され、サンゴ礁の回復と再生が早まるというものです。これはサンゴ礁保全の実際の研究の方向性です。
これは水中探検と音楽の両方の非常にクールな統合でした。ここでは、モデルがスムーズにブラウジングし、高度なデータ分析を使用して私にデータを表示およびプロットし、キャンバスを使用してブログ投稿を生成し、最後に引用付きで見つけた内容とその出所をまとめています。
これらのモデルは非常に非常に賢いですが、これは素晴らしいことで、私は本当に興奮しています。この新しい知性とツールを使用する能力は、あなたが文字通り何らかの科学分野の最前線にいるかどうか、あるいは日常のワークフローにこのモデルを統合するかどうかに関わらず役立つでしょう。物理学者にも音を再生すればどうなるか不思議ですね。再生してみるべきでしょうか?健康な物理学。
クールですね、デモを見せてくれた二人に感謝します。次に、ウェンダとアナに来てもらって、モデルがどのように訓練されているのか、そして評価がどのようなものかについて少し話してもらいましょう。
ありがとうございます、ありがとうございます、お二人とも。
O3はAIME 2024と2025で非常に優れたパフォーマンスを示しています。98.4%を獲得しており、Pythonを使用したO4 Miniは99.9%、ターミナルを使用したO4 Miniはコードフォースコンペティションで2719点を獲得しています。この動画が終わったらすぐに、これらのモデルのコーディング能力をテストし始めるつもりです。Gemini 2.5 Proと直接比較してみます。
一部の方々から、Claude 3.5と3.7に十分な注目を与えていないという苦情があったので、それらも比較に加えることにします。ここでは、研究者たちがこれらのモデルのコーディング能力をデモンストレーションするとともに、トレーニング計算とテスト時間計算の両方をどのようにスケールしているか、そしてどのような種類の結果が得られているかを示しています。
それは非常に素晴らしいですね。知識労働、そして高度にパーソナライズされたことをやるだけでも非常に役立ちます。私にとっての魔法は、その下にあるのはまだ次のトークン予測に過ぎないということです。それはただ次に来るべきものについて考えているモデルに、私たち自身のスプリンクルを加えただけです。
こんにちは、私はOpenAIの研究者で、システムのスキャンに取り組んでいます。私はアナです、OpenAIの研究者で、これらのモデルのアルゴリズムの一部に取り組んでいます。まず、数学、コーディング、科学の標準ベンチマークでのこれらのモデルの結果を示したいと思います。
これらのプロットで、濃い黄色のバーは新しいモデルセットで、薄い黄色のバーは古いモデルセットです。かなり大幅な向上が見られます。難しい数学コンテストであるAIMEでは、O4 Miniはツールを使って99%の精度を達成し、評価をほぼ飽和させています。コードフォースでは、これらのモデルは世界のトップ200人のコンテスタントに入る2700点以上を獲得しています。GPQAは難しいPhDレベルの質問のセットで、O3は83%以上を獲得しており、これは本当に信じられないほど良いです。
評価の数字を超えて、モデルがどのようにツールを使用して問題を解決するかを少し示したいと思います。例えば、ここにAIME数学コンテストからの問題があります。問題は2×2のマスの格子を見て、ある制約を満たす色付けの条件の数を数えることを求めています。モデルがどのように解くか見てみましょう。
モデルの考え方は本当に素晴らしいです。まず総当たりプログラムを作成し、Pythonインタープリターを使用して実行します。そして正しい答え、82を得ます。しかしこれは乱雑で非常に不格好です。モデルはそれを認識し、解決策を簡素化して、より賢い方法を考え出します。その後、信頼性を高めるために答えをダブルチェックします。
これらのモデルは単に正しい答えを出力するように訓練されているのではなく、有用であるように訓練されています。この場合、人間に説明するために言葉で解決策を与えます。ここで本当にクールだと思ったのは、モデルに特定の戦略を使うように直接訓練していないことです。「解決策を単純化せよ」や「ダブルチェックせよ」とは言わず、モデルが自然にこれらのことを学習したことです。これは本当に信じられないことです。
人間ができるような知的な解決策を本質的に考え出すのは非常にクールですね。最初の総当たり解決策は、もちろん実際のコンテストでは時間が足りないでしょう。
数学や科学を超えて、コーディングについても共有したいと思います。私は多くの人がこれらのモデルをコーディングに使用していることを知っています。実用的なコーディングベンチマークをいくつか共有したいと思います。SWEBenchとPolyCodeでは、ツールを使用するモデルで最先端の結果を達成しており、これは難しさや特定のものなしに、エンドツーエンドで行っています。
もう少し詳しく説明するために、SWEBenchの例を皆さんと共有したいと思います。この例では、APIでO3 Highをコンテナツールへのアクセスで実行しています。残念ながら、APIでツールを実行するための最終的な磨きをかけるのにあと数週間かかるので、今日はこれを実行することはできませんが、モデルがツールをどのように使用しているかについて非常に興奮しているので、これを共有したいと思います。
モデルに取り組むよう求められている問題は、Senpaiという、象徴的な数学を操作するために使用されるPythonパッケージのバグに関するものです。モデルに質問を与え、Senpaiリポジトリが事前に読み込まれた仮想マシンであるコンテナへのアクセスも与えています。モデルはコードがすべて揃ったシェルにアクセスでき、バグを見つけ出す必要があります。
クールなのは、モデルがまず私の言っていることをダブルチェックし、同じことを観察するかどうかを確認することから始めることです。誰かが何かについて私にバグを報告してきたときに、私もそうします。「実際に問題があるのか」と確認するだけです。そしてモデルは「ああ、そうですね、角括弧ではなく丸括弧で2xの最大値を出力しているようですね」と確認します。ウェンダは私にたくさんのバグを報告しますが、彼はいつも良い質問をします。
その後、確認のために、今度はsignが正しくレンダリングされているかチェックします。これが内部動作の角括弧で、私たちが修正しようとしているバグです。モデルはコードを閲覧し、リポジトリの状況を把握しようとします。これを行うために、私たちが日常的に使用する一般的なターミナルツールを使用します。ファイルの一覧を表示し、指定されたファイルを開き、関連ファイルを表示し、探しているものを見つけようとします。
閲覧の後、モデルはMROと呼ばれるものをチェックできることに気づきます。これはクラスの継承について教えてくれるPythonの構造です。モデルが以前に取得した知識に基づいて、何かが間違っていることに気づきます。このクラスはApplicationからではなく、Functionから継承されていません。
モデルはもう少し閲覧し、最終的にこれを確認するために、ユニットテストエンジンを実行して、正しいものを得たことを確認します。そして実際に今は角括弧で印刷されていることがわかります。これは実際のルートであり、モデルがすべてを自力で整理するのを見るのは本当にクールです。
このルートは実際にSWEBenchの中では短い方で、約22の相互作用と16,000トークンがありました。場合によっては、モデルは100以上のコンテナ相互作用を使用し、平均で37を使用します。そのような長いロールアウトを多くのコンテナ相互作用で行い、正しい答えを得ることができるのは本当にクールです。
そのような長いロールアウトを信頼性を持って行うのは全く簡単ではありません。本当に難しいですね。
また、標準的なマルチモーダルベンチマークの数値も示したいと思います。これらの数字は本当にクレイジーです。MMU、MathVista、ChartQA、VstarでO3とO4 Miniが良い性能を示しています。これらのモデルがマルチモーダルタスクに役立つことを本当に期待しています。
これは本当に、以前は不可能だったマルチモーダルに推論パラダイムを適用することです。ブランドンがデモンストレーションしたように、モデルは思考の流れの中で直接画像を操作することができ、それがマルチモーダルの能力を大幅に向上させます。
最後に、外部で実行するいくつかの評価を共有したいと思います。人間の税務試験では、O3モデルはDeep Researchに近い結果を得ていますが、O3はより速く実行され、ChatGPTで使用する場合、制限も少なくなります。Deep Researchが生成するような完全なレポートが必要なく、情報を表示するためのエージェント的な行動に興味がある場合は、非常にクールなモデルだと思います。
これらのプロットでは、Y軸にパフォーマンス、X軸に推定推論コストを示しています。O4 Miniは、任意の推論コストに対してO3 Miniよりかなり優れていることがわかります。ここに示されていないことの一つは、O4 MiniはO3 Miniとは異なり、マルチモーダルモデルであるということです。小さくて速いマルチモーダル推論モデルが必要な場合は、O4 Miniを試してみることを非常に楽しみにしています。
O3の結果はさらに顕著です。はるかに少ない推論コストで同じパフォーマンスを得ることができ、O1と同じ量を支払う意思があれば、はるかに高いスコアが得られます。これらは本当に素晴らしいモデルです。
これが、私たちが新しいモデルでO1モデルを置き換える理由です。一つ簡単に言及しておきたいのは、推論をより費用効率的にし、モデルを一般的により有用にするための最適化のため、12日間のクリスマスで共有した数値のようにベンチマークに最適化されていないことです。マルチモーダルなどで若干の小さな違いが上下する可能性がありますが、これは実世界のユースケースにはるかに最適化されており、推論モデルで答えを待つ時間が短くなるため、はるかに優れたモデルだと考えています。人々は待ちきれないんです。私も待ちきれません。
これらのモデルは厳密な科学、独創性、職人技の結果であり、O1の10倍以上のトレーニング計算をO3に投入しました。多くの人々による多くの困難な作業でしたが、最終的な結果は本当に美しく見えました。X軸でコンピュートをスケールアップするにつれて、AIMEのような評価のパフォーマンスは上昇し続けました。
これは本当に私たちがGPTシリーズへの道を再トレースしているようなものです。GPTシリーズは閉じ込められていて、目標は本当にこのスケーリングとRLを通過し、より多くのRL計算を投入すると同時に比較可能な利得も得られることを示すことです。
ライン引いたような感じですね。最初に聞いたぞ!私たちはあなたがモデルを試すことをとても楽しみにしています。ありがとうございます。
最後に、彼らはCodexについて話します。これはClaude Codeへの彼らの回答のようです。基本的にコーディングモデルをデスクトップと統合し、コマンドを実行して、より多くのエージェント的なコード開発を行えるようにします。彼らはその場でウェブカムをASCII文字に変換するものを作成し、それをオープンソース化しています。また、Codexを使用しているオープンソースプロジェクトに貢献するための100万ドルの基金についても言及しています。見てみましょう。
モデルを見せましたが、もう一つ特別なサプライズがあります。それを見せるのはフアドとマイケルです。
こんにちは、フアドです。エージェント研究チームにいます。マイケルです。私もエージェント研究にいます。
数年前にCodexデモを見たのを覚えています。私たちがどれだけ進歩したかを見るのは本当にワイルドでした。新しいSWEBenchの数字を見ると。そのデモのモデルは、今では「vibe coding」と呼ばれるものを初めて誰かが見た時のものでした。素晴らしい言葉ですね。当時あればよかったのに。
私たちはそのモデルをCodexと呼びました。なぜなら、コードが私たちがモデルに訓練しようとしていたことに非常に不可欠だったからです。そして今日、皆さんに見せるのはCodexの遺産の継続です。私たちは、プログラミングの未来がどのようなものかを定義すると思うアプリケーションのシリーズをリリースする予定で、今日は最初のものから始めます。
素晴らしい、今日私たちはCodex CLIを共有できることを嬉しく思います。これは私たちのモデルをユーザーとそのコンピューターに接続するための軽量インターフェイスです。これはコード実行エージェントを必要な場所に安全にデプロイする方法のリファレンス実装のようなものと考えることができます。応答APIなどの公開APIの上に構築されており、そのAPIの思考の連鎖の要約などの新機能や、マルチモーダル推論機能を持つO3やO4 Miniなどの最新モデルを活用しています。しかし十分な説明はなしにして、実際にデモを見てみましょう。
素晴らしい。ではオンラインで人々がO3 Miniで構築したものを見てきました。そこでこのクールなASCII生成器の画像を見つけました。著者はO3で構築したと言っていましたが、おそらくO3 Miniのことだと思います。タイムトラベルですね。そこで今日はCodexとO4 Miniを使って、投稿だけからこれを再実装してみようと思います。
まずスクリーンショットを撮り、そのスクリーンショットを私のターミナルにドラッグします。Codexに渡します。ご覧のように、imageフラグを使って渡しました。Codexは先ほど見たO4 Miniのマルチモーダル推論を使い始めます。コンピュータ上でこれらのモデルを直接使用する素晴らしい点の一つは、任意のファイル、作業中の任意のコードベースを取得し、Codexに入れることができることです。
ここでは、先ほど話していた思考の流れの一部を実際に見ることができます。明確化のための質問をし、物事について考え、そして実際に画像を見て、それで何ができるかについていくつかの提案をしています。何を考えていましたか?
私は投稿で見たものを再実装するだけだと思っていました。でも生放送なので、もう少し楽しくしましょう。ウェブカメラAPIを追加して、生放送を見ている方々のために、16:9の比率を維持しましょう。本当に小さなビデオがほしいんです。試してみますか?
大胆ですが、いいですね。モデルが考えている間に、Codexの素晴らしい点の一つは、考えているのを見ることができ、また直接マシン上でツールを実行できることだと思います。APIでの関数呼び出しで言及されたように、既存の関数を公開することができ、将来的にはAPIで使用できるツールの完全なスイートを持つことになります。
モデルが考えている間に、実際にコマンドを実行する方法について少し話してくれませんか?今実際にいくつかのコマンドを実行しているのが見え始めています。
はい、デフォルトではCodexは「サジェストモード」と呼ばれるもので実行します。実行しながら、編集するコマンド、実行するコマンド、または編集するファイルを提案し、それぞれを承認する必要があります。しかしそれは少し面倒になることがあるので、デモのために「フルオートモード」で実行しました。
フルオートモードについて少し説明すると、エージェントが作業をするのを許可しながらも安全でセキュアな状態を保つモードです。コマンドを実行できますが、ネットワークは無効化され、編集をあなたが実行したディレクトリに限定します。これにより、何かを実行できるものを持つ安心感を得つつ、望むコマンドを何でも実行させるリスクを避けることができます。
もう終わったようですね。かなり速いですね。もう終わりました。ASCIIのHTMLファイルを作成しました。見てみましょう。許可を与える必要がありますね。常に許可が必要です。見てみましょう。
素晴らしいですね。幅のスライダーまであります。幅のスライダーはこんな役割をするとは思っていませんでした。でも低解像度のASCIIですね。低解像度バージョンが好きです。こんにちはと言ってみますか?
素晴らしいですね。ご覧のように、Codexを使うのはとても楽しいです。私たちはCodexを使ってCodex自体を構築してきました。そして完全に利用可能になったこれを使って皆さんが何をするのか、非常に楽しみにしています。
ツールだけでなく、すべてのコードもオープンソース化しています。数分前からGitHubのOpenAI/Codexに行くことができ、チェックすることができます。Codexを使ってリポジトリを説明してもらうこともできます。
Codex CLIと並行して、最新のモデルとCodex CLIを使用したプロジェクトをAPIクレジットでサポートする100万ドルのオープンソースイニシアチブも発表します。オープンソースのフロンティアを加速させるためです。詳細情報へのリンクは研究ブログ投稿にありますが、ここでマークに戻します。
お二人ともありがとうございます。
ChatGPTの可用性についてもう少し話したいと思います。今日から、ProPlusチームのサブスクライバーであれば、O3、O4 Mini、O4 Mini Highへのアクセスの展開を開始します。アナの投稿で見たように、これらは前世代のモデルより厳密に優れているので、以前あったO1とO3 Miniシリーズのモデルに取って代わります。
EnterpriseまたはEduを使用している場合は1週間待つ必要があります。今日O1 Proを使用していて、それが好きな場合は、O3 Proを展開しますが、すべての残りの機能が整うことを確認するのに時間がかかります。
また、APIでもこれらのモデルをリリースしています。今後数週間でAPIでのツール使用もリリースする予定なので、人々がそれらで何をするのか見るのは本当に楽しみです。
これらのモデルは利用可能にするために、チーム全体から莫大な量の作業が行われました。これは世界に届けるための本当に愛の労働であり、私たちはこれを人類全体に利益をもたらすAGIをもたらすという使命における大きな一歩前進と見なしています。これらは科学的応用に非常に役立ちますが、日常生活でも役立つと考えています。ぜひ使って、何ができるのかを探ってください。皆さんが何をするのか見るのが本当に楽しみです。ありがとうございます。チームに感謝します。
これが大きなニュースです。これらのものの多くをすぐにテストする予定です。あなたがこの動画を見ている間にも作業を始めます。ぜひチェックして、試す機会があれば、コメントで教えてください。OpenAIは復活したのか、まだそこまでではないのか、教えてください。また話しましょう。


コメント