OpenAIが破壊的なAIコーディングを実現…Codex 2.0

OpenAI・サムアルトマン
この記事は約46分で読めます。

OpenAIが最新のAIモデルGPT-5 Highを活用したコーディングエージェント「Codex 2.0」を密かにアップデートし、AI開発分野に大きな変革をもたらしている。このCodexは従来のClaude Code、Cursor、Devinなどの競合他社のツールと比較して、はるかに高い推論能力と5分以上の長時間思考が可能であり、現在最高峰のAIコーディングエージェントとして位置付けられている。同時に実際のプロンプト圧縮ツールの開発を通じて、Codexの実践的な使用方法と他ツールとの組み合わせ方法について詳細に解説している。

OpenAI just destroyed AI coding… Codex 2.0
Try Vectal for Free: start a business with AI Agents? Go here: me on Instagram -

OpenAIの新時代コーディングエージェント

OpenAIは世界最高のAIモデル、GPT-5 Highを使って、本質的に何でも構築できるコーディングエージェントを開発しました。しかし驚くことに、誰もこのことについて話していません。それはCodexと呼ばれ、彼らは隠れた2.0アップデートをリリースしたばかりで、これによりCodexはクラス最高の性能を誇るようになりました。

私はあらゆるAIコーディングツールを試してきました。Claude Code、Cursor、Devon、Client、Augmentなど、名前を挙げればきりがありません。そして、これらすべてのツールを試した結果、Codexが現在世界最高のAIコーディングエージェントであると確信しています。しかも、それは圧倒的な差があると言えるでしょう。

この動画では、Codexの最適な使用方法、Claude Codeとの比較、そしてそれを使って何でも構築する方法をお見せします。

Anthropic Claude Codeの成功とOpenAIの対応

AnthropicのClaude Codeのリリースが信じられないほどの成功を収めたことは秘密ではありません。Claude Codeリリース後わずか6ヶ月で4億ドルのARRに到達したという噂があります。開発者は他の多くの消費者カテゴリとは異なり、お金を持っているため、OpenAIはその美味しい収益の一部を欲しがっています。

そこで過去数週間にわたって、彼らは密かにCodexを改善し、実質的にマーケティングを行うことなく、ほぼ毎日アップデートを配信してきました。これがCodexが多くの人にその優秀さを知られることなく、これほど良くなった理由です。

Codexの3つのバージョン

実際、Codexは単一の製品ではありません。理解すべきCodexには3つのバージョンがあります。

最初のバージョンは、今年初めにバイラルになったChatGPT Codexです。これはクラウド内に存在し、多くの異なるタスクで非同期的に動作できるAIエージェントです。

次に、Codex CLI、つまりOpenAI独自版のClaude Codeがあります。これは大幅に改善されました。以前は本当にひどかったのですが、今では実際に非常に優秀です。

しかし私の意見では、Codexの最高バージョンはCodex拡張機能です。これは誰も知らない真の隠れた宝石で、任意のIDEから使用できます。Codex拡張機能のリリースはCursorへの直接的な攻撃だと言えるでしょう。

GPT-5 Highの理解

Codexを理解するためには、GPT-5 Highを理解する必要があります。GPT-5は単一のモデルではありません。複数の異なるバージョンを持つモデルファミリーですが、有用なのはGPT-5 Highのみです。「High」は高推論努力を意味し、これによりCodexは単一のタスクで5分以上思考することができます。これはOpus 4.1よりもはるかに長く、これはテスト時計算として知られています。

一度に何分間も推論する能力により、CodexはClaude Codeよりもはるかに深く掘り下げることができ、困難なプログラミングタスクではるかに優れたパフォーマンスを発揮します。動画の後半で、これらのツールを並べて比較し、CodexとClaude Codeの本当の違いを見ることができます。

タスク管理ツールVeilの紹介

私たちは皆、コーディングであれタスク管理であれ、可能な限り最高のAIツールを使いたいと思っています。今日Discordサーバーで、RichardがVeilについて言ったことを紹介しましょう。「ついにこれがどれほど素晴らしいアプリかを理解しました。好きな機能が多すぎて言及しきれないので、ただ素晴らしい仕事だ、Davidとチームにと言うだけにします。」

Veilが何かを知らない場合、それはAI搭載のタスクマネージャーです。例えば、ここで私は「今日はコーディングとビジネスの拡大に集中したい、タスクリストを再編成して」と言うと、24のタスクを更新し、最も重要なことに集中するための貴重な時間を節約してくれました。

AIを真剣に考えており、生産性を最大化したい場合は、vector.aiにアクセスして試してみてください。完全に無料で始められます。

LLMの内部構造

Codexに戻りましょう。LLM自体の内部を見てみましょう。GPT-5 Highでは、最大トークンの80%が隠れた推論トークンに専用されており、これはこのモデルが他のどのLLMよりもはるかに多くの思考を行っていることを意味します。一方、O3より22%少ない出力トークンでありながら、50〜80%優れたパフォーマンスを実現しています。

しかし最も重要なのは、推論努力パラメータには4つのレベルがあることです。Minimal(これは推論なし、基本的に役に立たない、なぜかGPT-4.1よりも悪い)、Low(これは0.2比率)、Medium(0.5、これがデフォルト)、そしてHigh(これが0.8比率の魔法のレベル)です。

同期 vs 非同期プログラミング

プログラミングの未来を理解したい場合、同期と非同期を理解する必要があります。AIでコーディングする際、2つの異なる作業パラダイムがあります。同期作業と非同期作業です。

同期とは、AIエージェントが同じタスクであなたと一緒に作業することです。非同期(Async)とは、AIエージェントが通常クラウド上で、異なるタスクまたは多くの異なるタスクで別々に作業することです。

しかしCodexの美しさは、両方を実行できることです。ChatGPT Codexエージェントは非同期で、CLIと拡張機能は同期です。つまり、Codex自体がAIプログラミングに関して必要なすべてを実行できます。

プルリクエストレビュー機能

実際には、知っておくべき4番目のCodex使用例があり、これは2日前に登場したばかりです。Codexはプルリクエストをレビューすることもできるようになりました。これはCursor Botbotのステロイド版と考えることができます。

この数日間だけで、Codexは複数の人間レビューアーが見逃した深刻なバグを見つけることができました。これは特に重要です。なぜなら、LLMは人間とは異なる思考をするからです。LLMが完全に見逃すが人間の目には明らかなバグもあれば、人間が全く気づかないがLLMが簡単に発見できるバグもあります。これがCodexコードレビューを非常に強力にしています。

動画の後半でセットアップ方法をお見せします。超簡単で1分程度でできます。

実践的な開発プロジェクト

ここからは私自身が日々Codexを使って6万人以上に利用されている自分のAIスタートアップを構築する方法をお見せします。また、先週リリースされたOpenAIの公式GPT-5コーディング用プロンプティングガイドについても説明します。なぜかあまり注目されていませんでしたが、それも見ていきましょう。

しかし一つ約束できることは、最後まで見れば、AIで、特にCodex自体で任意のソフトウェアを構築する自信がつくということです。

プロンプト圧縮ツールの構築開始

今から皆さんが今日から使い始められるものを構築します。それはプロンプト圧縮ツールです。市場には良いものがないことがわかったからです。70,000トークンのような非常に長いプロンプトがあり、重要なコンテキストを失うことなく30〜40%短くしたい場合、簡単な方法がありません。

Cursorを起動して、Codexを使ってこのプロジェクトを構築しましょう。フォルダを開きます。

400,000コンテキストウィンドウを持つGPT-5 Highがこれをワンショットで上手くやってくれると思うかもしれません。しかし、明示的に30%短いプロンプトが欲しいと伝えたところ、7,000行を266行にすることができました。これは30%短くするのではなく、96%短くするもので、ひどい結果でした。

したがって、ワンショットではできません。まず長いプロンプトをチャンクに分割し、各チャンクの関連性を評価し、おそらくGPT-4.1のような小さなLLMを各チャンクで個別に実行し、実際にはCodexを使ってトークン数を常にチェックする必要があります。

これはLLMが苦手な分野です。有名なストロベリーの問題、「strawberry」に何個の「r」があるかを知っていますね。LLMはこれが苦手です。

Codexのインストールと設定

Codexを使ってこのプロンプト圧縮ツールを構築し、動画の最後にGitHubリポジトリを提供するので、自分で使用できます。

Codexをインストールするには、このコマンドを実行する必要があります:npm -g @openai/codex。これをコピーして、グローバルターミナルを開き、貼り付けます。これで完了です。

次に、Cursor内で拡張機能に行き、「codex OpenAI coding agent」と入力します。OpenAI公式のものを確認してください。基本的にCLIと同じ機能を持っていますが、より良いユーザーインターフェースを提供します。チャットボックスが見えるでしょう。

努力レベルの切り替えがあり、即座にHighに切り替えるべきです。チャット内でも同様で、開始時に/modelと入力してGPT-5 Highに切り替えます。両方を使ってプロジェクトを構築していきます。

ステップバイステップ計画の作成

何を構築するかに関係なく、まずステップバイステップの計画を作成したいと思います。「構築アイデアを読んで。これが私たちが構築するものです。以前の試行フォルダのすべてのファイルも読んでください。MicrosoftのLM Linguaなどの既存ツールを試したことがあるからです。それは小さなローカルLLMを使って圧縮を行うため、ひどいツールでした。20億パラメータのモデルは信頼していません。大きなモデルを使いたいです。音声でプロンプトを速く入力します。まだコードは書かないでください。分析して準備し、簡潔な6ステップ計画を出力してください。」

Codexの実行を開始します。これには数分かかることがあります。その間に、約束した通り、GPT-5コーディング用のOpenAIからの6つのプロンプトエンジニアリングのコツを説明しましょう。

OpenAIからの6つのプロンプティングのコツ

コツ1:正確性と矛盾する情報の回避

1つ目は正確で、矛盾する情報を避けることです。GPT-5ファミリーのモデルは指示の追従が大幅に向上していますが、これらのモデルは曖昧または矛盾する指示に苦労することがあります。そのため、明確で具体的な問題により良い結果が得られます。

コツ2:適切な推論努力の使用

2つ目のコツは、適切な推論努力を使うことです。これは何を意味するのでしょうか。ChatGPT内では、Auto、Instant、Thinking Mini、Thinkingなどがあります。正直に言うと、私はThinkingしか使いません。このコツについて、OpenAIには実際には同意しません。ThinkingとProのみを使うべきだと思います。Instantはほぼ使うべきではありません。

コーディング時は、Highにこだわってください。MediumやLowは使わないでください。はるかに悪い回答を生成します。

Codexの進行状況を見てみましょう。6段階の計画ができています。見た目良好です。「この計画をbuild ideaマークダウンファイルの下部に追加してください。」

これは何かを実行する際の良い実践です。チャット内でコンテキストをぶら下げたままにしておかないでください。特に長期プロジェクトで作業している場合は、明確なマークダウンファイルにドキュメント化する必要があります。そうすることで参照できるからです。

Claude Codeに切り替えることもできます。これが実際の私のセットアップの様子です。左にCodex拡張機能、中央にClaude Code 4.1を実行しています。コピー&ペーストして以前のチャットを検索するよりも、add build ideaと入力する方がはるかに簡単です。

マークダウンファイルを使うことをお勧めします。これが私のテックスタックです。

現在のテックスタックと費用

現在、私は月額420ドル、実際にはそれ以上を支払っています。この瞬間では420ドルかかっています。

まず、最大限のCodexアクセスのためのChatGPT Pro(月額200ドル)、次に最大限のClaude Codeアクセスのための Claude Max(月額200ドル)、そしてCursorがあります。これは私がフルプランに支払っていないリストの唯一のものです。主にCursor Tabのために使用しているからです。

ドキュメントを書くとき、「より複雑です」と入力すると、「実際にはプロセスのようなものです」と次の単語を提案してくれます。それとIDEの役割のために使っています。ターミナル、デバッグツール、メインであるコードエディター、ファイル管理、ソース管理があります。

これが現在Cursorを使用している理由です。しかし正直に言うと、これは変わるかもしれません。AI分野は非常に急速に進化しています。1ヶ月後には、私のAIスタックは完全に異なるものになっているかもしれません。最新最高のAI実践について最新情報を得る必要があるので、動画の下でチャンネル登録をしてください。

Cursorに戻りましょう。Codexが私の望んだことをしたか見てみましょう。はい、しました。まず、構造化チャンキング、マークダウン対応チャンカー。計画を私が望んだ通り6段階または6ステップに分割しました。良く見えます。

「良い仕事です。新しいcompressor.pyファイルを作成し、ステップ1を実行してください。」ステップ1を開始します。実際にCLIも使い始めることができます。「build ideaを読んで、重大な欠陥やエッジケースを見つけてください。」

XML タグの使用

これが実行されている間、GPT-5コーディング用OpenAIガイドの3つ目のコツを見てみましょう。XMLタグの使用です。私のファイルでもこれを見ることができます。XMLタグをよく使ってセクションを定義しています。

これは巨大な効果があります。指示を構造化し、AIエージェントが実際にそれらに従うのに役立つからです。OpenAIは、GPT-5の理解を改善するために、プロンプトの異なるセクションを区別することを推奨しています。

例えば、コンテキストセクション(私はソフトウェア開発者です)、タスクセクション(オブジェクト指向プログラミングを説明する)があります。これの主な利点は、誤解釈を減らすことです。各セクションの開始と終了にXMLタグを置くことで、AIエージェントはそれらの指示が何についてのものかを知ることができます。

Codexの進行状況を見てみましょう。まだ実行中です。これが私の言うことです。HighはOpusよりもはるかに長時間、5分、6分、7分、8分思考できるため、素晴らしいです。Opusには絶対にできません。

これは実際に、強化学習、テスト時計算、推論の力を最大限に活用するLLM史上初のモデルであり、これがそれをそれほど強力にしています。

Veilの高度機能

OpenAIからのコツ4、5、6を見る前に、人々がVeilを単なるToDoリストアプリだと考えているのをよく見かけるので、この点を扱わせてください。単なるToDoリストだと思っているなら、本当に見落としています。

Veilの様子です。まず「Pythonでプロンプト圧縮ツールを構築する」などのタスクを作成できます。次にこのタスクをピン留めできます。次に、チャットエージェントを使ってこのタスクで作業を手伝ってもらえます。

別のモデルを選択しましょう。Gemini 2.5 Proを使用できます。「最初にすべきことは何ですか?」と言えます。それが思考している間、ここに行ってステップを生成することもできます。ワンクリックで、開始方法について5つのステップを生成できます。

チャットエージェントは6秒間戦い、その後Perplexity Web検索を実行します。ちなみに、Veil内にはPerplexity Proが組み込まれています。チャットエージェントがWeb検索を完了し、回答を提供し、その後タスクを更新しました。タスクの説明フィールドにたくさんのものを追加したことがわかります。その後、プロンプト圧縮技術についてのより多くのアイデアを提供してくれました。実際にこの動画でいくつかを実装するかもしれません。

これをコピーしてCursorに戻り、build ideaに行き、ここに追加します。研究セクション。

これはVeilができることの一つに過ぎません。例えば、ノートで「AI研究」と呼ばれるものを作成できます。これは特定のトピックについての自動化された日次研究です。私の場合、最新のAIエージェント問題技術についてで、見ることができるように、毎日Veilがこのトピックについて自動的に研究を行い、詳細なレポートを出力しています。

Veilで実行できるもう一つのOP(Overpowered)なことは、最も高いレバレッジタスクを見つけてもらうことです。今私をゴールに最も近づける最大のタスクはどこにあるでしょうか。どうやって私のゴールが何かを知るのか疑問に思っているなら、これがまさにユーザーコンテキストが活用される場所です。これを一度記入すると、Veilがあなたについてのすべてを知ります。

AIエージェントにタスクリストの整理とタスクの完了を手伝ってもらいたい場合は、vector.aiにアクセスしてサインアップしてください。完全に無料で開始できます。

プロジェクトの簡素化

Codexに戻りましょう。ステップ1を実装しましたが、非常に複雑すぎる方法で行いました。300行は多すぎます。「まず、6ステップ計画をよりシンプルで過度にエンジニアリングされていないように洗練してください。次にアプローチを再度参照してください。このアプローチに従うことを確実にしてください。」

その間に、CLI Codexを使用します。まず、これらのリスクを特定しました。どれも実際には深刻なエッジケースではないと思います。しかし、最初のファイルをタグ付けします。「build ideaを読んで、それからcompressor.pyを読んでください。あなたのタスクは、新しいシンプルなステップバイステップ計画のステップ1に従うように、Pythonファイルを大幅に簡素化することです。コード行数が少ないほど良いです。」

これは元のプロンプトで言うべきことでした。コード行数が少ないほど良い。そうすれば300行にはならなかったでしょう。明らかに私のミスです。

簡略化された計画を見てみましょう。どれほどシンプルになったか。素晴らしい。Codex拡張機能内で変更をここで実際に見ることができます。変更の素晴らしい差分が表示されます。今はるかにシンプルに見えます。

深い研究の実行

実際に行うべき良いことは、深い研究を行うことです。これを開始しましたが、再度お見せします。Perplexity、ChatGPT、Gemini、Grok、深い研究機能を持つ任意のツールを使用できます。ちなみに、Veil内にもUltrasと呼ばれるものがあり、Perplexity Deep Researchによって動力を供給されています。

とにかく、このトピックについて深い研究を開始しました。「Webを閲覧して、PythonでGPT-4モデルを使用するためのOpenAI APIの正確なドキュメントを教えてください。」基本的に最新最高のドキュメントに従っていることを確実にしたいからです。

Codexも、Claude Codeと同様にエージェントです。トレーニングカットオフ、つまり知識カットオフを持つモデルを使用するエージェントです。大きな言語モデルをトレーニングするとき、ある時点でトレーニングを切断し、その後トレーニング実行を行う必要があるため、昨日何が起こったかは決して知ることができません。

だからこそWeb閲覧が非常に重要であり、最新のドキュメントと最新の情報を取得するための深い研究を行うことが非常に重要です。そしてそのコンテキスト情報を提供することで、可能な限り最高のレベルで実行できるようになります。

Codex CLIの進行状況を見てみましょう。基本的に拡張機能と同じですが、拡張機能の方がはるかにシンプルで清潔なユーザーインターフェースです。CLIはよりターミナルベースです。コマンドラインインターフェースなので、ユーザーフレンドリーではありませんが、同じように強力です。

プルリクエストレビューのセットアップ

それが進行している間、約束したように、プルリクエストレビュー用のCodexのセットアップ方法を説明しましょう。これは非常に強力で、実際に設定が非常に簡単です。

まずchatgpt.com/codexに移動します。これは非同期のクラウドベースエージェントです。これがCodexを使用する無料バージョンの1つで、他の2つがここにあります。CLI、拡張機能、そしてこれがクラウド内のCodexエージェントです。

ここに「コードレビューを有効にする」という新しいボタンがあります。それをクリックすると、異なるリポジトリを見ることができる設定に移動します。左側で、コードレビューが選択されていることを確認し、リポジトリを見て、コードレビューが自動的に実行されるリポジトリを選択できます。

私のWebカメラで覆われていますが、ここにトグルが見えます。CodexをオンにするだけでCodexが実行され、それを有効にする必要があります。GitHub用の有効化ボタンのようなものがあり、必要な権限を与えると、任意のPRで、GitHubに切り替えてプルリクエストを開いてみましょう。

これは今日早めに実装を完了したものです。Codexが自動的にレビューしているのがわかります。これは12時間前にPRを作成したときです。Veilのコアオーセンティケーションなので、これの一部をぼかす必要があるかもしれません。実際に私は自分の言うことを実行しています。ただ話すだけでなく、実際に歩いて歩を進めています。毎日これらのツールを使って自分のAIスタートアップを構築しています。

そのオーセンティケーションをぼかす必要があります。しかし、できることは「@Codex、このPRに大きな問題はありますか?アプリで手動でテストすべき主なことは何ですか?」とコメントを書き、Codexがこれに氷の絵文字で反応し始め、それが認識したことを意味し、それに取り組み始めます。

ほら、氷の絵文字があります。ChatGPT Codex Connectorが氷の絵文字で反応したのがわかり、それはこのPRを見ていることを意味します。推論を開始し、ファイルの分析を始め、非常に徹底的なPRレビューを提供してくれます。

これを自動化されたVercel レビュー、自動化されたClaude Codeレビュー、Cursor Botbotと組み合わせれば、すべてのPRをチェックし、多くのバグを発見することが非常に強力です。これによりコードはよりモジュラーで拡張性があり、はるかに高い自信を持ってはるかに速く配布できるようになります。

より大きなプロジェクトで作業している場合、これを強くお勧めします。非常に強力です。

Cursorに切り替えましょう。何が起こったか見てみましょう。Codex CLIが330行という非常識な数から、たった86行というはるかに良い数字にこのファイルを簡素化しました。

次に、GPT-4.1を追加する必要があります。そのためには明らかにplatform.openai.comにログインし、ChatGPTと同じアカウントでログインする必要があります。30秒程度かかります。次に左側でAPI keysをクリックし、新しいシークレットキーを作成します。私は「subscribe」という名前で作成しました。この動画を見ている人は必ずチャンネル登録してください。その後envファイルを作成します。拡張子なしでただの.envです。

API キーは誰とも共有しないでください。この動画をアップロードする前に私のものは削除します。教育目的のためだけに行っています。ここでOPENAI_API_KEYと入力し、イコールの後にAPIキーを貼り付ける必要があります。それを保存します。

ステップ2では、GPT-4.1を使って各チャンクの関連性を評価します。しかしGPT-4.1を実行するためには、明らかにここにOpenAI APIを追加する必要があります。

CLIと拡張機能を切り替えましょう。「これははるかに良いです。今度はステップ2を実行してください。まずcompressor.pyファイルを読んでください。あなたの実装が長すぎて過度にエンジニアリングされていたため、私がそれを簡素化した方法を見てください。そして、シニア開発者が行うように、可能な限りシンプルな方法でステップ2を実行してください。コード行数は少ないほど良いです。」

envファイルについては、ルートフォルダに新しいENVファイルを作成しました。そこにOpenAI APIキーがあります。それを適切にロードすることを確認してください。そうすることでOpenAI APIを使ってGPT-4.1を使用できます。

深い研究結果の活用

切り替えて実際の研究を行いましょう。実際にドキュメントに行きます。これがXMLセクションになります。ここの研究に戻りましょう。結果全体をコピーしてここに貼り付けます。「docs」と言って送信します。関連である限り、追加のコンテキストは決して害になりません。

今、GPT-5 Highは、このディープ検索の結果を使ってステップ2を実装します。そのため、GPT-4.1の使用方法を知り、現在のOpenAI APIがどのように見えるかを知り、構築アイデアに関するステップを実装します。

現在、チャンキングがあります。大きなマークダウンをチャンクに分割できます。見てみましょう。コードフェンス、見出し、リスト、その他を尊重するのが良いです。ランダムなチャンクに分割するだけでなく、意味のあるチャンクになります。

OpenAIプロンプティングガイドのコツ4

それが実行されている間、OpenAIプロンプティングガイドからの4つ目のコツを見てみましょう。過度に強固な言語を避けることです。他のモデルでは「必ず実行しろ」のような強固な言語を使うかもしれませんが、GPT-5では逆効果になる可能性があります。モデルが自然に行うことを過度に行う可能性があるからです。

過度に考え、過度にエンジニアリングし、過度に分析することがあります。拡張機能やCLIを使用すれば、遅かれ早かれ、単純なタスクでも20、30、40の異なるツール呼び出しを行う状況に遭遇するでしょう。

プロンプティングで過度に厳格で攻撃的であることは、実際にGPT-5では逆効果になることがあります。すでにすべてのコンテキストを持っている単一のドキュメントファイルの更新で15回のツール呼び出しを行うような状況になることがあるからです。GPT-5では、プロンプティングでより攻撃性を抑えることが、実際にはより効果的になることがあります。

Codexが速くなったのがわかります。時には長時間かかり、時には速く動作します。推論努力の配分は本当にこのように知的です。それから別のファイルratorを作成しました。機能はGPT-4.1でチャンクを評価することです。

見てみましょう。環境変数からオープンAPIキーをロードします。各チャンクに0から10の評価を浮動小数点で与え、小数も可能です。良いですね。「小さなデモスクリプトを実行したいですか?」と聞いています。実際に欲しいです。「はい、この小さなデモスクリプトを作成してください。シンプルに保ってください。」

これは非常に良いです。各ステップの後、テストを行うべきです。ステップ1の後はただのチャンキングなので、テストは行いませんでした。ステップ2を行いました。2つのステップを行い、今はデモスクリプトを実行する良いタイミングです。先に進む前に、これらのステップが正しく動作し、私のビジョンに従っているかテストすべきです。

2つのステップ、ステップ1、ステップ2、そして単純なデモスクリプトを作成しました。ここで見ることができます。「元のプロンプトでチェック評価を実行するための小さなデモスクリプトを追加。」

開始して、動作するか見てみましょう。エラーがあります。最大出力トークン。これをコピーしましょう。「エラー」と言い、XMLタグを使って、その中に貼り付け、閉じます。「そのデモスクリプトを実行したとき、このエラーが発生しました。それが何か説明し、何が原因かを教え、クリーンで最小限の修正を提案してください。」

エラーを個人的に受け取らないでください。現在世界で最も先進的なコーディングエージェントであるCodexを使用していても、エラーに遭遇するでしょう。それは絶対に予想されることです。考えすぎず、個人的に受け取らず、圧倒されることなく、続けてください。

OpenAIからのコツ5:計画と自己反省

その間に、GPT-5コーディング用の5つ目のコツを見てみましょう。計画と自己反省の余地を与えることです。モデルにアクションを取る前にまず考えさせましょう。これが私たちが行ったことです。ワンショットではなく(動作するかもしれませんし、しないかもしれません)、タスクを6つの別々のステップに分割しました。これが本当にスイートスポットだと思います。5から7の異なるカテゴリーです。

OpenAIは5から7のカテゴリーを持つルーブリックを作成することを提案しています。新しい機能を追加するか、悪いバグを修正するかに関係なく、何かを行う前に、それを小さなステップに分割することが確実に最良の方法です。

また、「自己反省」のようなタグを使用して、モデルの推論を改善してください。ここにOpenAIからの例があります。まず、自信が持てるまでルーブリックについて考える時間を取ってください。それから、世界クラスのワンショットWebアプリを作るためのあらゆる側面について深く考えてください。このルーブリックを正しく理解することが重要です。しかし、これをユーザーに見せないでください。これはあなた自身の目的のためだけです。

基本的に考え方を教えています。これにより、モデルはコードを書く前に最良のアプローチを計画し、反復することができます。

何が起こったか見てみましょう。API応答が拒否されました。最大出力トークン8。なぜ8なのかわかりません。200にしてください。最大出力トークンをこんなに低く設定するのは面白いですね。以前にこのエラーに遭遇したことはありません。ここでは評価を行っているので、8トークンしか出力したくないということは一度もなかったからです。とにかく、このデモを再実行しましょう。

「チャンク数と最低スコア10の簡潔なJSON要約を印刷。」

現在GPT-4.1を実行しています。「デモまたは現在の2つのPythonファイルの問題は、ユーザーへの観察可能性がないことです。コンソールに何も印刷していません。何が起こっているかを知ることが非常に困難です。深呼吸をして、意味のある4つの適切な印刷文を追加してください。現在、実行されているかどうか、進行中かどうか、デバッグとアプリ構築において非常に悪い状況です。」

compressor.pyに2行、raiderに2行追加しました。今度はデモを実行すると、進行ログを見ることができるはずです。そこに行きます。「コンプレッサー分割テキスト2,000。」ほぼ300,000文字で117のチャンクを生成し、それらを評価しています。

並列で実行する必要がありますね。「raiderを変更して、実際にすべてのチャンクを順次ではなく並列で評価してください。」

これが順次だったら永遠に待つことになります。117回GPT-4.1を呼び出すなんて、誰もそんな時間はありません。これを並列で実行して、はるかに速く結果を得る必要があります。

その間、実際に最初のステップを開始できます。拡張機能のCodexがこれに取り組んでいる間、3番目のステップを開始できます。「build ideaを再度読んで、シニア開発者が行うようにステップ3を実行してください。compressor.pyファイルとraider.pyファイルも読むことを確認してください。これらはステップ1と2のファイルです。ステップ3を実行する前に、それらを深く正式に理解する必要があります。深呼吸をして、可能な限り少ないコード行でステップ3を実装してください。シンプルであればあるほど良いです。」

Codex CLIでこれを開始しましょう。raiderに32+32-21の変更があります。今度はデモを開始すると、非同期で実行されるはずです。待ってください。完了しました。非同期で行われたので、はるかに速かったです。「評価完了。」

ファイルoriginal_problem.mdチャンク117トップ候補。基本的に最も関連性の低いチャンクのIDがあります。すばらしい。

問題は、現在何に対して評価するかを伝えていないことです。「現在関連性はどのように評価されていますか?関連性スコアは何と比較されていますか?GPT-4.1へのプロンプトはどのように見えますか?元のプロンプトの下部に何らかの明確な方法があると思います。このような主張に関連するので、これがリポジトリで構造化されているからです。しかし、関連性を何に対して評価するかをユーザーに尋ねる必要があります。」

Codex CLIがステップ3の小さなモジュールtarget.pyを実装したのを見てみましょう。何を追加したか、target py plan chunk returns using。

これが複数のエージェントが必要な理由です。Codex拡張機能とClaude Codeの組み合わせであれ、Codex拡張機能とCodex CLIの使用であれ。時には、他の人とまだ進歩しながら、一方に質問をする必要があります。だからこれは巨大なことです。

「これは大きなギャップです。現在、著者の意図を尋ねていません。」これは確実に欠陥です。これが最初のステップであるべきです。Pythonのinputを使って、コンソールでユーザーに、この圧縮の意図は何か、このような焦点は何かを尋ねるべきです。

かなり深刻な欠陥を発見しました。どうやって発見したか?自分でテストし、小さなデモスクリプトを書いてテストし、関連性を評価しているが何に対して評価しているのかを見て、それが実際に計画のギャップを明らかにしたのです。

targetを見てみましょう。ステップ3は、望ましい削減から全体的なトークンターゲットを計算することです。問題は、これも尋ねたことがないということです。もう一つの問題は、望ましいトークン削減を尋ねたことがないということで、これもユーザーの開始時に尋ねるべきもう一つのことです。

正直に言うと、targetは別ファイルである必要はないかもしれません。これは簡単にcompressorの一部になれたでしょう。compressorは悪い名前かもしれません。本当にモジュラーにしようとしていて、それは良いことです。異なる機能のための別々のファイル。しかし、これは比較的シンプルなプロジェクトなので、超モジュラーにする必要はありません。

Claude CodeとCodexの比較

前に言ったように、Claude CodeがCodexと比較してどのように動作するかを比較してみましょう。Codexは単純な質問に対しても、実際には見栄えよくフォーマットしていないのがわかります。Claude Codeはこれではるかに優れています。Opus 4.1はコンセプトの説明、物事を教えることに優秀です。そのため、私のスタックはCodex + Claude Codeです。

「まずbuild ideaマークダウンファイルを読んで、私たちが取り組んでいるものを理解してください。次に、コードベースのすべてのPythonファイルを見つけて完全に読み、正確に何が実装されているか、何が欠けているか、次に行うべきステップは何かを説明してください。より深く考えて短く答えてください。」

「デモは現在、望ましいトークンインテントを尋ねるようになります。」実際にこれを行いましょう。「また、デモをtargetを使用するように更新してください。これが私たちのステップ3実装です。他に何も変更しないでください。」

「build ideaを再度読んでください。」圧縮ループ。良さそうです。実際、CLIはかなり簡潔であることに関してうまく機能しています。

「build ideaを再度読んで、すべてのPythonファイルを再度読んでください。いくつかの更新を行ったからです。そして深呼吸をして、シニア開発者が行うようにbuild ideaのステップ4を実行してください。コード行数は少ないほど良いです。」

CLIについて良いことは、正確なトークン数を見ることができることです。ここで39,000トークン(300ではなく)がこのチャットセッションで使用され、コンテキストウィンドウの96%が残っていることがわかります。これは拡張機能では見えず、Claude Codeでも見えない別の良い点です。会話にどれだけのトークンがあるかを知ることです。

だからこそCLI、拡張機能、WebベースのChatGPT Codexなど、これらすべてのツールを武器庫に持ち、すべてを試して何が機能するかを見ることが本当に行くべき道です。単一の教義はありません。私に機能することがあなたに機能しないかもしれませんが、試してみなければわかりません。

デモスクリプトが改善されているようです。見てみましょう。再度実行してみましょう。ステップ4はまた別のファイルです。なぜすべてが別ファイルなのかわかりません。最初に過度に厳格だったことが問題かもしれません。モジュラーと言ったので、今すべてのために別ファイルを作成しています。

OpenAIがコツ4で過度に強固な言語を避けると言うとき、彼らは本当にそれを意味しています。共同創設者のGreg Brockmanは自分が話していることを知っています。毎日コーディングしています。誰よりもGPT-5を使っています。彼の言うことを聞いてください。これらのコツは部分的に彼からのものです。

見てみましょう。デモを実行しましょう。各モデルがどのように異なって反応するかは非常に興味深いです。「意図を提供してください。焦点。」この場合、元のプロンプト。これは実際にVeil内で実装しているものです。「希望する削減40%」

Veil内では、これらのワークフローを追加しており、それは基本的に反復的なプロセスを自動化できる内部自動化です。3時間ごとにスケジュールして、私のゴールに近づく新しいマーケティング角度のアイデアをブレインストームしてもらうなど。デフォルトプロンプトは私のゴールに近づく単一の実行可能なアイデアですが、何でも可能です。

現在、制限が適切に設定されているか、バイパスがあるかを調査していましたが、すでに修正されているので心配はいりません。このプロンプトが必要だった理由です。7,000行、ほぼ300,000文字があります。

デモを見てみましょう。これは私が薄い空気から発明したランダムなプロンプトではありません。これは私のスタートアップで実際に必要だったものです。遭遇した問題の解決策を構築しています。

主な違いは、意図と焦点について、意図と焦点とパーセンテージ削減を尋ねたことです。それからトークンターゲットを作成しました。圧縮前の元の完全なトークン数も出力すると良いでしょう。

「また、圧縮前の元の完全なトークン数を表示し、その後にトークンターゲットを表示する単一の印刷文を追加すると良いでしょう。」

このファイルの焦点に対して適切に評価されたチャンクと、最も関連性の低いスコアのものを見ることができます。これらが圧縮するものです。プロンプトの最も関連性があり重要な部分は圧縮したくありません。最も関連性の低いものを圧縮します。

正直に言うと、ステップ5と6なしにはテストできないでしょう。「今度はステップ4を読んで、compressor raider targetとうまく適合するかどうかを教えてください。深呼吸をして、build idea.md内の元のステップバイステップ実装計画を分析し、変更が必要かどうか、ステップ5に進むことができるかを教えてください。まだ変更は行わないでください。分析して答えるだけです。簡潔にしてください。」

Claude Codeプロンプトを見てみましょう。瞬時にきれいな見出し、クリーンなフォーマット、空行が見えます。Codexの出力は読みにくく、これは読みにくいです。また、何かを説明したい場合、Claude Codeはコンセプトの説明、物事を教えることがはるかに優れています。

「ステップ4を読んでください。これは良い実行実装ですか?」明確に何が実装されているか、何が欠けているかを教えてくれました。Claude Codeは私の好きなコンサルタントのようです。実際にコードを実装して計画を作成するCodexをコーディングエージェントとして持ち、Claude Codeは検証、説明、チェック、セカンドオピニオンの提供などを行います。これが現在のOP(Overpowered)ワークフローです。

「ステップ5に進むと言っています。その場合、シニア開発者が行うようにステップ5を実装してください。必要な場合のみ新しいファイルを作成してください。そうでなければcompressor.pyファイルに入れてください。」ここでファイルを明らかに作りすぎています。

「targetは本当に別ファイルである必要がありますか、それとも代わりにメインのcompressor.pyファイル内にあるべきですか?よく考えて短く答えてください。」

Claude Codeでは、これは実際に推論努力に影響します。Codexがアクションを行う前に、何回のツール呼び出しを行うかを見ることができます。ちょっとクレイジーです。

compressor.pyが更新されました。わずか20行の変更で、Claude Coreもtargetをマージすることを提案しています。「target.pyについても同じことをしてください。」XMLタグを使って「マージ」と言います。「このシンプルなリファクタリングをシニア開発者が行うように実行してください。target.pyからメインのcompressor.pyに機能を移動し、現在のtarget.pyファイルを削除する必要があります。他に何もしないでください。複雑さを追加しないでください。コード行数は少ないほど良いです。」

プロンプティングで明確であることが本当に重要です。「すべてのファイルを再度読んでください。私たちがどこにいるかを教え、次に何をする必要があるかを教えてください。怠けないでください。実際にファイルを完全に開いて読んでください。よく考えてください。短く答えてください。」

Claude Codeは、応答長がはるかに一貫しています。時々10秒で応答し、時々8分かかるという大きな変動がありません。Codexは簡単に5、6、7、8分かかることがあります。Claude Codeはそうではありません。最大でも2分、3分ですが、通常どれくらいかかるかがわかります。数回のツール呼び出し、いくらかの推論を行い、応答します。チャットや高速作業にはるかに優れています。

Claude CodeはフロントエンドとUIではるかに優れています。はるかに速く反復できるからです。Codexは考えすぎて過度にエンジニアリングする傾向があります。

targetが削除されたのが良いです。ステップ4はどうですか?ステップ4は別かもしれません。ステップ4は50行のようです。別ファイルになり得ます。実装されたステップを見てみましょう。

この分析は実際にかなり良いです。これを計画として配置します。XMLタグを使って、「深呼吸をして、シニア開発者が行うようにこの計画を実行してください。すべてを明確でよく説明されるように十分なコメントを追加してください。」

初心者の場合、ツールにより多くのコメントを追加するよう求めてください。コメントはスキルレベルに関係なくどこでも使用されるべきですが、通常シニア開発者はコードをかなりよく読むことができますが、初心者であればあるほど、より多くのコメントが必要です。モデルは簡単にあなたの要求に応えることができます。

今度は基本的にすべてを実装しました。ステップ4、5、6ですが、いくつかの問題があります。ステップ4にsysインポートが欠けています。すべてのステップを指揮する完全なパイプラインがありません。最終出力がありません。これがステップ6です。チャンクを順序通りにまとめて結果を書き、シンプルな統計を出力します。

今度はmain.pyを作成し、すべてのファイルを一箇所で使用します。「次のステップが正しく実行されたかどうかをチェックしてください。main.pyを開いて読み、original_prompt.mdでテストする準備ができているかどうかを教えてください。」

それから「ウルトラシンキング」と言います。これはClaude Codeの最高レベルの推論努力です。

Codex、すべてのPythonファイルを再度分析し、新しいmain.pyで元のprompt.mdファイルをテストできるかどうかを教えてください。すべて6つのステップをテストする準備ができているかどうか?よく考えてください。短く答えてください。」

このPythonを許可します。「これをスキップしてください。コードに焦点を当ててください。」ウルトラシンキング。

インポートをチェックするためにPythonコマンドを実行しようとしていますが、正直時間の無駄です。

OpenAIからのコツ6:コーディングエージェントの熱意のコントロール

その間に、GPT-5コーディング用OpenAIプロンプティングガイドからの最後の、しかし確実に重要なコツを見てみましょう。コーディングエージェントの熱意をコントロールすることです。GPT-5はデフォルトで徹底的で包括的であろうとします。どれくらい熱心であるべきかをコントロールするためにプロンプティングを使用してください。スコープと実行に境界を設定してください。

実際にツール予算を与えることができます。これは非常に新しい概念で、非常に興味深いです。お金や時間の観点での予算ではなく、ツール予算を与えるのです。10個のツールしか呼び出せないように、その予算内で動作させることができます。考えすぎないように。

ここにOpenAIからの例があります。persistenceというXMLタスクでラップしています。人間に確認や仮定の明確化を求めないでください。後でいつでも調整できるからです。最も合理的な仮定が何かを決定してください。それで進めて、行動を完了した後に、ユーザーの参考のためにそれを文書化してください。行動していた仮定を文書化することが非常に重要です。

これはpersistence XMLタグでラップされています。モデルに粘り強く、多くのモデルが行うような確認をユーザーに求めないように促しています。

「ステップ4の上部にいくつかのインポートが欠けていると言っています。」分析をコピーして、「分析」と言います。「これは文字通り私の働き方です。チームの別の開発者にあなたの実行を分析してもらい、彼の言ったことは以下の通りです。彼の分析についてどう思いますか?考えすぎですか?妥当ですか?過度に厳格ですか?それとも修正が必要な良い関連性のあるポイントがありますか?」そして応答を元に戻します。

「これらのファイルをコーディングした開発者からあなたの分析への応答です。彼の応答についてどう思いますか?妥当ですか、それとも何か見逃していますか?よく考えて短く答えてください。」

テスト指示に戻って見てみましょう。「はい、すべて6つのステップをテストする準備ができています。」それではmain.pyを実行してみましょう。

「意図を提供してください。」「評価制限が適切かどうかを確認してください。」25%削減をしてみましょう。開始時に288,000文字。開始時のトークン数を教えてくれなかったので、それは好きではありません。

「関連ファイルを更新して、実際に開始時のトークン数を教えてください。『コンプレッサー分割テキスト』と言い、文字数の合計を言うとき、開始時のトークン総数も見たいです。」

これが実行中のターミナルの様子です。観察可能性がなく、更新もなく、何個のチャンクが処理されたか、何個のエージェントが実行中かを教えてくれるものもありません。すべてが完了するまで待っているだけで、これは非常に悪いUI/UXです。

「あなたのタスクは、チャンキングが実行中に、117個のGPT-4.1エージェントのうち何個が完了し、何個がまだ残っているかについて、もう少し情報を得るために1つか2つの印刷文を追加する最適な場所を見つけることです。シンプルなローダーバーのようにレンダリングされるべきです。」

実行してみましょう。ターミナルを開いて、ちなみにこれはまだ実行中です。何個?

「チャンキングをどう決めますか?何個のチャンクに分割しますか?それはハードコーディングされていますか?何らかの方法で計算されていますか?チャンクに何個のトークンがあるかをどう決めますか?コードを分析してください。短く答えてください。」

これはドッグフーディングと呼ばれます。自分のツール、自分のソフトウェアをテストして使用し、明確性の欠如、何かが欠けている場所を見ることです。優れたソフトウェアを構築するためには、自分が一番のユーザーになることが本当に重要です。

実際にVeil内では、私は常に統計でトップ5に入っています。明らかにこれは私のテストアカウントなので約300ですが、メインアカウントでは常にトップ5にいて、毎日何時間も使用し、週に複数時間を節約しています。

優れたソフトウェアを構築したい場合、バグを見つけて何が間違っているかを本当に感じるために、そのソフトウェアの最もパワーユーザーの一人、最高使用者の一人でなければなりません。

「マークで分割。」「1チャンクごとに冷蔵庫ブロック。」これはちなみに悪いです。全然好きではありません。代わりに、約4,000トークン量でチャンキングするべきです。明らかにマークダウンルールの境界を尊重すべきですが、各チャンクが4,000から8,000トークンの間になるようにするべきです。

複数の欠陥があることがわかります。これらのモデルを自分の装置に任せることはできません。関与する必要があります。製品をリードし、機能の方向性をリードして、実際に何が起こっているかを見ることができる必要があります。モデルは決定を下すのが悪いからです。コードを書くことやバグを見つけることは本当に得意です。機能が何であるか、製品がどのように見えるべきか、どう感じるべきかを決定するのは悪いです。それらはすべてあなたの責任です。

AIがプログラマーを置き換えると言う人たちは、見当違いです。日々使用していません。私は毎日使用し、開発者のチームが毎日使用しています。信じてください、モデルはプログラマーを置き換えません。より賢くするでしょう。次の5年間、未来は人間+エージェントになるでしょう。人間+エージェントはAIのみを破壊するでしょう。

これはかなり大きな変更です。113新行と5削除。それでも、compressorは十分管理可能です。230行は問題ありません。

ちなみに、見ているものが気に入っているなら、このコンテンツすべてはまさに新しいSocietyにあるものです。より深く掘り下げたい場合、AIコーディングについて真剣で、10倍AIデベロッパー、AIファーストデベロッパーになりたい場合、クラスルーム内に、この話題だけで複数のワークショップがあります。

ここをスクロールダウンすると、AIでコードするという全セクションがあり、Claude Code、Cursor、Codexの複数の異なるワークショップがあります。これがCodexで、元々出た時のものです。6つのモジュール、Claude Codeで3つのモジュール、Cursorで2つのモジュール、これは新しいSocietyのクラスルーム内にある多くの異なるコースの一つに過ぎません。

AIについて真剣で、次のレベルに持っていきたく、おそらくAIでお金を稼ぎ始めたいなら、New Societyに参加してください。動画の下にリンクされます。

compressorの変更が行われました。再度実行してみましょう。どれほどうまくいくか本当に見たいし、自分で使用するプロンプトコンプレッサーなので、完成させたいです。投げ捨ての、バイブコーディングのようなものを構築しているわけではありません。日々使用する必要があるものを構築しています。

「ユーザー制限が正しく適用されているかチェックしてください。」45%削減をしてみましょう。「元のターゲット。」「テキストを分割しています。」

これはリポジトリとは異なるトークナイザーを使用しています。リポジトリプロンプトでは約74,000トークンでしたが、ここでは60,000で計算しています。それから9つのチャンクを生成しました。チャンキングロジックを変更する必要があるかもしれません。

「チャンキング閾値を各2,000から4,000トークンの間に変更してください。4,000から8,000のように今なっているのではなく、2,000から4,000に変更してください。他には何も変更しないでください。」

この段階でスクリプトが実行されているとき、何も起こっていません。「ターミナル」と言い、貼り付けて、ターミナルを閉じ、XMLタグ。「main.pyスクリプトのこの時点を特定し、より多くのログ、より多くの印刷文を実装して、実際に何が起こっているかを見ることができるようにしてください。」

2,000から4,000に更新しました。はるかに良いです。以前は117チャンクのように多すぎました。それはあまりにも多くのAPI呼び出しです。しかし、4,000から8,000を行ったときは9チャンクだけでした。2,000から4,000の方が良いと思います。

その間に、GitHubのセットアップができます。GitHubリポジトリに行き、新しいリポジトリ。「prompt-compressor」と言います。公開にします。

「このツールは指定されたパーセンテージ量で任意のプロンプトを圧縮できます。非常に長いプロンプトに理想的です。」ライセンス。完全にオープンソースのMITにしましょう。

git ignoreを追加できるでしょう。実際に、git ignoreを追加すべきです。

「すべての依存関係、持っているすべての環境ファイル、すべてを分析してください。カバーする適切なgit ignoreをルートフォルダに追加してください。」

空のままにします。リポジトリを作成します。このリポジトリのリンクをコピーして、Claude Codeに手伝ってもらいます。実際に、Codexを使いましょう。

/newと入力して新しいチャットセッションを開始します。ルールを破って速い応答が欲しいので、GPT-5 lowを使用します。「あなたのタスクは、ローカルプロジェクトをこのGitHubリポジトリに接続するのを手伝うことです。ステップバイステップで何をすべきか教えてください。」

Claude Codeがgit ignoreを作成したのがわかります。低い推論努力でも、応答にまだかなりの時間がかかります。実際にこれにはClaude Codeを使用します。Claude Codeの方が迅速な変更に優れているからです。Codexほど強力ではありませんが、確実に使いやすいです。

最良の使用例は前に何度も言ったように、Codex + Claude Codeです。正直に言うと、始めたばかりなら、両方で月額20ドルのプランだけが必要です。

リポジトリを初期化して、ステップに従いましょう。以前にやったことがない場合、明らかにたくさんのリポジトリがありますが、GitHubを使ったことがない場合は、AIエージェントに尋ねて手伝ってもらってください。最も過小評価されていることです。多くの人が文字通り1つか2つのプロンプトでLLMに送れる言い訳をします。それについて考えてください。

これを送信しましょう。問題は何ですか?フォーマットが間違っているか何かですか?「git remote add origin 貼り付け。」

すべてのファイルをステージするために「git add .」を実行できます。ソースコントロールここに行けば、すべてのものがステージされているのがわかります。それから元のコミットとupstreamでプッシュします。「git commit」最初のコミット。実際に、このコミットメッセージはかなり良いです。これを盗むことができます。

それからメインブランチをマスターに設定する必要があります。「git branch -M main」それからupstreamトラッキングでプッシュする必要があります。そうすることで、その後「git push」を実行するだけで、どのブランチが接続されているかがわかります。「git push –set-upstream origin main」

問題は何ですか?最初にフェッチする必要があります。「git pull」ライセンスがあるからです。問題は何ですか?「git pull」現在のブランチにトラッキングがありません。

このエラーがあります。LLMに解決を手伝ってもらいます。Codexは最終的に完了しましたか?エラーです。

「私はすべてのステップを実装しましたが、upstreamでプッシュしようとしたとき、最初にプルする必要があるというエラーが発生しました。git pullを実行すると」問題が何かわかります。upstreamトラッキングがないことに気づきました。

「git pull origin main」を実行する必要があります。いくつかのパラメータが必要です。フォースプッシュをしましょう。「上書きする必要がある変更があるので、upstreamプッシュをフォースで行う方法を教えてください。」

このコマンドが必要です。これをリロードすれば、すべてがありますが、ライセンスを失いました。Codexに尋ねることができます。

「リポジトリ全体を分析し、すべてのファイルを読み、完全なMITライセンスであるライセンスファイルを作成してください。すべてオープンソース、すべて許可。」

今GitHubにあります。動画の下にこれをリンクするので、取ることができます。ENVファイルがないことを願います。ありません。良いです。いくつかの以前の試行があります。元のプロンプト。それを削除すべきかもしれません。実際に、わかりません。たぶん問題ありません。皆さんは自分のプロンプトを使用できるので。

カメラの外でいくつかの修正を行う必要がありましたが、準備ができました。ライセンスファイルを追加しました。readmeファイルを追加しました。すべてのGitHubリポジトリが持つべきものです。

再び、完全にオープンソースなので、自由に使用してください。動画の下にリンクします。長いプロンプトがある場合、これがそれらを圧縮する方法です。この動画が役に立ったことを願っています。

これが私の使用方法です。迅速なアクション、何をすべきかの説明、概念を教えてもらうためにClaude Codeを使用し、重い プログラミング、最も複雑なエラー修正、機能実装、得られるすべての力が必要な場所でCodexを使用します。

GPT-5 HighはプログラミングにおいてRight now最高のAIモデルです。Opus 4.1も本当に良いですが、それほど強力ではありません。それほど推論しません。だからこそ、より多くのアシスタント、より多くのコンサルタントのような存在である方が良いのです。一方、実際のAIコーディングエージェントはGPT-5 HighiのCodexです。

これが2025年9月初めの時点での私のテックスタックです。AI分野は非常に速く改善しています。誰にもわからない、来月、次の2週間で文字通り変わるかもしれません。見てみましょう。しかし、この動画が役に立ったことを願っています。

そうだった場合、このようなコンテンツにもっと興味がある場合は、クラスルームのnew societyに参加することを確認してください。完全初心者からAIにおいて99%の人より優れた人にスキルアップできます。

AIファーストデベロッパーになりたい場合、つまり置き換えられない開発者、代わりに企業が維持し昇進させようとする開発者になりたい場合、ここがその場所です。

経験に関係なく、以前にコーディングしたことがないか、コーディングしたことがあるがAIを使用していないかに関係なく、new societyに参加してクラスルームのコンテンツを通過すれば、AIにおいて99.9%の人より優秀になります。

それは約束です。AIツールをコーディングに使用することに1000時間以上費やし、すべてをここに文書化したからです。実際に、スタートアップを文字通り1日目から文書化しました。アイデアから選択、バックエンドの構築、エラーの地獄、計画から1千万までの道のり、デプロイ、ドメイン名の選択、ドメイン名などすべてがここにあります。

自分のSaaSを構築したい場合、文字通りゼロから10,000ドル以上のMRRにどのようにしたかを示しました。AIについて真剣なら、new societyに参加してください。下にリンクされます。

それでは、視聴していただきありがとうございました。素晴らしく生産的な一週間をお過ごしください。また会いましょう。

コメント

タイトルとURLをコピーしました