OpenAIが発表した「Circuit Sparity」は、AIの内部思考プロセスを追跡可能にする画期的な研究である。従来のブラックボックス的なニューラルネットワークとは異なり、この手法は訓練中に意図的に99.9%以上の接続を切断し、最も重要な回路のみを残すことで、AIの意思決定メカニズムを可視化する。Python コード用に訓練されたGPT-2スタイルの変換器は、わずか12個の内部ユニットと9つの接続で特定のタスクを実行できることが実証された。この技術は単なる研究デモに留まらず、Hugging FaceとGitHubで実際のモデルとツールキットが公開されており、AI の透明性と制御可能性における新たな地平を切り開いている。同時に、OpenAIが直面する競争圧力や1兆ドル規模のインフラ投資、そして2026年初頭に予定されているChatGPTの「アダルトモード」など、企業としての戦略的課題も浮き彫りになっている。

OpenAIが捉えたAIの思考プロセス
OpenAIが発表したリリースは、まるで誰かがついにAIの思考の最中を捉えたかのような感覚を与えるものです。これは文字通りの意味で言っています。マザーボード上の回路を辿るように、わずか数個の小さなコンポーネントまで決定を追跡できるのです。これが今回の全体的な雰囲気なんです。
このプロジェクトはCircuit Sparityと呼ばれており、かなり率直なタイトルの論文から生まれました。「重みスパース変換器は解釈可能な回路を持つ」というものです。OpenAIはまた、Hugging Face上で「openai/circuitsparity」という実際のモデルと、GitHub上で「openai/circuit_sparity」というツールキットも公開しました。つまり、これは研究であると同時に、実際に触れることができるツールでもあるという、そういう瞬間の一つなんです。
最初に結論を言っておきましょう。彼らはPythonコードでGPT-2スタイルの変換器を訓練し、ほぼすべての配線を切断した状態で学習させることを強制しました。驚くべき部分は、これを後からやったわけではないということです。彼らは訓練中、最適化中に、すべてのステップで、ずっとスパース性を強制したんです。
ここで重みスパース変換器が何を意味するのか詳しく見ていきましょう。なぜなら、詳細こそがストーリーだからです。通常、言語モデルは巨大で絡み合ったウェブのように構築されています。すべての部分が他のすべての部分と対話します。何百万、時には何十億もの接続が一斉に発火するのです。だから人々はそれをブラックボックスと呼ぶわけです。たとえ答えが正しくても、どの内部パーツが重要で、どれが単なるノイズだったのか、誰も本当には言えないのです。
OpenAIは最初は無謀に聞こえるようなことをすることに決めました。彼らはほとんどの接続を意図的に切断しながらモデルを訓練したのです。訓練後ではありません。訓練中に、ステップバイステップで、モデルが自己更新するたびに、OpenAIは最も強い接続だけを保持し、残りを削除することを強制しました。弱めるのでも、無視するのでもなく、完全にゼロにしたのです。
結果は極端です。最も積極的なバージョンでは、約1000個の接続のうち1個だけが生き残ります。つまり、内部配線の99.9%以上が消えているということです。そして彼らはそこで止まりませんでした。どれだけの内部パーツがそもそも活性化を許されるかも制限したのです。大まかに言うと、任意の瞬間に内部信号の4つに1つだけが点灯することが許されます。つまり、接続が少なく、アクティブなパーツが少なく、内部の混沌がはるかに少ないということです。
この時点で、ほとんどの人はモデルが崩壊すると予想するでしょう。そしてそれがトリックなんです。崩壊しないんです。それが生き残る理由は、OpenAIがどのように訓練するかにあります。初期段階では、モデルは通常通り柔軟にスタートします。そして時間をかけて徐々に、許可される接続の数が小さく、そして小さくなっていきます。モデルは学習したことを、より少ない、そしてより少ない内部パーツに圧縮することを強制されるのです。
そのプロセスを生き延びたものは、最も本質的なロジックになります。このセットアップにより、OpenAIは非常に明らかなことができるようになります。パフォーマンスを同じに保ちながら、内部機構を縮小できるのです。そして、これらのスパースモデルを通常の密なモデルと比較すると、驚くべきことが見えてきます。同じレベルの精度に対して、スパースモデル内部の内部思考機構は約16倍小さいのです。
簡単に言えば、同じ動作がはるかにシンプルな内部プログラム内に収まるということです。そしてここで回路のアイデアが登場します。
AIコンテンツ制作の秘密
ストーリーにさらに深く入る前に、コメントでよく見かけることがあります。どうやってこんなに速くこれほど多くのコンテンツを制作できるのかと尋ねる人たちです。見てください、2025年だけで、このチャネルは3200万回の再生を獲得しました。これは運ではありません。
より懸命に働くことでもありません。新しいAIのブレークスルーが出るたびに、それを直接ワークフローに組み込んでいるからです。ほとんどの人はAIニュースを見て次に進みます。私たちはそれを即座に使用します。
だから、これまで共有したことのないものをリリースすることにしました。2026 AIプレイブックです。AIの時代を支配するための1000のプロンプト。これは、単にAIコンテンツを消費することから、実際にAIを使って自分自身のための真の不公平な優位性を構築することへの移行方法です。
提案書を4時間ではなく20分で完成させます。ずっと先延ばしにしていた副業を立ち上げます。会社で半分の時間で2倍の仕事をこなす人になります。創設メンバーアクセスがまもなく開始されます。説明欄のウェイティングリストに参加してください。
回路の詳細な分析
さて、ビデオに戻りましょう。曖昧な特徴や隠れた状態について話すのではなく、OpenAIはすべてを非常に具体的に定義します。回路は単に内部ユニットの小さなグループと、それらの間の正確な接続です。各ユニットは微小です。
1つのニューロン、1つのアテンションチャネル、メモリ内の1つの読み取りまたは書き込みスロット。そして各接続は文字通り1つの生き残った重みです。そこで今、問題は次のようになります。タスクをまだ解決できる最小の内部回路を見つけることができるでしょうか。
それをテストするために、彼らは20の非常にシンプルなコーディングチャレンジを作成しました。それぞれが、モデルに2つの可能な次のトークンから選択することを強制します。自由回答はなく、創造性もなく、ただオプションAかオプションBを選ぶだけです。
いくつかの例は表面的にはほとんど些細なものに感じられます。文字列をシングルクォートまたはダブルクォートで閉じます。リストがどれだけ深くネストされているかに基づいて、閉じる角括弧または二重閉じる角括弧を出力するかどうかを決定します。変数がセットとして作成されたか文字列として作成されたかを追跡し、モデルが後でドットaddまたはプラスイコールを使用すべきかどうかを知ることができるようにします。
それから彼らは賢いことをします。パフォーマンスが低下するまで、モデルの内部パーツを削除し始めるのです。目標は、タスクを十分にうまく解決できる最小の内部メカニズムを見つけることです。彼らは推測しません。直接それを最適化します。削除されたものはすべて平均値に凍結されます。したがって、もう秘密裏に助けることはできません。
最終的に残るものは視覚化ではありません。それは実際に仕事をする、削ぎ落とされた内部マシンです。そしてこれが、ビデオのタイトルがその重みを獲得し始める場所です。
クォート閉じタスクの場合、最終的な回路には12個の内部ユニットと9つの接続があります。それだけです。その小さな回路の中で、2つのユニットがほぼ即座に現れます。
1つは、モデルがクォートを見たときはいつでも、どんなクォートでも活性化します。もう1つは、シングルクォートとダブルクォートの違いを伝えるシンプルな信号を運びます。その後、別の内部コンポーネントがその信号を取り、閉じるクォートが現れる必要がある場所、つまりシーケンスの最後にコピーします。
つまり、モデルは推測していません。大まかにパターンマッチングをしているのでもありません。小さな内部ルーチンを実行しているのです。検出してから分類してからコピーしてから出力する。ステップバイステップで追うことができます。
括弧カウントタスクは異なって見えますが、同じようにクリーンです。モデルが開き括弧を見ると、いくつかの内部検出器をトリガーします。別のコンポーネントがシーケンス全体を見渡し、それらの信号を平均化します。これは効果的にネストの深さの感覚に変わります。
後で、もう1つのコンポーネントがその深さをチェックし、単一の閉じ括弧で十分かどうか、または二重のものが必要かどうかを決定します。それはカウントです、はっきりとシンプルに。
それから変数型タスクがあり、これは特に興味深いものです。変数currentが最初に作成されたとき、モデルはそれが何の型であるかを示す小さな内部マーカーを保存します。後でモデルがそれを修正する方法を選択しなければならないとき、別の内部コンポーネントがそのマーカーを取得し、それを使用して正しい操作を選択します。
つまり、モデルは覚えているのです。曖昧にではなく、統計的にでもなく。何かを保存してから、後で重要になったときにそれを取得するのです。これらの回路は実際に読み取ることができるほど小さく、それが抽象的に感じられなくなる瞬間です。
もはや出力について話しているのではありません。内部決定が形成されるのを見ているのです。
ブリッジ技術の導入
それからOpenAIはこれをさらに強力にするもう1つのレイヤーを追加します。彼らはブリッジと呼ばれるものを導入します。ブリッジを翻訳者として考えてください。それらはクリーンで読み取り可能なスパースモデルと通常の密なモデルの間で情報が流れることを可能にします。
スパースモデルから特定の内部信号を取り、それを調整し、その変更を密なモデルに注入することができます。したがって、この動作はおもちゃのモデルに存在すると言う代わりに、この特徴は存在し、それがフルスケールシステムにどのように影響するかはこうですと言うことができます。これは大きな変化です。
それは、解釈可能な特徴が研究デモに閉じ込められたままである必要がないことを意味します。それらは実際のモデルにマッピングできるのです。そしてこれは単なる理論ではありません。OpenAIは実際のモデルをリリースしました。
それはOpenAI/Circuit Sparityと呼ばれています。4億個のパラメータを持ち、Apache 2.0ライセンスの下でHugging Faceで利用可能です。彼らはまた、タスクと回路を探索するための視覚的インターフェースを含む完全なツールキットをGitHubでリリースしました。
それをロードし、Pythonコードで実行でき、内部のほぼすべてがゼロアウトされていることを知ることができます。残っているのは機能するために必要な最小限の機構です。だからこそ、このリリースは異なって感じられるのです。
AIをより強力にすることではありません。AIを読みやすくすることです。モデルが何を言うかを見ているだけではありません。
指し示して名前を付けることができる一握りの内部パーツを使用して、どのようにそこに到達するかを見ているのです。そしてそれが、OpenAIがAIの思考を捉えたという理由です。モデルが意識を持っているからではなく、このスケールで初めて、内部プロセスがぼやけでなくなり、実際に追うことができる一連の実際の決定のように見え始めたからです。
OpenAIの経済的重要性
OpenAIがこのCircuit Sparity作業を発表したのとほぼ同時期に、Axiosは静かに多くを語る見出しの記事を公開しました。OpenAIは大きすぎて潰せないわけではない。もっと大きいのだと。そしてこのフレーミングは重要です。
この会社は、他のどのラボも本当にはそうではない方法で、AI経済の中心に位置しています。OpenAIが方向を変えると、投資家はそれをほぼ即座に感じます。Axiosによると、サム・アルトマンは一度に複数の方向からの圧力に対処しています。
Googleからの競争は激しいです。家族からの訴訟は続いており、インフラ、チップ、データセンターに結び付けられた1兆ドルを超える長期的な支出コミットメントがあります。
AI経済はOpenAIの軌道の周りに自分自身を巻き付けており、それは小さな信号でさえ外側に波及させます。Axiosは、OpenAI用にOracleが建設したデータセンターの遅延の単純な示唆が、テクノロジー株を動かすのに十分だったと指摘しています。それがどれほど敏感かということです。
ベンチャーキャピタリストでありMIT研究フェローのポール・カドルスキーはそれを率直に説明しました。OpenAIの個別の役割は最初一見小さく見えるかもしれませんが、すべてがどれほど相互接続されているかを見ると、その印象は崩壊します。深刻なつまずきは、エコシステムの一部をその場で凍結させるでしょう。
元国家安全保障副顧問で現在はPGIMのグローバルマクロ研究責任者であるディップ・シンは、さらに一歩踏み込みました。彼は、OpenAIが躓けば、AI セクターの基盤は急速に弱まり、チップ需要、資本支出、金融市場を通じて影響が連鎖すると警告しました。
彼は特定の圧力ポイント、チップを指摘しました。MicrosoftとMetaは遅れを取らないように積極的に購入してきました。OpenAIの勢いが鈍化すれば、その緊急性は薄れます。
チップ注文の減少は、成長を支えてきた数十億ドルの設備投資を直撃するでしょう。シンは大まかな数字さえ提示し、その成長の最大半分が停滞する可能性があると示唆しました。それらのチップは担保としてローンの背後にも位置しており、需要の変化は信用市場にも波及することを意味します。
OpenAI内部では、リーダーシップは政府の支援や特別扱いのアイデアに反発してきました。アルトマンは、失敗は可能なままでなければならないと公然と述べています。OpenAIの公式メッセージングは、自信、強力な投資家、継続的な進歩を強調しています。それでも、精査は残っています。なぜなら、賭け金は現実のものだからです。
ChatGPTのアダルトモード計画
同時に、OpenAIは内部意思決定をさらに重要にする消費者向けの変更を準備しています。Techcraarは、ChatGPT用のアダルトモードが2026年初頭に計画されていると報告しており、フィジー・シモによって確認されています。
アクセスは、単純なチェックボックスではなく、行動とコンテキストからユーザーの年齢を推測する年齢予測システムに依存するでしょう。このシステムはすでにいくつかの国でテストされています。この動きはアダルトコンテンツを超えています。
現在、あまりにもセンシティブであるとしてフィルタリングされているトピック、関係、セクシュアリティ、メンタルヘルスを含む会話を開きます。その種の機能は、法的、規制的、信頼の問題をもたらします。世界中の政府が年齢確認に関する規則を強化しており、OpenAIは明らかに、おそらくプレミアム層を通じてユーザーを関与させたままにしながら、地域を超えてスケールするソリューションを望んでいます。
そしてこれが、Circuit Sparityが静かに繋がり戻る場所です。OpenAIは、内部決定が実際の外部結果をもたらすシステムを構築しています。コードの動作に関する決定、コンテンツの境界に関する決定、規制当局、ユーザー、投資家が深く関心を持つ決定。
その環境では、より明確な内部メカニズム、隠れた相互作用が少なく、追跡可能な決定経路を持つモデルを持つことは、学術的好奇心であることをやめます。それはインフラのように見え始めます。
Circuit Sparityは、内部動作をコンパクトで、読み取り可能で、操縦可能なものに変える方法として、その絵の中に収まります。複雑な動作を、指し示し、テストし、意図を持って動かすことができる小さなマシンに縮小する方法です。そのコンテキストは、このリリースに単一の研究論文をはるかに超える重みを与えます。
結びの問い
読み取り可能なAIは私たちを真のコントロールに近づけるのでしょうか、それともまだ過小評価している方法で権力を加速させるのでしょうか。あなたの意見をコメントに落としてください。これについてのあなたの立場を見たいです。
この分析が役に立ったなら、いいねを押して、このようなより深い分析のためにチャンネル登録してください。視聴ありがとうございました。次の動画でお会いしましょう。


コメント