OpenAIが医療記録とウェルネスアプリを統合できるChatGPT Healthをリリースし、世界で週に2億3000万人が健康相談に利用する巨大市場に本格参入した。同時に実際のオフィス業務データで訓練された業務自動化システムの開発も進行中であり、ホワイトカラー職種への影響が現実味を帯びている。さらにGPT-5.2がARC AGI2で人間のベースラインを超える75%の精度を達成し、OpenAI自身が「能力オーバーハング」という概念を強調し始めた。これはモデルがすでに人間が引き出せる以上の能力を持っているという認識であり、技術的ボトルネックが人間側に移行しつつあることを示唆している。

ChatGPT Healthの正式ローンチ
OpenAIはついにChatGPT Healthをローンチしました。医療記録とウェルネスアプリを連携させて、パーソナライズされたガイダンスを受けられるというものです。それから、実際の職場タスクデータを使って、オフィスワークをエンドツーエンドでこなせる高度なシステムを訓練中だとも報じられています。さらにその上、GPT-5.2がARC AGI2で新たな推論記録を樹立し、OpenAIは能力オーバーハングについて公然と語り始めました。つまり、これらのモデルはすでに人間が使いこなせる以上の能力を持っているということです。
それでは、最も大きな公式ローンチであるChatGPT Healthから始めましょう。OpenAIはChatGPT内に専用の健康・ウェルネス体験を展開しました。ここで重要なポイントは、これが独立した専用スペースとして構築されているということです。これまでのように健康に関する質問を普通のチャットで尋ねるだけではありません。
同社は今や健康をコア製品カテゴリーとして扱っています。その理由は明白です。彼らによれば、健康はすでにChatGPTを利用する最も一般的な理由の一つなのです。匿名化された会話分析に基づくと、OpenAIは世界中で毎週2億3000万人以上が健康とウェルネスに関する質問をChatGPTで行っていると述べています。
この数字は驚異的です。これは基本的に、主要なソーシャルプラットフォームのユーザーベースに匹敵する規模が、毎週健康に関する質問をしているということです。つまり、彼らはその需要を専用体験へと転換しているのです。
Healthで実際に変わること
あなたの健康情報がついに接続可能になります。現実には、健康情報は散在しています。検査結果用の病院ポータルが一つ、診察記録用が別にあり、おそらく一度ダウンロードして忘れてしまったPDFもあるでしょう。それからApple Healthが歩数と睡眠データを保持し、My Fitness Palがマクロ栄養素を記録し、ウェアラブルアプリがあり、すべてが断片化されています。
Healthはこれらすべての断片が集まる場所になろうとしています。ユーザーは医療記録とウェルネスアプリをHealthに直接接続できます。彼らが挙げる例には、Apple Health、My Fitness Pal、Functionなどがあります。
医療記録については、OpenAIはBwellと提携しました。これは米国の消費者向けにライブ接続された健康データの最大かつ最も安全なネットワークと説明されており、これによってHealthは特定の米国医療記録ソースに接続できます。
データが接続されると、個人的な文脈を必要とするより高度な質問が実際にできるようになります。OpenAIによれば、Healthはより情報に基づいた判断ができ、特に重要な医療会話に対してより準備ができた状態になるのを助けます。
つまり、より多くの文脈で検査結果を解釈したり、医師の診察に備えたり、傾向を理解したり、接続されたデータに基づいてウェルネスルーチンを最適化したりできます。彼らは保険の決定についても言及しています。つまり、あなたの医療パターンを文脈として使って保険オプション間のトレードオフを理解するといったことです。これは単なるチャットボットの話ではありません。実際の意思決定支援の領域です。
OpenAIのHealthに対する明確な方針
さて、OpenAIはHealthが何のためにあるのかについて、非常に具体的な立場を取っています。彼らは、これは人々が健康とウェルネスを理解し管理する上でより積極的な役割を果たすのを助けるものだと言っています。病気の瞬間だけでなく、日常的な質問や長期的なパターンをサポートすると述べています。
また、臨床医との協力も強調しており、これによって患者は準備を整えて診察に臨めるようになります。この準備と理解への焦点は、ローンチ報道全体を通じて一貫しています。ある記事では、OpenAIがデジタルヘルスイノベーションにおいて世界的に、特にデジタルヘルス採用が増加している中東・北アフリカ地域などで、主要プレーヤーとして自らを位置づけていると表現しています。
つまり、製品の方向性は明確です。OpenAIはHealthを個人の健康管理における中心的なツールにしたいのです。
プライバシーとセキュリティへの取り組み
さて、Healthローンチの最大の部分はプライバシーとセキュリティです。明らかに、このカテゴリーは信頼で成り立っているか崩れるかです。彼らはHealthをChatGPT内の別個の区画として構築し、追加の保護機能を設けました。
彼らは「層状の保護」といったフレーズを使っています。そして具体的です。Healthは専用に構築された暗号化と隔離を使用して、健康会話を保護し区画化しています。そして最も大きな約束を非常に直接的にしています。Health会話はOpenAIの基盤モデルの訓練には使用されません。
さて、ここで短い寄り道のための休憩です。もしあなたがAIを頻繁に使っていて、どれが実際にタスクに合うかを確認するために異なるモデル間を飛び回っているなら、今日のスポンサーであるMammothが、そのワークフロー全体をずっと簡単にしてくれます。
MammothはClaude、GPT、Gemini、Llama、Mistral、Grok、DeepSeek、Deep Research用のPerplexity、さらにFlux、Nano Banana、Recraftなどの画像モデルといった主要なAIモデルのほとんどを一箇所にまとめています。
すべてが単一のダッシュボード内で動作します。日常的な使用で本当に役立つのは比較セットアップです。同じプロンプトを異なるモデルに同時に送信でき、それぞれがどのように応答するかを即座に確認できます。これにより、推測することなく、執筆、リサーチ、分析、画像作成に適したモデルを選びやすくなります。
また、カスタムMammothsを作成することもできます。基本的には、繰り返しタスク用の特定の指示を持つ独自のプリセットで、プロジェクト内で整理して保持できます。プライバシー面では、Mammothはヨーロッパを拠点としており、データはドイツでホストされ、完全にGDPR準拠で、モデルはあなたのデータで訓練されません。プロンプトはプロバイダーによって保持されず、いつでも履歴を削除できます。
プランは月額約10ユーロ、つまり約12ドルから始まり、すでに何百もの企業や公共機関で使用されています。説明欄のリンクからチェックしてみてください。
区画化されたメモリシステムとアクセス制御
それでは動画に戻りましょう。彼らはメモリシステムも分離しています。Healthには別個のメモリ、接続されたアプリやファイル用の別個のストレージがあり、通常のチャットとは混在しません。
Health チャットは履歴に表示されるので戻ることができますが、基本的な情報はHealthスペース内にとどまります。そしてOpenAIは境界ルールも説明しています。ライフスタイルの変化や引っ越しなど、必要に応じて非Health文脈がHealthを助けることは許可されます。Health文脈はHealth内にとどまり、通常のチャットに戻ることはありません。
通常のチャットもHealthファイルやHealthメモリにアクセスできません。これは一方通行のドアのように構築されています。また、コントロールもあります。HealthメモリはいつでもHealth内または設定のパーソナライゼーションセクションで表示または削除できます。不正アクセスに対する保護の別の層として、多要素認証にも言及しています。
それからアプリと統合の問題があります。OpenAIは、アプリが明示的な許可でのみ接続されることを明確にしています。たとえアプリがすでに通常のChatGPT環境に存在していても、My Fitness PalをHealthに接続することは自動ではありません。あなたが選択するのです。また、Health内に含まれるアプリはすべて、プライバシーとセキュリティ要件を満たし、追加のセキュリティレビューを受けなければならないと述べています。
最小限必要なデータのみを収集するといった原則に言及しています。そしてアプリを接続する際、サードパーティが収集する可能性のあるデータについてガイドが提供されます。そして、信頼にとって重要な部分があります。いつでもアプリを切断でき、即座にアクセスが失われると述べています。医療記録についても同様です。設定でアクセスを削除できます。
医師との広範な協力と評価フレームワーク
さて、OpenAIは2年間にわたって60カ国の260人以上の医師と協力してきたと述べています。フィードバックの規模は小さくありません。このグループは30の重点領域にわたって60万回以上、モデル出力にフィードバックを提供しました。
これは「医師に意見を聞く」というレベルではありません。完全な評価と強化パイプラインのように聞こえます。医師のフィードバックがシステムのコミュニケーション方法、緊急性をエスカレートする場所、アドバイスのフレーミング方法、安全性の優先順位付け方法を形成しているのです。
これらすべてを測定するために、OpenAIはHealthbenchを構築しました。これは医師評価フレームワークと説明されています。彼らによれば、これは臨床医が実際に品質を判断する方法を反映した、医師が書いたルーブリックを使用して応答を評価します。安全性、明確性、適切なエスカレーション、文脈への配慮などです。
ロールアウトの詳細と利用可能地域
さて、ロールアウトの詳細です。段階的に行われるようです。早期アクセスは選ばれたユーザーから始まり、その後ウェブとiOSでグローバルに拡大します。ウェイトリストに参加できます。また、資格ルールも提供しています。早期アクセスは無料、Go Plus、Proプランのユーザー向けですが、欧州経済地域、スイス、英国外のユーザーに限定されています。
つまり、EEAと英国地域は早期アクセスから除外されています。おそらく規制とコンプライアンスの理由でしょう。医療記録統合と一部のアプリは米国のみです。Apple Healthの接続にはiOSが必要です。また、Health内に存在するアプリもリストアップしています。Apple Health、Function、My Fitness Pal、Weight Watchers、All Trails、Instacart、Pelatonに言及しており、ファイルを直接アップロードすることもサポートしています。検査結果、診察要約、臨床履歴などの医療記録を含みます。
これがHealthです。
オフィスワークの自動化への取り組み
さて、それでは話の別の側面について話しましょう。なぜなら彼らは多くのオフィス職種に影響を与える可能性のある何かも構築しているからです。OpenAIは、ほぼすべての日常的なオフィスタスクを処理でき、多くの場合そのカテゴリーで人間を上回るパフォーマンスを発揮できる高度なシステムを開発しています。そして彼らは実際のオフィスワーク、実際のタスク、実際の成果物、開始から終了までの完全なワークフローでそれを訓練しています。
実際に彼らはHandshake AIと提携し、複数の職種にわたる請負業者から業務データを収集しています。データの構造は目標をかなり明白にしています。彼らは主に二つのものを収集しています。タスクリクエストとタスク成果物です。
タスクリクエストは基本的にマネージャーや同僚から受け取る指示です。誰かがあなたにタスクを完了するよう伝えるということです。そしてタスク成果物は、それに応じて作成された完成した出力物で、Word文書、PDF、PowerPointプレゼンテーション、Excelシート、さらには画像などの実際の形式を含みます。
そしてこれらは小さなタスクではありません。彼らは具体的に、数時間または数日かかる複雑な作業を請負業者に求めました。この詳細は、長いワークフローに関するトレーニングシステムを示唆しています。何かを開始し、一時停止し、戻ってきて、改良し、間違いを修正し、ファイルを整理し、最終的に最終版を納品する種類の作業です。
そしてこれが適切にスケールすれば、基本的には仮想オフィスワーカー、ワークフローマシンのように機能するAIシステムが得られます。
さて、明らかにこれにはセキュリティ層があります。請負業者は何かを提出する前に、企業の機密情報や個人を特定できる情報を削除するよう指示されました。これは機密性の高い業務データがプライバシー災害に変わるのを防ぐための保護層です。
ホワイトカラー職種への影響
そしてこの種のシステムはホワイトカラーの仕事を最初に直撃します。正直に言えば、それはすでに起こっています。これはただそれを加速させるだけです。管理業務が最初に圧迫されます。データ入力、スケジューリング、スプレッドシートの整理、基本的な調整作業です。AIエージェントはすでに大規模な反復的ワークフロー操作において優れています。
それからジュニアレベルのコンテンツ作成とジュニアコーディングです。企業はすでに、一人のシニアワーカーとAIサポートを組み合わせることで、チーム全体の仕事をこなしています。この傾向はすでに現実であり、システムが改善されるにつれてより激しくなります。
カスタマーサポートも大きな打撃を受けます。これらのシステムはますます人間らしくなり、実際の問題解決ワークフローで訓練されると、苦情の処理方法、エスカレーションの仕組み、人々が問題を説明する方法、壊れることなく厄介な人間のコミュニケーションに対処する方法を学びます。
法律業務もジュニア側で影響を受けます。法的文書の読解、要点の抽出、リサーチ、起草。AIはその時間を大幅に圧縮します。企業はすでにAIツールを大規模に使用しており、基本的な会計職の必要性を減らしています。
金融と会計も圧迫されます。簿記、税務計算、監査サポート。企業はすでにAIツールを大規模に使用しており、基本的な会計職の必要性を減らしています。
結局のところ、要点はシンプルです。これらのシステムを適切に使用する方法を学ぶ人々は、学ばない人々よりも劇的に生産性が高くなります。したがって、ツールを学ぶことが仕事の一部になります。
リーダーシップや交渉などのソフトスキルがより価値あるものになります。クリティカルシンキングは必須になります。なぜならAIはまだ間違いを犯し、自信を持って誤った答えを出すことがあるからです。そして最大の部分は適応力を維持することです。なぜならこの分野全体が6ヶ月ごとに変化し続けるからです。
GPT-5.2がARC AGI2で人間のベースラインを突破
さて、この話の第三部は、AGI会話が再び盛り上がるところです。Greg BrockmanがGPT-5.2がARC AGI2で人間のベースラインを打ち破ったと投稿しました。そしてこれは大きな出来事です。なぜならARC AGI2は大規模モデルの最大の弱点の一つを暴露するように構築されているからです。
これはAbstraction and Reasoning Corpus for Artificial General Intelligence version 2の略で、パターンの暗記に報酬を与えない推論テストとして設計されました。各パズルは基本的に新しいタスクとして扱われます。したがって、巨大なトレーニングセットを研磨して力ずくで高スコアに到達することはできません。
ポイント全体は、抽象的推論、帰納、転移を誰もがテストすることです。これは人々が真の汎用知能と関連付けるものです。Francois Cholletと彼のチームは2025年にARC AGI2をまさにその目的で立ち上げました。Cholletは何度も、システムがすでに見たことのある分布でのみ良好に機能するなら、AGIに必要なものを持っていないと述べています。
したがってARCは誰がより多くのインターネットテキストで訓練したかをテストするものではありません。システムが人間のように最小限の例で新しいルールを理解できるかどうかをテストします。
そしてこれが、ARC AGI2が今やIlya Sutskeverが何度も語ってきたことと結びついている理由でもあります。パフォーマンスパラドックスです。モデルはベンチマークで驚異的に見えても、実世界の状況では崩壊することがあります。ARC AGI2はそれを切り抜けようとします。パターンマッチングがそれほど役に立たない馴染みのないタスクに対処することをモデルに強制することによってです。
Poetiqueの驚異的なスコアとシステムアーキテクチャの重要性
さて、ここでさらにクレイジーになります。記録的な飛躍は一つのモデルが良くなっただけではありませんでした。GPT-5.2x highに構築されたPoetiqueというシステムが、ARC AGI2のパフォーマンスを人々が予想していたレベルをはるかに超えて押し上げました。
PoetiqueはARC AGI2で75%の精度を達成しました。一問あたりのコストを8ドル以下に抑えながらです。そしてそれは以前の最高スコアより15パーセントポイント高いものでした。そして興味深い部分は、そのスコアが人間とどのように比較されるかです。
ARC AGI2では、平均的な人間の精度は約60%です。GPT-5.2x highはすでにその人間平均レベルに近づいていました。それからPoetiqueはそれを人間平均の領域から明確に上回る75%まで押し上げました。
そしてPoetiqueがそこに到達した方法がより大きなポイントです。彼らは何か魔法のようなモデル訓練のブレークスルーを主張しませんでした。彼らは、GPT-5.2をARCのために特別に訓練していないと言っています。
彼らはメタシステムアーキテクチャという考えを推進しています。つまり、ソフトウェアレベルのシステム設計、オーケストレーション、タスクを解決するまでステップバイステップで適切な方法でモデルを呼び出す方法を知っているシステムの構築です。
つまり、あなたはただモデルが大きくなるのを見ているだけではなく、システムが賢くなるのを見ているのです。リーダーボードはまた、Gemini 3 Deep Think previewが混在しており、約46%のスコアを示しています。GPT-5.2ラインよりも明らかに遅れており、コストは若干高くなっています。
つまり、二つのことが同時に起こっています。モデルが改善しており、それらのモデルを包むシステムがパフォーマンスを倍増させています。
能力オーバーハング:モデルvs人間の使い方
そしてこれがOpenAI自身の言語が本当に興味深くなるところです。なぜなら彼らはこの「能力オーバーハング」という用語に強く傾倒しているからです。彼らは基本的に、モデルがすでに人々がそこから引き出している以上のことができることを認めています。
モデルができることと人間が実際にそれらを使用する方法との間にギャップがあります。ボトルネックはもはや生の知能ではありません。それは人間側です。ワークフロー、習慣、統合、そして生の能力を実際の結果に変える能力です。
それで、あなたはどう思いますか?ChatGPTがあなたの医療履歴を知ることと、ChatGPTがあなたの仕事全体をする方法を知ることと、どちらがより危険でしょうか?コメントを残してください。これは人々を激しく分断することになるでしょう。いいねを押して、チャンネル登録してください。視聴ありがとうございます。次回お会いしましょう。


コメント