本動画は、OpenAIが医療分野でAIをどのように実用化しようとしているのかを、研究と現場の両面から掘り下げる内容である。患者向けのChatGPT Healthから、医師の診断や治療判断を支える臨床支援まで、医療AIの安全性、評価手法、導入事例、今後の課題が具体的に語られる。特に、数百人規模の医師との協働によるモデル訓練や、ナイロビの診療所で診断・治療ミスを有意に減らした実証研究など、AIが医療を補完し、より予防的で個別化されたケアを支える可能性が示されている。

より良いヘルスケアのためのAI構築
こんにちは、私はAndrew Mayneです。こちらはOpenAI Podcastです。
今日は、OpenAIでヘルス領域を統括するDr. Nate Grossと、OpenAIでヘルスAI研究を率いるKaran Singhalにお話を伺います。
今回は、機微な質問に対応できるモデルをどのように訓練してきたのか、そしてそれが臨床医、患者、医療システムをどう支えているのかを取り上げます。
私たちは実際に、約250人の医師からなるグループと非常に密に連携し、このデータを作るあらゆる段階で協働しました。
そして今、長らく棚に置かれたままだった薬についても、AIが患者さんの生活に直接価値をもたらす使い道を見つけるようになりつつあります。
医療の道に進んだ理由
医療の世界に入るきっかけは何だったのですか。
最初に医療へ惹かれたのは、医療政策でした。とても関心があったんです。これはObamaの最初の大統領選より前のことでした。ちょうど価値基盤型医療が注目され始めた頃で、もっと多くの人が医療にアクセスできるようにする方法をいろいろ学び始めました。
それから最終的には、Emoryで医学部に進みました。そこで惹かれたのは、大規模な公立病院であるGrady Hospitalの存在です。自分に与えられたあらゆる臨床の時間を最大限に活かしたいと思ったんです。
具体的にはどんなことをしていたのですか。
主にIT部門を怒らせていましたね。
私が医学部にいた頃、ニュースフィードが登場し、iPhoneが登場し、Twitterが登場し、App Storeが登場しました。ですから、医師として私たちが持っていた技術、つまりファクス、クリップボード、紙のバインダー、そして電子カルテのごく初期の仕組みと、友人たちや待合室の患者さんたちが持っていた技術とを比べると、その差は本当に大きかったんです。
AI研究から医療へ向かった理由
あなたはAI研究者という立場から入っていますが、医療への応用に興味を持ったきっかけは何だったのでしょうか。
若い頃は、心の哲学のようなものにかなり夢中になっていました。知能とは何か、知能はどこまで到達しうるのか、機械は知的になれるのか、そういったことをよく考えていたんです。
そうした探究を続けるうちにAIを学び始め、最初のAIプロジェクトにも取り組むようになりました。そのなかで、AIが将来人類に非常に大きな影響を与えうることを強く意識するようになりました。未来を正確に予測していたわけでも、これほど速く進むと思っていたわけでもありませんが、AGIのようなものは自分たちの生きているうちに実現すると考えていました。
そして、その確信を持ってからは、自分がどのようにすれば前向きな影響を与えられるか、人類にとって本当に大きなプラスをもたらせるか、あるいはどうすればマイナス面を避けられるかを考えるようになりました。
それ以来、キャリアを通じてその両面をずっと考えてきました。安全性研究者としての視点からも考えてきましたし、それは私のバックグラウンドの一部でもあります。そして以前取り組んでいた安全性やプライバシーに関する研究を、医療にも応用し始めました。
そうしているうちに、これはとてつもなく大きな機会だと気づいたんです。特に大規模言語モデルを医療に応用することには、非常に大きな可能性があると感じました。それで、この分野にフルタイムで移ることにしました。何より、その機会の大きさと、医療や臨床AIの世界がまだそのギャップを十分に認識していないように見えたからです。だからこそ、そこへ私たちを導くことは、素晴らしい機会であり、同時に責任でもあると感じました。
OpenAIが医療に取り組む理由
そのビジョンと、実際にどう実装していくのかの両方を理解したいです。
OpenAIの使命は、AGIが全人類に利益をもたらすようにすることです。そして医療は、その実現可能性が最も高い分野のひとつであり、しかも最もわかりやすい分野のひとつだと私は思っています。
今の医療は、誰もが知っているように分断されています。ケアの取りこぼしがあちこちで起きています。患者さんは、情報が集約されている組織と関わる機会を、1年のうち364日も持てないことが多いのです。そして医師の側も、ようやく患者さんと接する機会があっても、単純な手術や反応的な処方を超えて、本当に意味のある影響を与える時間は極めて限られています。
現在のシステムは、予防的というより反応的です。そのことが、医療システムに大きな課題をもたらしていますし、ケアの大きな空白も生んでいます。
本来なら元気に過ごせるはずの人たちが、そのまま取り残されてしまう。それも起きています。私がOpenAIに加わった理由のひとつは、アクセスというテーマがずっと自分の人生を貫いてきたからです。知識へのアクセスです。最初は医療において、次に医師が最新の医学文献にアクセスできる製品を作ることにおいて、さらにその後は医療ツールを構築する起業家たちを支援することにおいてです。
しかしOpenAIには、それを生態系全体に対して一度に、しかも大規模に実現できる技術があります。患者さんを助け、医療従事者を助け、さらに健康市場のあらゆる領域や例外的ケース、難題に挑む優れた起業家たちを助けることができるのです。
ChatGPT Healthの戦略
ここでの戦略は何でしょうか。いまや多くの人が医療に関する質問をチャットボットにしていますが、皆さんが作ろうとしているのは、患者向けだけでなく臨床医向けも含めた、もっと大きく包括的なものに見えます。目標について教えてください。
患者さんは年間を通じて、ますますChatGPTのようなツールに頼るようになっています。実際、いまでは毎週9億人がChatGPTを使っています。そして、そのうち健康関連の質問をしている人は、ある週では4人に1人ほどです。つまり1日あたり4,000万人です。
ですから、ヘルス分野における私たちの戦略は、反応的であるのと同じくらい予防的でもあります。その強い消費者需要に伴う責任と、善をなす機会の両方に応えようとしているのです。
そこでChatGPT Healthでは、こうした対話を単に安全なものにするだけでなく、力を与えるものにする空間を作ってきました。
安全というのはもちろん、暗号化されていて、いわば一方向弁のような仕組みによって会話が保護されているということです。こうした追加のセキュリティ層と保護機構によって、ユーザーの医療データを決して訓練に使わないようにしています。そして、それに加えて重要なのが、利用者を力づけることです。
これまで人々が健康情報を探すために使ってきた検索エンジンには、文脈の記憶がありません。万人向けの一律なものです。しかし、医療では文脈が本当に重要です。ですから、患者さんが自分で選んだ文脈情報を持ち込めるようにする一連の機能や技術的なフックを構築しています。そうすることで、AIと関わるたびに、その人自身の文脈に基づいた対話になる。これこそが、私たちがChatGPT for Healthの基盤を築いた重要な理由です。
医療モデルの訓練と安全性
データを分離して、そこから漏れないようにし、非常に厳格な方法でデータの安全性を確保していることは理解できます。でもモデルそのものについてはどうでしょう。医療のような領域で機能するモデルを訓練するには、何が必要なのでしょうか。世界で最も重要なことのひとつですよね。
そのとおりです。これはハイステークスな領域ですし、人々が実際に使っているからこそ、私たちは確実に正しくやらなければなりません。
ですから、医療に関する評価や訓練を考えるとき、私たちはいくつかのことをとても重視しています。これは実際、OpenAIにおけるヘルス分野の仕事の基盤そのものです。
ヘルス分野の取り組みを始めた当初、私たちは安全性とグラウンディングを非常に重要な動機として考えていました。実際、OpenAIでヘルス分野に取り組み始めるひとつの仮説は、これが安全性やアラインメントに関する研究を現実にしっかり結びつける優れた方法になる、というものでした。そして、この問題に向き合う研究者たちに、具体的なインセンティブとフィードバックループを与えることができるとも考えました。
つまり、ここでのモデル改善や安全性の検討は、あとから付け加えられたものではありません。むしろ、この仕事の出発点なのです。
ですから、私たちが最初に取り組んだのは評価でした。すでにモデルが人々にとって有用になり始めているとしたら、その有用性をどう捉えるかを考えたのです。実際、モデルができることと、人々がそれをどう使っているかのあいだには、すでに能力の先行分がありました。
そこで私たちは、その問題に向き合い、いまなおモデルにどんなギャップがあるのかを考え始めました。それが私たちの評価研究につながっています。
そのために、かなり方法論的に興味深いアプローチを取りました。そしてその多くは、HealthBenchという仕事に反映されています。これは、医療従事者または一般利用者がモデルと行う現実的な対話を評価するもので、こうした複数ターンの会話において、モデルの性能と安全性を測定する仕組みです。
この取り組みでは、約250人の医師からなるグループと非常に密に協働しました。この評価で重点を置くべき領域は何か、どの領域が臨床的に重要で、影響が大きいか、そして具体的に何を採点すべきかといったことを、データ生成のあらゆる段階で一緒に考えていきました。
評価項目は幅広くあります。たとえば、相手が一般の人なのか、それともより専門的な医療従事者なのかに応じて回答を調整できているか。あるいは、最初の回答を出す前に文脈を確認すべきかどうかを考えられているか、などです。
モデルは以前に比べると、必要なときに文脈を求めるのが格段に上手くなりました。というのも、ユーザーはしばしば、最も役に立つ情報を返すためにモデルが必要とする情報量よりも、ずっと少ない内容しか入力しないからです。
焼けるように痛い。
まさにそうです。たとえばユーザーが「焼けるように痛い」とだけ入力したとします。そのとき、どう情報を返すのが適切かを考える必要があります。もちろん、ユーザーが何を意味しているかについて印象をもとに初期情報を返すことはできます。
けれど、その状況で最も役に立ち、かつ最も安全なのは、実は追加の文脈を尋ねることです。これも、HealthBenchで性能を測定した多くの方法のひとつにすぎません。
HealthBenchでは、実際には約4万9,000もの異なる性能次元を測定しました。今のは、その一例です。つまりこれは非常に多面的な評価であり、250人の医師のコホートと長い時間をかけて一緒に構築したものです。評価を完成させて公開するまでには、端から端まで約1年かかりました。
OpenAIの医療モデルが先行している理由
モデル開発のサイクルを見ると、ある会社が少し先行し、別の会社が追いつく、といったことが起きていますよね。ただ、OpenAIの医療モデルにはひとつの傾向があるように思います。HealthBenchや他の評価でも、かなり大きな差をつけて一貫して先行しています。なぜなのでしょうか。
私たちには、この分野に対するかなり専念した、本気の取り組みがあります。それは部門横断的であり、スタック全体にまたがっています。展開前評価から、HealthBenchのような評価、さらには本番トラフィックの監視、本番環境でプライバシーを守りながら安全性を確保する方法の検討まで含まれています。
そして、そのすべての過程で医師たちと協働しています。私の知る限り、OpenAIのモデルは、事前学習から中間訓練、事後訓練、そしてそのあいだのあらゆる工程に至るまで、主要な各段階に医療を統合している唯一の主要モデルです。
その結果として、私たちのモデルは自社ベンチマークだけでなく、他者が作ったベンチマークでもかなり優れた成績を示しているのだと思います。
Karanが言ったモデル訓練の話に少し付け加えたいです。というのも、医療エコシステムの方々と話していると、そこが彼らにとって最も重要な点のひとつだからです。
これらのモデルは、開発段階において何百人もの医師と共に訓練されました。彼らは5,000を超える会話と、AIの回答を評価して点数化し、どこを改善できるかを特定するための4万8,500の評価基準を作成しました。そこから、追加データの取得や追加の事後訓練、特定のサブスペシャリティや特定地域への最適化を進めていったのです。
どの健康トピック、どの医療トピックで改善できるかについて、ユーザーからフィードバックを受けながら進めてきました。
さらに重要なのは、医師との距離が近いことによって、モデル開発で本当に重視すべき部分が明確になることです。ほかの場所では、ときどき医学校の試験や専門医試験での成績が話題になります。
けれど、医療は四択問題ではありません。患者さんは非常に複雑な背景、自分自身の物語、微妙なニュアンス、文脈を抱えてやってきます。そしてそれは実にさまざまな形で現れます。医療に携わる仕事の一部は、それらのバラバラな情報源を引き寄せ、経験も踏まえながら、頭の中で全体をバランスさせることなのです。
ですから、いつエスカレーションすべきか、どうエスカレーションすべきかを考え、常にそれを最優先に置く訓練の仕組みは重要です。あるいは適応的リテラシーもそうです。いま患者さんが診察を受けたときに渡される画一的な説明用紙と比べてみてください。モデルなら、相手が腫瘍内科医なのか、プライマリケア医なのか、ケニアの薬剤師なのか、それとも12年生レベルの読解力を持つ患者さんなのか、3年生レベルの読解力を持つ患者さんなのかを踏まえて、異なる応答を返すことができます。
これは、正確性とインパクトを最大化するうえで極めて重要であるだけでなく、患者さん側でも、誰もが自分自身のケアに最大限参加できるようにするために非常に大切です。
そして最後に、不確実性です。1年半ほど前を振り返ると、AIモデルの誤りとしてよく指摘されていたのは、自信過剰なハルシネーションでした。
医療のようにこれほど重大な領域では、モデルが自分の知らないことをより適切に理解し、それをきちんと口にできることが最も重要なことのひとつです。さらに、その後に患者さんが医療システムへの紹介のなかで深掘りできるフォローアップや、医師がモデルを使っているなら実施しうる検査や追加の検討経路を提案できることも重要です。そうすることで、患者さんを最善の結果へ導けるようになるからです。
これからの課題とブレークスルー
知能のコストは毎年下がってきています。それはとてもわくわくすることです。毎年、より良い答えが得られ、医療もヘルスケア全般も改善していくからです。でも課題は何でしょうか。何が障害になるのか、先を見て何を解決しなければならないと考えていますか。
知能のコスト低下は、ここでは本当に刺激的です。なぜなら、私たちが強く意識し大切にしているものの多くが、実際にはアクセスに関わるものだからです。より多くの人がこの技術にアクセスできれば、より多くの人が恩恵を受けられます。だからこそ、ChatGPT Healthをすべての無料ユーザーへより広く展開しようとしているのです。これは本当に楽しみです。
研究者としてもうひとつ考えているのは、知能の追加的な向上がどこで最も大きく効いてくるのか、という点です。Nateも触れていたように、いまはさまざまなモダリティにまたがるデータがますます集まっています。人々がChatGPTを使うあらゆる方法、さまざまなモダリティ、ウェアラブル、そういったものから集まるデータを、どう統合していくか。検査結果のようなデータも含めてです。
ここは、知能が大きく累積していく場所のひとつだと思います。そして、ゼロから一を生むような新しい能力が見えてくるでしょう。たとえば、モデルが私の10年分の全履歴を見て、人間でも出せないような予測を教えてくれる、といったことです。単にモデルのコンテキストサイズの方が大きいからこそ可能になるわけです。
そういうゼロから一の能力を考えるのは、とても面白いです。
もうひとつ常に意識しているのは、人々がいまChatGPTをどう考え、どう使っているのかということです。それを測定できるのか、改善できるのか。いま私たちは、ちょうど面白い転換点にいると思っています。
私はチームに対してよくこう言うのですが、私は自転車で通勤しています。ヘルメットをかぶり、横を走る車のことを気にしながら走っています。ここサンフランシスコでは自動運転車がたくさん走っていて、Waymoもあります。
そして最近、Waymoの横を自転車で走ると、人間のドライバーの横を走るよりもむしろ安全だと感じる地点に達したんです。死角に入っていないかとか、そういうことを心配しなくていい。Waymoのそばにいることで、守られているような感覚があるんです。
私はこの守られている感覚を、誰にでも持ってほしいと思っています。ヘルスAIでも、誰もがそういう保護効果を得られるようにしたいんです。家族に医師がいると健康に保護効果がある、という研究もあります。
患者さんであれ医療従事者であれ、患者としてこれがあることでより安心できる、医療従事者としては自分の意思決定に対するセーフティネットになる、そう感じられるようにしたいのです。これは、次の半年ほどで私たちが越えていくフロンティアのひとつだと思っていて、とても楽しみにしています。そういう変曲点です。
もうひとつ考えているのは、展開後に特定のワークフローをどう監視するのが正しいか、ということです。ここでぜひ触れたいよい例が、PandaHealthと行ったAI臨床コパイロット研究です。
この研究では、ナイロビの20ほどの診療所と協働し、その文脈のなかで臨床医のためのセーフティネットをどう展開できるかを考えました。基本的には、電子カルテに入力される内容を監視し、何か気になることや潜在的なエラーが起きていそうなときだけ、その流れを妨げる仕組みです。
そして実際にこのツールを現場の臨床医に展開したところ、使っていない臨床医と比べて、診断と治療の誤りが統計的に有意に減少したことがわかりました。
これは、単なるモデル評価や、今日人々がChatGPTをどう使っているかの監視を超えて、こうした技術を組み込めるワークフローそのもの、そして展開後にそれらをどう評価すべきかを考える方向への一歩だと思います。ここも、私たちが非常に楽しみにしているフロンティアであり、パートナーからさらに多くを見たいと思っているところです。
医療従事者側の信頼とシステム統合
Nate、課題は何になると思いますか。
まずは、医療従事者側に存在する課題からお話しします。
医療従事者が日々AIを使うとき、彼らが求めているのは、表示された答えを信頼できることです。ですから最近の私たちの取り組みの多くは、AIが返す答えが、単にモデルが学習した内容に基づいているだけではなく、最新の医学文献や最新のガイドラインに基づいていることを確実にすることに向けられています。
場合によっては、それぞれの医療機関や地域の最新の指針に基づく必要もあります。国のなかでも、地域によって治療法が異なる病態がありますし、ケアの現場によって、使える資源や専門医の数、追加サービスの有無も異なります。
そういう違いを医療従事者が素早く把握し、完全に個別化されたケアプランを立てられるようにすることは、とても重要です。
そのため、ChatGPTのなかに接続性を組み込み、HIPAAに整合した安全な環境で使えるだけでなく、機微情報と最新の医学知識を組み合わせられるようにすることは、私たちがすでに歩み始めた非常に有望な道筋です。そして今後も、医療従事者とAIの関係において信頼を最優先に保ち続けるうえで重要だと思っています。
もうひとつの課題は、医療システムそのものが非常にサイロ化されていることです。組織レベルでもそうですし、各組織の内部で使わなければならないツールのレベルでもそうです。
これまでAIは、テクノロジー業界では基本的に点的なソリューションとして展開されてきました。しかし今では、何百もの異なるシステム、アナログなものもあればデジタルなものもあり、構造化されたものも非構造化なものもあり、分散しているものも、クラウドに載っていないものも多い、そうしたシステム同士をつなぐ接続性が徐々に利用可能になってきています。
それらすべてを統合的なAIレイヤーでつなぎ、患者さんや情報が隙間からこぼれ落ちないようにし、接続性を最大化して最大のインパクトをもたらす。これは医療において非常に難しいことですし、解決済みだとは到底言えません。
ただ、ChatGPT for healthcareとそのアプリ・コネクタとの接続、OpenAI API for healthcare、さらにはモデルやエージェントのためのFrontier Foundationなど、私たちの最近の製品群によって、医療システム内で何が可能か、エージェントが何を達成できるかを、ますます加速できる機会が生まれてくると考えています。
医療エコシステムとの連携
この取り組みは、医療業界と非常に協調的に進めているように見えます。ChatGPT Healthアプリを使ったとき、最初に自分の記録を入れられたのですが、その実現にはエコシステム全体でかなり協力があったように感じました。これはどのように実現してきたのでしょうか。今後どこへ向かうのでしょうか。
患者さんがChatGPTから可能な限り良い答えを得られるようにする文脈情報を提供するうえで、医療システム全体のあらゆる関係者が、国内外を問わず、平等に貢献し関与できることが極めて重要です。
電子カルテの側面で言えば、これは政府やCenters for Medicare and Medicaid Servicesと連携し、電子カルテ同期のための国家標準を採用することを意味します。そうすることで患者さんは、ほんの数回タップするだけで、同意に基づいた形で自分の文脈情報を取り込めるようになります。
また、携帯電話や主要な消費者向け健康製品、主要なバイオセンサーやウェアラブルといった既存の標準にも接続できることが重要です。繰り返しになりますが、ほんの1回か2回タップするだけで、患者さんがその情報を持ち込めるだけでなく、それを思慮深く活用できるようにすることが大切なのです。こうしたエコシステムのなかで複数のデータが組み合わさることにより、以前は不可能だった活用法も見えてきます。
たとえば、最近の運動量を参照しながら今夜の過ごし方の計画を立てたり、夜間の睡眠やストレスの状態をもとに、エージェントが翌日の予定をどう組むか、どのタスクを先にやるべきかを助けたりすることもできます。
ウェアラブルと日常生活への統合
とてもわくわくしますね。私もスマートリングや腕時計などを持っていますが、そうしたデータを得ても、アプリ上ではリングが出てきて、何となく眺めて、まあ何かしてくれているんだろう、くらいにしか思えないんです。
そこにChatGPTを接続できるようになったのは本当に素晴らしいことでした。おかげで、そうした種類の質問ができるようになったからです。
さらに面白いのは、医師からの提案を受けたときに、それを踏まえて、昨日はあまり歩けなかったけれど今日は何をすればいいですか、といった質問ができることです。私はメニュー計画もかなりやらなければならないので、実際にメニューを見せて、何を注文すべきか教えてほしい、といった使い方もしています。
つまり、今後はそういうことがもっと増えて、しかもずっと良くなる、ということですね。
そうです。だからこそ、私たちのパートナーシップがとても重要だと考えています。こうしたケースでは、ChatGPTがパートナー企業の優れた技術を置き換えるわけではありません。彼らは特定のウェアラブルから深い健康インサイトを引き出す技術を作っています。
ただ、私たちの接点、つまりその健康情報を取り込み活用する機会は、ChatGPTが使われるさまざまな場面にまで広げることができます。たとえば、夕食に何を作るか、午後をどう計画するか、そういったことまで含めてです。
私はときどき、二人の患者さんを思い浮かべます。ひとりは、自分ひとりで医療システムを渡っていかなければならない患者さん。もうひとりは、配偶者が付き添ってくれる患者さんです。その配偶者はクリップボードを持ち、以前に医療従事者として働いていて、とても注意深く、やや神経質なくらいに細部までフォローしてくれて、個人のカレンダーにもつながっているような人です。
患者さんが望み、同意したうえで、その最良の側面を取り入れられるなら、患者さんがケアプランに従いやすくなり、自分自身の健康において船長のように主体的な役割を果たし、ケアチームや主治医と協力して進められる未来を表していると思います。
そして、これらのプロセスのあいだに歴史的に存在してきた摩擦、つまり情報がついてこないとか、追うべきことが多すぎるとか、古い情報を読み解いて取り込まなければならないとか、そういった摩擦を取り除けるなら、私たちは非常に大きな善をもたらせるはずです。あるいは患者さん自身が、自分のケアプランのなかで非常に大きな善を行えるように力づけることができるはずです。
医師の時間を増やすためのAI
医師としても、できるだけ多くの時間を患者さんに使いたくても、1日の時間より患者数の方が多いわけですから、それが難しいことはよくわかります。その意味で、無限の時間と無限の忍耐を持つような技術が補完的に存在するのは興味深いですね。
医療従事者に最も足りないものがひとつあるとすれば、それは時間です。ですから、OpenAI内部での自分たちの役割を考えるとき、私たちはよく仕事を三つのバケツに分けて考えます。
ひとつ目は、底上げです。AIとその恩恵を誰もが利用できるようにすることです。患者さんもそうですし、医療従事者、そしてヘルス関連産業で働く人々も含まれます。
二つ目は、床を掃くことです。つまり、医師や他の医療専門職が日々抱えている膨大な事務作業や官僚的負担を減らし、患者さんと向き合う時間を増やせるようにすることです。
そして三つ目は、天井を引き上げることです。AIが医療に与えうる影響によって、数年後にこの分野を振り返ったとき、医療は引き続き主導権を握っていながらも、かつてないほど力を得て、みんなで一緒に大きく前進したと感じられるようになると思います。
たしかに、医師が患者さんに時間をかけすぎたと感じる人は誰もいませんよね。ですから、そこを解決する助けになるように見えます。
AIと医療が交わる瞬間の驚き
AIと医療の交差点で、これはすごいと感じた、お気に入りの気づきや驚きの瞬間は何でしたか。
少し変わった答え方になりますが、この1年で私にとって最も驚くべきだったのは、実はヘルス分野の採用速度です。しかも、それはChatGPT Healthという製品を発表する前から始まっていました。
ヘルスとウェルネスに関する質問は、私たちの最も急成長しているユースケースのひとつでした。そして、毎週何億人もの人々がChatGPTを健康やウェルネスのために使い始めていることを共有しました。
もともと私は、医療や臨床AIの世界が医療における大規模言語モデルの可能性をまだ十分に認識していないと感じたことが、この問題に取り組む動機のひとつでした。ですから、ここまで進んできたことを目の当たりにできたのは、私にとって本当に特別な瞬間でした。
間違いなく、この技術が採用されていること、そしてそれが医療システムとますます協調的になり、モデル改善のためのフィードバックループが私たちに返ってくるようになっていることが、最も意味のあることであり、最も使命に沿ったことです。
ただ、それと同じくらい私が興奮するのは、そのフィードバックを使って研究チームが彼らに何を返せるようになっているかです。
それは単なるモデル能力の話ではありません。モデルがより長く走り、より大きな文脈を扱えるようになったときに、何が解き放たれるかということです。長く棚に置かれていた薬についても、AIが突然、患者さんの生活に意味のある、直接的な価値をもたらす方法を見つけ始めています。
AIは、私たち個人では到底さばききれなかった実験をスケールさせ始めてもいます。その協働と能力向上が結びつくことで、単に面白い段階から有用な段階へ、そしてますます変革的な段階へと移っていく。それが、今年に向けて私たちにとって最もわくわくすることだと思います。
現場からのフィードバック
しばらくこの仕事を続けてきて、臨床医とも関わり、導入支援にも携わってきたわけですが、どんなフィードバックが見えてきましたか。
ナイロビに飛んで、実際に臨床医たちがツールを使っているところを見た経験は大きかったです。私たちは、アクティブ・チェンジ・マネジメントと呼んでいることを行いました。臨床医たちと非常に密接に協働し、ケニアにも何度か足を運んで、AIツールを彼らのワークフローのなかでどう深く使えるようにするかを考えたのです。
彼らにとって意味のあるものにするだけでなく、本当に欠かせないものにするにはどうすればよいかを考えました。
そして研究を終える頃、PandaHealthのチームは、次の研究を行うことも考えていました。ところが、その次の研究にはかなりためらいがありました。なぜなら、臨床医の一部はAIを使い、一部はAIを使わない、という構成にしなければならなかったからです。
彼らは実際、AIを使わない臨床医のグループを持つこと自体が危険だと感じたんです。その時点で私は、これは大きなことを成し遂げたのだ、と感じました。
私たちのメンバーから日々届く話も、この仕事の最も意味深い部分のひとつです。そこには、家族の介護をしながら自分自身の健康も何とかしようとしている、ますます負担の大きいケアギバーたちがいます。
また、本当に毎日過負荷の中で働いている医師や看護師たちからの話もあります。私たちは、彼らの専門性を広げ、きつい一日の一部を少しだけ圧縮する手助けができます。
そして、ときには、これはまだ稀ではあるものの増えつつありますが、奇跡のようなケースもあります。何年もシステムのなかをたらい回しにされてきた患者さん、解決していなかった診断、情報が存在しなかった救急の場面。そこに突然入り込み、支援し、加速し、本当に役立つケアへ人々をつなげられるようになる。それは本当に光栄なことです。
本当にわくわくしますね。これは増幅装置のようなものですし、私の知るすべての医師は患者さんのためにもっと多くのことをしたいと思っています。どうもありがとうございました。とても興味深いお話でした。
ありがとうございます。


コメント