サピエンスと人工知能:競争か補完か?6/10 ジャン=エマニュエル・ビボー

AGIに仕事を奪われたい
この記事は約22分で読めます。

12,845 文字

Sapiens et Intelligence artificielle : rivalité ou complémentarité ? 6/10 avec Jean-Emmanuel Bibault

私たちは今日、特別なポッドキャストシリーズ「人工知能とサピエンス:競争か補完か」を続けています。本日はパリ・シテ大学の腫瘍学・放射線療法教授であるジャン=エマニュエル・ビボーをお迎えしています。こんにちは、ジャン=エマニュエル。
こんにちは。ジャン=エマニュエル・ビボーは、がんと放射線療法の専門家です。後ほどご専門についてお話しいただきますが、ジョルジュ・ポンピドゥーヨーロッパ病院で勤務され、同時に医療応用人工知能の分野の研究者でもあります。あなたの研究は医療実践への人工知能の統合に焦点を当てており、このような研究をINSERMで実施されています。また「2041:医療のオデッセイ」という本を執筆され、人工知能時代における医療の将来展望を探っておられます。そして、新しい本も出版されたと伺いました。
はい、2冊目の「がん秘話」という本です。これは170万年前から現代までのがん学の歴史と、今後数十年で登場する革新について語っています。
では、AIと医療、AIとがん、AIと病気、そしてより一般的には医療技術と医療専門職における人工知能のこの目覚ましい進歩について話し合いましょう。番組を始める前にジャン=エマニュエル・ビボーがおっしゃっていたように、すべてが驚くべき速さで進み、日々加速しています。
はい、私はこのテーマについて丁度10年前から研究を始めました。フランスで博士論文を書き始め、その間アメリカに行って、またフランスに戻ってきたのですが、約2年半前、特にLLM(大規模言語モデル)の登場と民主化から、明らかに加速が起こっています。これはみなさんがご存知のChat GPTの基本技術ですが、これらの手法の登場と民主化により、かなり目まぐるしい加速が起きています。
その証拠に、先週xAI(イーロン・マスクのスタートアップ)からGrok 3というモデルがリリースされました。彼は数ヶ月で10万基のGPU(AIを訓練するための計算装置)を設置したのです。誰もが不可能だと思っていたことを彼のチームは実現し、NVIDIAのCEOを感心させるほどでした。NVIDIAはGPUを販売する企業で、世界中でほぼ独占的地位にあります。すべての企業がNVIDIAのGPUを使用しており、NVIDIAはマスクのスタートアップに投資するほどでした。
要するに、先週リリースされたこのモデルは、予想以上に印象的です。試してみましたが、他のモデルよりも本当に優れています。そして、本当に驚くべきことに、毎週前の週よりも優れたものがリリースされています。多くの人々は2025年が一般的AI、強いAI、あるいはシンギュラリティ(特異点)と呼ばれるものの年になると考えています。つまり、ほぼ自己意識を持ち、人間よりも知的で、ほぼ自己改良できる人工知能のことです。私もそう考えることに近いです。今日のような番組を6ヶ月後や2025年12月に行えば、世界はすでに完全に変わっているかもしれません。
これらすべてについてもっと話しましょうが、まずはあなたの日常である人工知能の特定の病気、特にがんへの応用から始めたいと思います。現在2025年2月下旬から3月上旬ですが、人工知能によるがん治療はどの段階にありますか?
まず、病院での日常の現実について話すことができます。放射線腫瘍学での人工知能の使用です。AIは画像解釈に特に効果的で、これはディープラーニング(特定のタイプのAI)の最初に注目されたアプリケーションの一つでした。がん学では、放射線療法を受ける患者の画像を分析するためにこれらのAIを毎日使用しています。
なぜこれが必要かというと、放射線療法を行うとき、患者のCTスキャンを撮り、コンピュータ上でスキャンの各スライスに正常な臓器と放射線で破壊しようとするがんの場所を描きます。つい最近まで、これを手動で行っており、数時間かかることもありました。今はディープラーニングアルゴリズムによって行われ、スキャン画像がサーバーに送信され、わずか3分で輪郭が完全に描かれた状態で返ってきます。つまり、すべての臓器がすでに3Dで画像上に描かれており、私たちはその輪郭の質が最適であることを確認するだけで、治療準備の次のステップに進むことができます。これにより、患者一人あたり2〜3時間節約できています。
これは一つの応用例ですが、他にも多くあります。もう一つ紹介すると、昨年キュリー研究所で、原発不明がんの患者がいました。これは転移があるけれど元のがんがどこから来たのかわからないケースです。研究者たちはその転移のトランスクリプトーム(タンパク質の発現)を分析し、最も可能性の高い原発巣を特定して治療し、今のところ患者は回復しています。このようにAIは、より詳細にどのタイプのがんかを特定することもできます。これらは既に存在する日常的な応用例で、その数はますます増えています。
さらに今後登場するものとして、患者に直接対応するAIがあります。これは医療専門家によるツールとしてではなく、患者が直接医療情報を得たり、病気や症状、治療の副作用などを監視するために使用されるAIです。例えば医療報告書を生成し、診察前に医師が受け取ることで治療を最適化できます。医療におけるAIの可能性に限界はなく、唯一の制限は想像力だけです。
前述のように、物事は急速に加速しており、特にアメリカ、そして中国でも(ただし中国での状況は詳しくわかりません)。ヨーロッパはやや遅れをとっていると懸念しています。特に、アメリカよりも規制の枠組みが厳しいためです。
がんのような病気への人工知能の応用について、さらに進んだことを考えることができますか?例えば、がんが発症する前に前兆や素因を特定するような予測医療は想像できますか?
それは既に臨床研究では行われています。例えば、スタンフォードはがんで死亡するリスクを10年前に予測するモデルを開発しました。また最近、私が指導したENS(高等師範学校)の学生たちと一緒に、喫煙者が肺がんを発症するリスクを5年前に予測するモデルを作りました。
これが興味深いのは、そのリスクに応じて、例えば高リスクの患者にはより多くのスクリーニング(胸部CTスキャンなど)を行ったり、肺がんのリスク要因(主にタバコですが他にもあります)を減らすよう強く促したりできるからです。これらのモデルは実際の臨床で潜在的に役立つため興味深いです。
より複雑なのは、「実行可能でない」モデルもあることです。つまり、リスクを予測するが、なぜそのリスクを予測したのかの理由を示さないモデルです。「あなたはこのリスクがあります」と言われても、それに対して何をすればいいのかわからないのです。このようなモデルを開発し使用する意義については、より慎重に検討する必要があります。特に不安を増幅させるだけで、医学的には大した価値を提供しないかもしれないからです。モデルを作成する前に、そのモデルで何をするかについて考える必要があります。
AIのこの普及と加速が全体的に医療を改善し、より多くの人々がこのような技術にアクセスできるようになると思いますか?
これは諸刃の剣です。まず、AIモデルの展開は、MRIやCTスキャン、放射線治療機、手術室などと比較すると、実はあまりコストがかかりません。もちろん、AIモデル単体では大したことはできませんが、例えばニューヨーク、パリ、ベルリンなど、どこにいても同じ品質の治療を確保するために使用できます。同じモデルを展開するため、放射線治療の例では、どこにいても同じ画像処理の品質が得られます。これまでアクセスできなかった地域でも治療を受けられるようになる可能性があります。これは放射線治療だけでなく、一般診療や診断にも当てはまります。多くの研究が、特定のアルゴリズムが非常に優れた診断を行うことを示しています。
一方でリスクもあります。これらのアルゴリズムを地域にどのように展開するかについて考えないと、MRIの例と同じ状況になります。フランスでも地域によってMRIへのアクセスのしやすさや検査の待ち時間が異なります。モデルの展開や病院での実装、そしてもちろん資金調達方法について注意しないと、逆説的にAIによってヘルスケアへのアクセスの不平等がさらに深まる可能性があります。
リスクの三つ目のカテゴリーは、バイアスのあるAIです。多くの例がありますが、最も有名なのはスタンフォードで数年前に開発された、皮膚のメラノーマや皮膚病変を診断するAIです。皮膚科医と比較され、多くの場合AIの方が優れていることが示され、研究はNature誌に掲載されました。しかし数ヶ月後、このAIが実はアフリカ系アメリカ人の肌に対しては非常に不正確だったことがわかりました。なぜなら、アルゴリズムのトレーニングに使用されたデータにアフリカ系アメリカ人の肌のサンプルがほとんど含まれていなかったからです。
これはAIの真の問題です。トレーニングデータ(AIの作成に使用したもの)とAIが使用される対象集団との間の「アライメント」を確保する必要があります。これはどういう意味かというと、明日アメリカの集団に非常にうまく機能する医療ツールがあっても、それはヨーロッパの集団には同様にうまく機能しない可能性があるということです。それぞれの特殊性があるからです。
これは研究初期の「子供の病気」のような状況ではありませんか?問題やエラー、バイアスが特定されたら、それを修正して、より優れた普遍的なシステムを構築できるのではないでしょうか?
肌の色についてはキャプチャして修正するのは簡単ですが、より複雑なアルゴリズム、例えばゲノミクスや放射線画像解析では、バイアスの検出ははるかに複雑で実際の問題です。フランスやヨーロッパの集団に特化したAIを開発しなければ、アメリカの集団でうまく機能したアメリカのAIやその他のAIを使用することになりますが、それがヨーロッパの集団では全く機能しない可能性があります。これはデータのバイアスに関連する実際の公衆衛生リスクです。
ヨーロッパのツールを開発できるようにすることが極めて重要であり、この課題は「主権」と呼ばれるものを超えています。これは純粋に公衆衛生の問題であり、フランスやヨーロッパで適切なツールが作られなければ、フランスやヨーロッパの患者が潜在的に不利益を被る可能性があるのです。
医療分野でのAI対人間の対決について考えてみましょう。医学コンペティションで、現在のスコアはどうなっていますか?AIは医師を超えていますか、それとも医師がAIよりも優位性を保っていますか?
この質問に答えるには、まず異なるタスクを区別する必要があります。AIがすべての医療分野で人間よりも優れているわけではありません。
最初の例として、医療画像解析があります。AIが医師と同等かそれ以上の性能を示す研究が増えています。2023年夏にLancet誌に掲載されたスウェーデンの研究では、8万人の患者を対象に乳がん検診において、2人の人間による二重読影と、1人の人間とAIによる読影を比較しました。ランダム化研究の結果、AIと医師の組み合わせは2人の医師と同じくらい効果的でしたが、時間は半分しかかかりませんでした。次の研究ではAI単独と人間の二重読影の直接比較になるでしょう。
さらに、乳房X線写真から5年以内にがんを発症するリスクを予測できるAIもあります。医師も多少はできますが、AIほど定量的に正確ではありません。整形外科放射線学や胸部CTスキャンの解釈など、他の例も挙げられます。
放射線科については、AIが一部の医師と同等かそれ以上の性能を持っているようです。これは数年前から放射線科医、特に若手の間で懸念を引き起こしています。「数年後に私の職業はまだ存在するだろうか」という疑問です。ディープラーニングの研究者で今年ノーベル物理学賞を受賞したジェフリー・ヒントン(ヤン・ルカンとともにディープラーニングの先駆者の一人)は2017年に「5年後には必要なくなるから放射線科医の養成を止めるべきだ」と言いました。今は2025年ですが、私たちはまだ放射線科医を必要としています。AIの良好な性能にもかかわらず、放射線科医の養成を止める理由はないと思います。放射線科医であることは単に画像から診断を下すだけではなく、それ以上のことがあるからです。
二つ目のユースケースは診断です。症状に基づく純粋な診断について、AIが複雑な医学的推論を含め医師よりも優れていることを示唆する文献が現れています。残念ながら、医師が診断のためにAIを使用すると、AI単独よりも性能が低下するようです。
最近ハーバードとスタンフォードによって実施された研究では、複雑な医学的推論において、OpenAI(Chat GPTの開発元)のモデルであるClaude AIが人間の医師よりも優れていることが示されました。医師は40%の正答率でしたが、AIは80%の正答率でした。さらに別の研究では、医師がAIを使用すると医師単独よりも良いが、AI単独よりは悪いことが示されました。
症状に基づく診断において、私たちは最高のパフォーマンスを提供するツールを使用する責任がある状況に向かっています。これは医学の原則です。患者に最善のものを使うことです。しかし、医師がAIを使用するとAI単独よりも劣るとなると、医師がAIを使用することは潜在的なリスクや不利益をもたらす可能性があります。医師によるAIの使用方法、彼らの役割について考える必要があります。彼らはAI医療の一種の超秘書になるのでしょうか?それとも、AIの使用について医師をより良く訓練する必要があるのでしょうか?あるいは、AIが医師よりも優れているなら、自己愛的な傷を超えて受け入れるべきでしょうか?
AIがチェスなど多くのゲームで人間より優れていることは事実として受け入れました。医師も十分に訓練されていても、ある時点でAIの方が優れているという事実を受け入れることができるでしょうか?車の修理工場の例を考えると、モーターの動作を分析するAIがあり、数秒で「キャブレターに問題がある」と言えば、より良く動く車を得るためにそれを受け入れます。
私はそれに同意しますし、医師の役割は仕事と給料を確保することではなく、患者に最良の治療を保証することだとよく言います。ただし、小さな制限があります。医師に行くことは修理工場に行くのとは違います。純粋に科学的・医学的なパフォーマンスを超えて、人間関係の部分が非常に重要です。多くの医師や患者と話して明らかになったのは、理想的には医師がAIを使用しながら、AIと患者の間のインターフェースを保つべきだということです。
ただし、2023年にJAMA誌に掲載された研究では、AIの共感度と人間の医師の共感度を評価しました。患者からの質問に対する書面での回答を、人間の医師のグループとAIのグループで比較し、その後、医師と患者で構成される委員会が回答の共感度を評価しました。AIが提供した回答の方が共感度が高いという結果でした。
私はいつも物事の両面を示そうとしています。物事は流動的で、時々見えるほど単純ではありません。一部の人々はこれらの問題について非常に強い信念を持っていますが、それらはすべてAIのパフォーマンスによって再検討されています。全体的なメッセージは、AIが医学の純粋に科学的な部分で人間よりも優れている可能性がありますが、人間的で共感的な部分、あえて言えば医学の「芸術的」部分では、AIはまだ十分ではないということです。
現在AIは主にテキストベースであることを忘れてはなりません。今後数年間でオーディオやビデオのAIが登場するでしょうが、それでも人間による診察のレベルに達するには不十分でしょう。患者がAIと直接対話することを受け入れるまでには、まだ長い道のりがあります。
ただし、これらのツールの使用も世代によって変化しています。60歳や80歳の患者は、このようなツールの使用にもっと躊躇するでしょう。一方、現在非常に若く、インスタグラムやTikTokの世代で生まれた患者は、治療を受けるためにこれらのツールを使用することに何の問題も感じないでしょう。今後数年・数十年で、AIの性能向上だけでなく、文化や使用習慣に関連する受容性も増加していくでしょう。今日は真実でも、数ヶ月後には完全に間違っている可能性があります。
冒頭で2025年、つまり今が一般的AI、強いAI、あるいはシンギュラリティへの転換点になるとおっしゃいました。あなた自身は日中AIと一緒に仕事していますが、個人的にこの転換を感じていますか?
私はいつも非常に断定的な人々を少し警戒しています。私は懐疑的でしたが、実際には大きな加速があることを否定できません。おそらく主に経済的な理由(特にアメリカで)によって動機づけられており、ニュースをフォローしていれば、この加速を日々目撃しています。これは実際に生きる上で非常に特別な時代です。何か信じられないことが起きています。今後長い間、歴史の本でこの2〜3年について語られるでしょう。
単純な例を挙げると、iPhoneの前と後があり、今や誰もがiPhoneを持っています(あえて持たないと決めた人を除いて)。私たちは「AIのiPhone時点」を経験しているのです。AIが普及し、絶対に遍在するようになり、それは毎日感じられます。2024年から2025年にかけてのこの「スイッチ」について、インターネットの前と後と同じように話されるでしょう。ただし、インターネットは10〜15年かかりましたが、興味深いのは、インターネットもiPhoneも意識を持つようにはならなかったことです。
本当にあなたの感覚を教えてください。これは質的な飛躍であり、信じる人と信じない人がいますが、私はそれが本当に起きつつあると思います。2025年12月までに一般的AIが誕生するかどうかはわかりません。少し挑発的になりますが、実はすでに持っているのかもしれません。Grok 3や最新のモデルを使用すれば、認めていないだけで、すでに一般的AIの形を持っているかもしれません。
それが正確にいつ現れるかを知ることができるでしょうか?このAIが一般的かどうか、自己意識を持つかどうかをどうやって判断するのでしょうか?あなたはそれを出現や誕生のように話しています。
私はそう思います。これはSFではありません。興味深いのは、2〜2年半前なら、「いや、そこまで想像しすぎだ」と言ったでしょう。しかし今、私たちは本当にそこに近づいていると思います。
このような現象を理解するには、純粋なイノベーションとその使用を区別する必要があります。純粋なイノベーションはほぼ到着しつつあります。2025年か2026年かわかりませんが、そこに達する可能性が高いです。その使用、つまり誰もが使用することは、もう少し時間がかかるかもしれません。医療では規制の枠組みがあり、すぐにこれらのAIを使用することはできませんが、イノベーション自体はすでにあります。
この点について興味深いのは、一部の専門家、例えばヤン・ルカンのように、LLM(大規模言語モデル)技術はこのような一般的AIを作るには適していないと考えていることです。技術的に十分に妥当な理由がありますが、私たちが日常で目にしているのは、何かが起こりつつあることであり、現在主にLLM技術とTransformerと呼ばれるものを使用しています。
私たちが目撃している現象で魅力的なのは、物事が進めば進むほど加速し、加速すればするほど人々が話題にし、話題になればなるほど国家や民間企業がお金を投入していることです。
一種の宗教のような、私たちをどこに連れていくかわからない一種の巻き込み効果があります。
明らかに加速しており、発表効果もあります。最近の二つの発表について簡単に話しましょう。最初のアメリカの発表は、ドナルド・トランプが政権に就いてほぼ最初の週に発表された「スターゲートプロジェクト」で、5000億ドルが発表されました。この5000億ドルが本当に実現するかどうかについては懐疑的な声も多いですが、日本のソフトバンクやオラクルのCEOダグ・エリソン、そしてもちろんChat GPTを開発したOpenAIのCEOサム・アルトマンといった民間投資家が関わっています。
この発表で興味深いのは、オラクルのエリソンとアルトマンがホワイトハウスで強調した最初のことの一つが、「スターゲートプロジェクトのおかげでがんを治癒できるようになる」ということでした。動画を見れば、彼らはほぼ文字通りそう言っています。
これは納税者に受け入れさせるための方法ではないでしょうか?
まさにそれを言おうとしていました。医療は、AIの開発にとって完璧な口実になっています。誰も「医療を改善するな」とは言わないでしょう。しかし自動の殺人ドローンを開発するためにAIを使用すると言われたら、あまり受け入れられないかもしれません。医療はますますAIの口実として使われていますが、だからといってAIが医療を改善しないというわけではありません。政治的な観点から少し複雑です。
二つ目の発表は、数週間前に開催されたAIサミットに関連するもので、フランスが発表した1090億ユーロです。これには中東の民間資金も含まれています。フランスの規模に比例すると、スターゲートプロジェクトの5000億ドルよりもさらに大きな投資だと説明されました。このAIサミットでも、医療と健康が強く強調されました。
財政的手段の入札競争が起きていますが、この競争は、AIレースに参加しない国々が、参加する国々に従属したり、非常に依存したりするという直接的な理解によるものです。幸いなことに、フランスではこれが理解され、フランスでAIの良いものを作る能力があると確信しています。フランスはヨーロッパレベルでは明らかに先頭にいて、世界的にも潜在的にそうです。
なぜこれほど多くのお金を投入しようとするのでしょうか?それは、一般的AI(AGI)やシンギュラリティに到達できれば、それは巨大な金融的な富と巨大な生産性の向上をもたらすからです。しかしそれを持たなければ、非常に困難な経済状況に置かれることになります。明らかに主要な経済的課題があります。
しかし、このAGIへの競争では、お金はもはや重要ではないという印象があります。誰がこのAGIの所有者になるかによって、ジャックポットを獲得するということですね。
はい、しかしそれに少し反する小さな信号がありました。それはあまり事実と整合していませんが、かなり同意します。その小さな信号は中国から来ており、DeepSeek AI Oneというモデルです。これは中国の投資ファンドから派生した「小さな」スタートアップが開発したもので、OpenAIの最大かつ最良のアメリカのモデルと同等かそれ以上の推論モデルを、その一部のコストで作り出しました。
正確なコストはわかりませんが、わずか550万ドルでこのAIを訓練したことを強調しています。実際のところはわかりませんが、おそらく他のモデルに使用されたものより10〜100倍安いでしょう。これにより競争が再開され、特にヨーロッパにとって「結局お金の問題だけではなく、良いものを作れるのだ」という認識が生まれました。
「安価にAIを作れるので、大金を持つ者に勝てる」という人もいますが、これは完全に真実ではありません。完全なスケールはなくても(つまり、100億ドル投入したからといって、10億ドルしか投入していないモデルより必ずしも良くなるわけではない)、DeepSeek AI Oneの方法を使用しても、より多くの資金があれば、最終的により良いモデルが得られる可能性が高いです。競争を少し再開させますが、客観的に見れば、最も資金を持つ者が最終的に競争に勝つ可能性が高いです。
AIの研究者として、AIが自分自身の完成度や改善能力を自ら引き継ぐ時がくると想像できますか?つまり、ある時点でAIが「もう金や他のものは必要ない、自分で改善できる」と言い出すような状況です。
それがまさにシンギュラリティでしょう。AIが自己意識を持ち、潜在的に自己改良できる転換点です。ただし自己改良するためには、データが必要でしょう。このタイプのアルゴリズムの基礎はデータであり、AIが自己意識を持ったとしても、自己改良する純粋に技術的な能力があるかどうかは明らかではありません。
二つの議論があります。まず、Grok 3やOpenAIのモデルなどのAIはすでにコンピュータコードを作成できます。現在、シリコンバレーのトップエンジニアを含むほぼすべてのソフトウェアエンジニアがコード作成にこれらのアルゴリズムを使用しています。つまり、AIは理論的に自己再プログラミングができるでしょう。
二つ目の議論は、パフォーマンス面でプラトーに達しつつあるように見えることです。なぜなら、データの可用性にプラトーがあるからです。機械学習のためにデータを提供する余地がなくなってきています。OpenAIのモデル開発者たちはすでに何度もインターネット全体や存在するすべての本を取り込んでいます(これは著作権に関する議論を引き起こしました)。
データがもうないため、アルゴリズムをさらに改善することが難しくなっています。そのため、アルゴリズムが自己意識を持ったとしても、自己改良することは容易ではないでしょう。
この「データがもうない」という表現に驚きました。私たち人間は常にデータを収集しています。目や鼻、耳、脳があるからです。AIも同じことができるのではないでしょうか?AIは私たちよりはるかに優れた目や感覚器官、超音波を捉える耳、ニュージーランドで演奏されている音楽を聴く能力を持つことができます。つまり、データを捕捉する可能性は私たちをはるかに超えており、無限に近いのではないでしょうか。
新しいデータを生成する方法は二つあります。一つ目は、あなたが言うように、AIアルゴリズムを使って現実を捉えることですが、問題は現実の表面的な部分しか捉えられないことです。例えば、生物学的または生理学的現象に興味がある場合、センサーやゲノム解析などに接続しない限り捉えることができません。つまり、AIが自律的に現実のすべてを捉えることはできず、私たちがそのデータを生成する必要があります。
データを生成するもう一つの方法は、すでに研究されているのですが、人工データを使用することです。つまり、人間によって生成されたのではない「偽の」データを生成するAIを作ることです。これについては多くの学術研究がありますが、まだ完全には達成されていません。
例えば医学では、実際のコホートから仮想患者コホートや患者のデジタルツインを生成するAIを作ることができます。これは人工データの生成であり、常に同じ統計的関連性を含むデータですが、既知のものに比べて追加の多様性も含みます。
これは医学研究の一分野ですが、他の分野でも同様です。具体的な応用例としては、薬の開発があります。実験室から患者までに20年かかることもあります。仮想コホートを使用して仮想臨床試験を実施したり、実際の臨床試験を増強したりする研究が多く行われています。これにより、臨床試験を10年ではなく数週間で実施したり、1000人ではなく100人の患者を募集し、残りを仮想患者で補完したりして、プロセスを大幅に高速化できます。
一般的なAI、特にインターネット、Twitter、Facebook、本などのテキストデータから訓練されるLLMに話を戻すと、データが不足しているという問題があります。さらに重要な問題は、現在インターネット上のページやソーシャルメディアのコンテンツの多くがAIによって生成されていることです。LinkedInの投稿やXの投稿、ウェブサイト全体のテキストをChat GPTで生成する人が多くいます。
問題は、これらのテキストが将来のAIのトレーニングに使用されるデータベースを「汚染」することです。これは、自分の尾を噛む蛇のような問題です。一方では、新しいAIを作るために仮想データを使用でき、他方では、将来のAIに使用できない仮想データがあります。
医学分野に戻ると、例えば薬の開発を大幅に加速するために使用できる仮想データがあります。しかし、AIによる自己汚染はとても速く進む可能性があります。テキストの生成速度は非常に速く、今インターネットを見ていると、明らかにAIによって生成されたテキストを見かけます。特定の方法や特定のスタイルで書かれているのがわかります。AIによる製品で溢れる可能性があります。
実際、そうなりつつあります。これが将来のAIのトレーニングに問題を引き起こすことを示す研究があります。興味深いのは、これらのツールを十分に使用していると、AIによって作成されたテキストを認識できるようになることです。特にChat GPTについて話していますが、Grok 3のようなモデルで作成されたテキストは、Chat GPTとはかなり異なる応答方法をします。そのため、Chat GPTのスタイルを認識できなくなり始めています。将来的には、AIを多かれ少なかれ隠すためのスタイルが重要になるでしょう。
テキストだけでなく、画像についても同様です。現在、AIによって作成された画像が非常に多いため、画像を見た最初の反応は「これはフェイクか、AIによって生成された画像か、それとも本物の写真か」と考えることです。結果として、判断を保留する傾向があります。
さらに、これらの画像はますますリアルになっています。2年前なら、AIによって作成されたかどうかを見分けるのは難しくありませんでしたが、現在、一部の画像は実際の画像と区別するのがほぼ不可能です。最初の反応は、画像がディープフェイクまたは偽物だと考えることですが、一部のアルゴリズムでさえ、画像が本物かどうかを判断できないこともあります。
これが私にとって最も恐ろしいことの一つです。世界への窓であるべき画像、写真、映画に対して、常に「これは偽物だ」と思わざるを得ない、この種の内向きな反応です。そして、これは動画でも現実になりつつあります。現在、動画生成器はまだ完全には洗練されていませんが、非常に印象的になってきており、1〜2年以内には非常にリアルで現実と区別できない動画が登場するでしょう。これは画像以上に問題です。動く動画、驚くべきことを含む動画は、非常に強力な政治的ツールにもなり得ます。
ジャン=エマニュエル・ビボー、医療とAI、そして一般的なAIについてのお話を聞けて本当に興味深かったです。今後数週間または数ヶ月でこの転換点に注目していきましょう。それが起こるかどうかは別として、確かに恐ろしい面もありますが、同時に私たちは絶対に特別な時代を生きていると感じます。
はい、確かに少し恐ろしい面もありますが、ある意味では刺激的でもあります。メッセージとしては、これらのツールを拒否するのではなく、特に医師にとっては、むしろこれらを活用して良い使用方法に導くべきだと思います。
ジャン=エマニュエル・ビボー、ありがとうございました。

コメント

タイトルとURLをコピーしました