本映像は、フランスのテレビ局LCPの討論番組「Controverse」(論争)の一話である。哲学者ラファエル・アントーヴェンと医師・起業家のローラン・アレクサンドルが「人工知能は人間より強いのか?」というテーマで激論を交わす。アントーヴェンは人間の哲学的思考や創造性の不可代替性を主張し、アレクサンドルは既にAIが人間を上回っているという現実を突きつける。番組では観客が討論前後に投票を行い、どちらの論者がより説得力があったかを判定する形式となっている。医学におけるAIの活用から、労働市場への影響、さらには人類の存在意義まで、幅広い観点から現代社会が直面するAI時代の根本的な問題を扱った貴重な討論である。
番組オープニング
「論争」へようこそ。LCPの新しい番組で、Le FigaroとOpinion Squareとのパートナーシップによる、2人の論客がそれぞれ7分間で自分の信念を弁護する討論番組です。スタジオの観客と、INSEEC MScから中継で参加する学生たちが聞き手となります。
彼らは話を聞き、質問を投げかけ、そして何より番組の最初と最後に投票を行います。我々の2人のゲストのうち、どちらがより説得力があるでしょうか?観客の視点を変えることができるでしょうか?それを確かめるために、「論争」でお付き合いください。
もし「ターミネーター」と「2001年宇宙の旅」がもはや完全なSFではなくなっていたら?もし明日、機械が我々の生活をコントロールするようになったら、人工知能は人間より強くなるのでしょうか? これが我々がゲストと観客に投げかける質問です。
AIをめぐる驚異的な数字
人工知能をめぐる数字は目眩がするほどです。フランス人の2人に1人が既にAIを使って検索を行っています。35%が日常生活でAIの影響を実感しています。経済・社会面では、まさに津波と呼べる現象で、多くの人が数百万の雇用の消失を恐れているほどです。これは民主主義にとっても脅威です。これは事実なのです。
人工知能は人間の知性の限界を超えることができます、少なくとも純粋に計算の観点からは。しかし人間の知性は数学的知性に要約されるのでしょうか?AIは本当に人間を凌駕できるのでしょうか?創造性の分野で、人工知能はいつの日か我々の偉大な画家、偉大な作家、偉大な哲学者に匹敵できるのでしょうか?
今すぐゲストのラファエル・アントーヴェンとローラン・アレクサンドルと議論してまいります。
ゲスト紹介
ラファエル・アントーヴェン
ラファエル・アントーヴェンさん、あなたは哲学者で、「人工精神。機械は決して哲学者にはならない」(L’Observatoire出版)の著者です。この本であなたは、哲学は人工知能にはアクセスできず、なぜ人間性が機械にとって難題であり続けるのかを説明しています。
つまりあなたは人工知能は決して人間より強くならないと考えているのですね。これがあなたがメインスピーチで弁護する立場です。
ローラン・アレクサンドル
ローラン・アレクサンドルさん、こんばんは。あなたは医師、起業家、エッセイストです。AIに関する多くの著書の著者でもあります。「ChatGPT時代の知性戦争」や「ChatGPTは我々を不死にする」(Jean-Claude Lattès出版)などです。
あなたは確信しています。人工知能と人間の知性の間の対決は避けられないと。そしてこの戦いにおいて、人類の周辺化は避けられません。あなたによれば、AIは人間1.0を殺すのでしょうか?人間2.0の到来を待ちながら、それもメインスピーチで聞かせてください。
観客の第一印象と初回投票
観客の意見
ジャック: 私にとって、明らかにAIは人間より強いです。正当な倫理的、道徳的考慮を超えて、AIを具体的、実用的、日常的な使用で見ると、AIはより速く、より多くを知っています。基本に戻って、AIは人間より強いのか?非常に明確に、疑いなく…はい。
ファニー: 実際、私の考えではAIは人間より強くありません。なぜなら、まず人間がAIを創造したからです。たとえ私たちが毎日AIを使っているとしても、人間は依然として非常に重要です。そして歴史を振り返ると、人間は管理し、コントロールすることを非常に好みます。ですから私の考えでは、我々はAIをコントロールするための補完的なツールを持つことになるでしょう。
第一回投票結果
第一回投票の結果、76%の投票者が人間がAIより強いと回答しました。これがまさにラファエル・アントーヴェンが弁護する立場です。
ラファエル・アントーヴェンのメインスピーチ
問いを問い直す
正確には違います、親愛なるアレクサンドル。私はこの問い自体を問い直したいのです。「AIは人間より強いのか?」という問いに私が興味を持つ理由は何でしょうか。
まず観察すべきことは、このような問いが謙虚であると同時に現代的であると自認しているということです。人間がAIに追い越されると言うので謙虚であり、21世紀の署名であると自認するので現代的です。
しかし、誠実さから言えば、これは人類と同じほど古い問いです。我々は機械が人間より強いかどうかという問いを絶えず自問し続けてきました。このような問いは古代にまで遡ります。そして私はこの問いを問い直したいのです。
機械の本質的役割
機械は人間より強いのか?これは我々が何千年も自問してきた問いです。そして機械は人間より強いのか?私が言いたいのは、これは意味のない問いだということです。なぜなら、それは自明であるか、完全な無意味かのどちらかだからです。
なぜ自明なのか?それが機械の存在理由だからです。ジャックさんが言及したように…いえ、言及していませんでしたね。すみません、やり直します。
それが機械の存在理由だからです。昔から、機械は人間より強いのです。でなければ何のために?拳で釘を打ち込めるなら、なぜハンマーを発明したでしょうか?背中に同じだけの荷物を運べるなら、なぜ犂を発明したでしょうか?もっと速く走れるなら、なぜ馬を発明したでしょうか?パノラマ的、総観的記憶を持っているなら、なぜコンピューターを発明したでしょうか?もちろん、そうではありません。
機械は我々の弱さを補い、我々の不足を支援するためにあります。道具の製作は昔から我々の不完全性を証明しています。だからこそ機械は我々より強いのです。人工物の製造は我々の無能力の尺度です。
カスパロフの敗北から学ぶこと
明らかに機械は我々より強いですが、しかし…どう言えばよいでしょうか?機械が我々より強いということは、人間が機械によって打ち負かされうるということ、あるいは人間が機械の離れ業によって問い直されるということを意味するでしょうか?もちろんそうではありません。
カスパロフの例を取ってみましょう。彼はDeep Blueに負けました。カスパロフはチェスプレイヤーに負けたのではありません。カスパロフは工場に負けたのです。機械に、自分のものと比較にならないほど優れた計算力に負けたのです。
機械はすべてを掴むことができますが、それが掴むものは既に死んでいます。機械はすべてを説明できますが、何も理解しません。しかしそれは別の話です。
私がここで言いたいのは、カスパロフのDeep Blueに対する敗北は、ボクサーやレスラーがロボットに負けることと完全に同じです。金属は筋肉より頑丈です。それは筋肉の危機ではありません。
古い恐怖の正体
言い換えれば、ここでの正しい問いは、一般的に正しい問いが神の存在を知ることではなく、なぜ我々に神を信じる必要が生まれるのかを知ることであるのと同様に、真の問いは機械がいつ我々を置き換えるかを知ることではなく、なぜ我々にピグマリオンの神話から人工知能まで、ゴーレム、「ピノキオ」、「スター・ウォーズ」、「マトリックス」、「ブレードランナー」などを通じて、そんなに古い恐怖が生まれるのかということです。
我々は機械による自分たちの置き換えを舞台化し続けてきました。ここでの真の問いは、そんなに古い恐怖が我々について何を語っているかを知ることです。
そんなに古い恐怖が謙虚であると自認することについて、それは何を語っているのでしょうか?それを理解するには、無意識の集合的レベルで、自分に背を向けるに足る自由を与えられた被造物を生み出したのはどのような存在なのかを理解する必要があります。
その被造物が創造物である存在とは何でしょうか?それは神です。ユダヤ・キリスト教世界での我々の認識では、神は自分の命令から逃れる能力において自由を体験するほどの十分な自由を与えられた存在を生み出します。神がそれを生み出すのです。
言い換えれば、我々が機械を生み出し、その機械が我々にくそくらえと言い、我々を置き換え、我々を乗り越えるという感情の中には、謙虚さをはるかに超えて、無限の傲慢さ、我々が神のような存在であるという感情があります。しかし、神になりたいと思う者が神になれるわけではありません。
哲学とAIの根本的違い
時間がまだあるでしょうか?まだ3分弱ありますね。それでは、非常に簡潔に、一つの例を取り上げたいと思います。そして後でまた話す機会があるかもしれません。哲学の教育について、非常に具体的な点について。
人工知能の起源には行動学があります。動物の行動研究の科学、特にAplysiaという軟体動物の研究です。これは触ると収縮するが、同じ動作を繰り返すとだんだん収縮しなくなる軟体動物です。
言い換えれば、ニューロンをあまり持たない軟体動物でも、シナプス適応が可能です。もはやそれを危険と識別しないので、同一の刺激に対して異なる反応をすることができます。そしてシナプス適応のモデルに基づいてAI、人工知能が考案されました。
例えば、最も簡単な例を取ると、AIにキリンを認識させたければ、見たことのない写真でキリンを識別できるまで、キリンの写真を大量に与えることになります。言い換えれば、AIの仕事は予測ツール、我々が多くのタスクの実行において素晴らしく支援してくれるツールを考案することです。
AIの仕事は、まだ見ていないものに驚かないことです。これだけ覚えておいてください。そして我々は皆これに同意すると思います。
さて、哲学について。哲学は何から始まるのでしょうか?哲学の出発点は何でしょうか?
アリストテレスが言うように、哲学の出発点は驚嘆です。しかし注意してください、驚くべきことに対する驚嘆ではありません。なぜなら、それは驚くべきことではないからです。もし番組の撮影中に、あなた方の誰かが今全裸になって「インターナショナル」を歌い始めたら、我々は驚くでしょう。驚くべきことは、我々が驚かないことです。
驚くべきことに驚くのは驚くべきことではありません。一方、哲学は我々が見慣れているもの、我々に親しいものに驚嘆することができるようになったときに始まります。これは哲学者についての常識です。
哲学者とは、突然困惑した表情で、啓示された真理として提示される真理を迎える人です。言い換えれば、哲学者の仕事は自分に親しいものに驚嘆することです。
結論に向けて…もうすぐ結論しなければなりませんね。分かっています、予定通りです。よろしい。もし邪魔しなければ、時間通りにできます。
優しい邪魔でした。
簡潔に言えば、覚えておいてください。AIの仕事はまだ見ていないものに驚かないことです。哲学の仕事は見慣れているものに驚嘆することです。方向性は断固として対立的で、拮抗的ではなく、おそらく補完的ですが、完全に対立しています。
そしてこれらすべてを言うために、これが私の最後の文になりますが、人間を置き換えることから我々がどれほど遠いか、つまり人間が人工知能によって置き換えられることからどれほど遠いかは、脚立に登って月に到達することからどれほど遠いかと同じです。
質疑応答:アントーヴェンへの質問
知性の定義について
質問者: 人工知能がまだ我々の能力を超えるなら、まだ人工知能と呼べるのでしょうか?
アントーヴェン: 私にとって、「人工知能」という表現が同語反復なのか矛盾語法なのか分からないのです。もし知性によって、単純な分析、計算、再配分、計算、統合などの能力、つまり複雑性の処理を意味するなら、その場合、人工知能は同語反復です。ある意味で、すべての知性は人工的であり、精巧な人工物の範囲内にあります。複雑なものはすべて技術の範囲内にあります。
しかし、もし知性によって心の知性、状況の知性、誰かと良い知性でいること、つまり共犯関係の同義語を意味するなら、その時、人工知能は矛盾語法です。
ですから、私は量的に物事を測定しません。どちらがもう一方より強いかを知ることではなく、我々が本当に同じ世界にいるかどうかを知ることです。そこで私は疑問を持ちます。
人間の機械化について
INSEEC学生(Douaa): あなたが言ったように、我々は人工知能を必要としなければ、それを創造しなかったでしょう。これは何らかの意味で、人工知能が能力の面で人間より強いことを強調しています。私の質問は、人間はAIの力に対してどのように自分を押し付けることができるのでしょうか?
アントーヴェン: それは別の質問です。つまり、人間が機械では合成できない素材でできているように私には思えるからといって、人間自身が機械になれない、自分を機械化できないというわけではありません。
私が言いたいのは、機械が人間になることは信じませんが、人間が機械になることは日常的に経験しています。偏見の名の下に侮辱されたり、人々が条件反射を示したりするたびにです。
人間が機械になる最良のイメージは、チャップリンの傑作「モダン・タイムス」にあります。流れ作業の労働者がおり、彼がラインから離れても、まだ動揺しており、まだボルト締めの痙攣があります。これはフォーディズムが労働者の身体を押しつぶすことについての寓話ですが、人間の機械に対する多孔性の非常に強力なイメージでもあります。
ですから、あなたの質問は優れています。そのような場合に自分を押し付けること、それは恐ろしいことです。これは長い間我々に提起されている問題です。しかし、我々が道具に圧倒される、道具に押しつぶされることは十分にありえることで、恐ろしい問題です。
しかし、我々が道具によって人間として置き換えられること、道具が我々と同じ能力を持つことは、完全に非現実的に思えます。
AIの自立性について
INSEEC学生(Casimire): AIは今後ますます発展し、現在自分のデータを生成する可能性があるので、いつかは人間なしでやっていけるようになるのではないでしょうか?
アントーヴェン: この質問を理解します。おそらく、そうかもしれませんが、この質問は18世紀にまで遡る問題だということに注意を向けたいと思います。18世紀に、技術的進歩が…道徳的進歩も技術的進歩と同じ速度で進むかどうかという問いが提起されたのです。それは啓蒙主義の楽観主義でした。
より多くのことを学び、技術的により強力になればなるほど、道徳的により強く、より美徳があると言われていました。つまり、そのような考えがありました。そして、技術的進歩は大股で前進するが、道徳的には我々はよろめいているということが分かりました。
道徳的によろめいていなければ、10月7日も、大量虐殺も、世界大戦もなかったでしょう。言い換えれば、我々は道徳的に足踏みし、技術的には大股で前進しています。そしてこの両者の間のずれから、イマヌエル・カントは世界の終わりについての小冊子を書きました。その中で彼は、そこから世界の終わりという概念が生まれることを説明しています。
定期的に、我々は世界の終わりを幻覚します。我々から逃げる技術、我々から離れる技術の形で世界の終わりを幻覚します。なぜでしょうか?技術が疾走し、道徳が足を引きずるからです。そしてこの両者の間のずれから、我々は喜んで世界の終わりを思い描きます。
私がここで言いたいのは、おそらくあなたが正しく、我々が人工知能に追い越されると予測するかもしれません。しかし、そのような問いの系譜を作り、この問いを問い直す必要があります。そしてこの問いを問い直すとき、我々が発見するのは、それが古いものであり、既に長い間我々によって提起され、我々が長い間、技術による人間性の追い越しという形で世界の終わりを思い描いてきたということです。今のところ、それは起こっていません。
ローラン・アレクサンドルのメインスピーチ
現実的な医師の視点
哲学者のような美しい叙情的な飛翔を実現する能力は私にはありません。私は技術者、科学者、医師です。そして毎日人工知能による自分の追い越しを実感しています。
したがって、実際には問題はもはや意味をなしません。我々を聞いているすべての若者にとっての問題は、人工知能が我々を、私を、我々一人一人を追い越す瞬間に、どのように自分の居場所を見つけ、どのように自分の生態学的ニッチを見つけるかです。
例えば医学では、昨年7月以来、私はChatGPT、ChatGPTの新バージョンに押しつぶされています。私はChatGPTより劣ります。これは衝撃でした。何年も何年も人工知能に興味を持っていたにも関わらずです。
そして最終的に、あなた方にとって重要に思えることは、AIが我々を追い越すかどうかを知ることではなく、この新しい社会でどのように自分の居場所を見つけるかを知ることです。このショック、この絶対に信じられない技術津波をどのように規制するか?どのように組織するか?どのように利益を得るかです。なぜなら科学と技術の爆発があり、新しい職業、新しい活動を発明することができるからです。我々は黄金時代に入ります。
AIの圧倒的な能力
我々の追い越し、それは恐ろしいものです。ChatGPTとGeminiの最新バージョン、o3とGemini 2.5を使用するすべての人にとって、AIが狂ったような速度で疾走していることがよく分かります。
1年間で、ChatGPTは週に1ポイントのIQを獲得しています。今日、ChatGPT o3のIQは136で、我々の同胞の99%を上回っています。そして2番目に強力な人工知能、GoogleのGemini 2.5は127のIQで、ChatGPT o3が行うことに非常に近いです。
したがって我々の追い越しは進行中です。今日の問題は、それをどうするかです。我々には3つのショックが同時に到来しています。
シュンペーター的ショック、つまり最初に人工知能、そして後に中国から特に到来する超知能ロボットによる経済と労働の根本的変革。
次に文明的ショック。なぜなら人工知能が科学、特にバイオテクノロジーを疾走させ、我々の人間性を根本的に変えることを可能にするからです。
最後に、2024年ノーベル物理学賞受賞者ジェフリー・ヒントン、現代人工知能の発明者、いわゆる深層ニューラルネットワークによってよく描写された第3のショック。彼はノーベル賞の際に「Financial Times」に宣言しました。「我々はもはや地球上で最も知的な種ではありません。我々は人工知能に次いで地球上で2番目に知的な種です」と。
これは人類学的ショック、つまり地球上の他の種に対する我々の関係の変化です。
シリコンバレーの投資と社会変革
シリコンバレーは今年、人工知能研究に3600億ドルを投資します。人工知能は疾走し続けるでしょう。そして、ラファエルを含む私たち一人一人にとって、真の問題は我々の適応と、異常に動く世界への我々の包含です。
技術ショック以外にも他のショックがあります。ポピュリズムの台頭、戦争の復活、トランプの非常に混乱した措置によって引き起こされる経済混乱、しかし…この人工知能の技術ショックは、間もなく職業生活を始めるあなた方にとって、私の見解では最も重要です。何が起こっているかを理解する必要があります。
ビル・ゲイツは先週、労働が非常に高い確率で消失するか、深く変革されると宣言しました。労働の世界に入るとき、これは本当に非常に重要な点です。
彼はまた、医師のほぼ全員が今後数年間で人工知能に置き換えられると言いました。人工知能が私の種族、医師たちを大幅に上回っているからです。
バラク・オバマは4日前に同じことを言い、社会、若者、教育システム、政治システムに対して、この津波に社会的・政治的解決策を見つけるために動員するよう促しました。この根本的変革の際に損害がないように。
AI能力の急激な進歩
18ヶ月または2年前のものと比較して、人工知能の完全な変化があります。多くの人がそれを見ていません。なぜなら彼らは非常に古いバージョンの人工知能を試して、使用したものがChatGPT o3より40ポイント低いIQを持っていることを理解していないからです。
ある偉大な哲学者が最近私に言いました:「私はGPT 4を使っています」。彼が人工知能が疾走していることを理解しないのは理解できます。なぜなら彼はまだほぼミニテル時代にいるからです。
医学における革命的変化
我々は医学分野でも非常に重要な変革を遂げるでしょう。2024年ノーベル化学賞受賞者デミス・ハサビス、Googleのすべての人工知能の責任者でもありますが、2035年から2040年頃にすべての人間の病気が人工超知能によって治癒されると予測しました。
そしてChatGPTの主要な競合相手の一人、Claude Anthropicを開発したダリオ・アモデイは、人間の平均寿命が現在から2030年代の間に倍増すると宣言しました。彼は2037年には我々が今日の少なくとも2倍長く生きると予測しています。ダリオ・アモデイは情報科学者だけでなく、生物学者でもあります。
個人的適応の必要性
この変革は非常に急速で、我々に問いかけ、我々の人生の道筋と職業的人生の道筋を再考することを義務づけます。私はChatGPTの最新バージョンに、私が適応するために何をすべきかを尋ねました。診断は非常に厳しいものでしたが、非常に正確で、私が遅れを取りすぎないように5年間の訓練計画を提案してくれました。
最終的に、私はAIが我々を追い越すことをあなた方に納得させるつもりはありません。それは事実です。私はあなた方に今すぐ動員し、働き、人工知能との補完性の分野を研究し、AI+あなたが、人生を通じてAIなしのあなたよりも良くなるようにしてほしいのです。
人工知能の時代に行うべき素晴らしいことがあることをあなた方に納得させたいのです。今日この戦いで遅れを取ってはいけません。哲学者の絶対に素晴らしい視点を愛していますが、今日はもっと実用的である必要があると思います。
質疑応答:アレクサンドルへの質問
雇用への影響について
INSEEC学生: 私の質問は、ポストが人工知能によって影響を受けるか、完全に自動化される従業員の将来に関するものです。これは将来経済的問題になることが分かるでしょう。アシスタント業務や会計業務など、自動化される職業において、これらの人々はどうなるのでしょうか?
アレクサンドル: みんなで一緒に考える必要があります。親であれば、子供たちと一緒に考える必要があります。教師であれば、生徒たちと一緒に考える必要があります。政治家であれば、国民教育と大学の改革について考える必要があります。
簡単な答えはありません。そして今日でも、人間がAIと補完的でない場所があります。例えば、私の職業である医学の人工知能は、複雑な医療ファイルを与えられたとき、85%の良い結果を出します。85%です。医師を追加すると、人工知能+専門医の組み合わせは70%の良い診断を出します。
これは医師を追加することが10年間の研究をしたAIの性能を15%低下させることを意味します。AI との補完性のための戦いが勝利を約束されていないことが分かります。大学と学校の機能を根本的に改革する必要があります。教育政策を変える必要があります。
我々の前には巨大な工事があります。そして私は繰り返します。今日、例えば医学において、すべての研究で、AI+医師はAI単独より劣っているという事実は、医師として私に、11年間の研究をして外科の資格を得た私に問いかけますが、保健システムにとっても、もちろん我々の患者にとっても問いかけます。
AIの信頼性について
INSEEC学生(Aime Brice): 人工知能の能力にもかかわらず、分析の正確性を上司に提出する前に人間が検証することは必要でしょうか?これは結局、人間がAIの調整者ではないかという問題を提起します。
アレクサンドル: 最初の質問について、AIが幻覚を起こすことをご存知でしょう。ChatGPT o3のような最高のAIでも、時々正確でないことを言います。これが情報的幻覚と呼ばれるものです。したがって、仕事を提出する前に、今日は検証する必要があります。
ただし、幻覚率は下げることができます。Anthropicでは特に、ragシステムを使用しています。医学では幻覚率をほぼ0%まで下げています。したがって幻覚を減らし、AIによって行われる仕事をより良くする解決策があります。
我々がAIにゴーサインを出すという考えは完全に馬鹿げています。医学を取り上げましょう。腫瘍のDNA分析、化学療法を選択するための遺伝子分析は、生検あたり25兆の情報です。20テラバイト、20ギガバイトではなく、20テラバイトです。
世界のどの医師も、着替えと再着替えを含めて14分間の診察中に、各生検の20兆のデータを分析して人工知能の決定に反対することはできません。
したがって、人間がAIの言うことに反対できるという考えは、親切で、善意のある、しかし馬鹿げた、完全に幻想的な考えです。我々はAIが何をするかを検証しません。なぜならAIは我々にとってあまりに多くのデータ、あまりに多くの概念を操作するからです。
残念に思うかもしれませんが、人間の脳がこれらの決定を検証できることなく、AIの決定、AIの考えを受け入れることに慣れる必要があります。
大量失業への対応
INSEEC学生(Alexandre): 人間が機械の離れ業によって問い直されないなら、機械主義時代の大きな失業率のピークの結果をどのように説明し、企業のさまざまなタスクの自動化後にすべて失業する人々はどうなるのでしょうか?
アレクサンドル: 政治、政治家、社会全体がこのすべてについて考えていません。我々のAIによる追い越しは非常に最近のことです。5年前の2020年、地球上の人工知能専門家の世界的合意は、人工知能が2100年に人間の知性に追いつくというものでした。
1000日後の2023年、ChatGPT 3.5のリリース後、世界的合意は我々の追い越しについて2031年に移っていました。合意が我々から70年近づいていたことが分かります。したがって実際には、AIは専門家が考えていたよりもはるかに速く、はるかに速く進歩しました。
そのため、我々はこれらの問題について政治的・社会的考察を始めていませんでした。今、考える必要があります。多くの解決策があります。ChatGPTの創設者サム・アルトマンは人口の99%に対する基本所得を提案しています。ビル・ゲイツは人々がもう働かなくなると考えています。
本当に、労働者である若者のあなた方には、先週の彼のインタビューを見てください。これらは人工知能に対する戦いを放棄すべきと考える人々です。私は戦う必要があると思います。私は大家族の父親で、私の子供たち、孫たちが労働が死んだ世界で生きることを望みません。
人間強化の提案
提案される他の解決策があります。ご存知のように、イーロン・マスクはNeuralink という会社を開発しました。我々の子供たちの脳にマイクロプロセッサ、電子チップを埋め込んで、人工知能と競争力を持たせることを目的としています。そして実際、彼は非常に強い言葉を持っていました。「明日我々が人工知能のラブラドールになることを避けたければ、これをしなければならない」と言ったのです。
宗教的観点から非常に衝撃的なことを提案する人々もいます。知的優生学を行うことを提案しています。アメリカでは、知性を基準に赤ちゃんを選択する最初の会社が設立されました。
5万ドルで、配偶者の卵子と精子、またはその逆から100人の試験管ベビーを作り、100人の赤ちゃんのDNAを配列決定によって分析し、最も知的な赤ちゃんを選んで子宮に…最も知的な赤ちゃんを遺伝子分析後に選ぶHeliocept Genomicsの商業オファーを見に行くことをお勧めします。
これは怪物的に見え、倫理的に本当に考えられないことです。しかし科学雑誌「Science」、「Nature」と並ぶ世界最大の科学雑誌による米国での調査では、38%のアメリカ人が人工知能時代により良い職業経路を持つために自分の子供にそれをしたいと思っています。
そして同じ調査で、28%のアメリカ人が最良の胚の選択に加えて、来るべき人工超知能と競争力を持つために胚のDNAを修正したいと思っています。
ご覧のように、今日簡単な答えはありません。働くのをやめるべきでしょうか?シリコンバレーのトランスヒューマニストが望むように我々自身を強化すべきでしょうか?私は明らかに答えを持っていませんし、人類がどこに向かうかをシリコンバレーが決めるべきではないと思います。
みんながこの根本的な議論に関わるべきだと思います。だからこそ、最高のAIの使い方を学ぶことに加えて、政治に関わることをお勧めします。
最後の質問
観客: ボリス・ヴィアンに関連して、もし我々が世界の終わりにいて、あなたが不可逆的な選択をしなければならず、その選択が地球を救うなら、機関車と小鳥の間で、地球を救うために何を選びますか?
アレクサンドル: あなたが予言する致命的爆発の場所から逃げるために機関車を選びます。
直接討論
医学におけるAIの役割
司会: ラファエル・アントーヴェンさん、最初の質問をしたいと思います。ローラン・アレクサンドルさんが、あなたが非常に古いバージョンのChatGPTを使っていると暴露しました。なぜでしょうか?どの程度の頻度で使っているのですか?
アントーヴェン: あまり使いません。質問を投げかけています。今のところ私の存在では改良されたGoogleのようなものです。職業、つまり執筆や哲学の実践ではまったく使いません。あるいは情報について。少し忘れてしまった思想の統合や、すべての本を読んでいない情報などです。
二次的なもの、時には質の高いものですが、問題を見つけたり、直観を見つけるためには決して使いません。非常に限定的な使用です。聞いたことについて二言言えますか?
私は医師の置き換えの仮説について話したいと思います。偉大な医師リッシュは言いました:「基本的に、病気において最も重要でないのは人間である」と。そして長い間、医学は治癒の必要性の名の下に、目の前にある対象を非人間化することに苦しんできました。
したがって、この誘惑、ある意味で、個人を物質として、時には命を犠牲にしてでも可能な治癒の単なる支持体として扱う誘惑は、常に医学に存在してきました。同じように医師がいるように、患者の心に語りかけ、彼らに話しかけ、彼らの士気を上げ、時には彼らの人生を変え、時には要求を変えることを知っている医師がいます。そしてこれがケアの空間に入ります。つまり、それ自体で定量化できない給付、客観的能力に対応せず、心の知性以外にないものです。
我々が与えることができる最良の例は、「失われた時を求めて」のドクター・デュ・ブルボンです。彼はシャンゼリゼでちょっとした発作を起こした語り手の祖母に士気を取り戻させます。ドクター・デュ・ブルボンは素晴らしい人、素晴らしいタイプです。
ヴィクトル・ユゴーをもう数行読むべきことがあれば、患者を待たせることができます。しかし一方で、その後彼らを受け入れるとき、彼が提供する給付は不可替代的、まさに不可替代的です。そしてそれが彼の仕事の本質でさえあります。
言い換えれば、すべての病気を治すことができるとか…すみません、2番目の異議、平均寿命の倍増の仮説について。私の同志ローランは「死に勝つ」という本の著者です。
ローラン: 「死の死」です。
アントーヴェン: 「死の死」、すみません?すみません。このタイトルが大好きです。考えは同じです。これは裏切りでもありません。考えはほぼ同じです。平均寿命の倍増、それは死の死です。
しかし、すみません!200年生きようが400年生きようが、問題は何も変わりません。我々は常にあまりに早く死ぬでしょう。実際、100歳で人生が終わっても人々が時期尚早に死ぬ感情を持つ100歳の人生よりも、20歳で終わってもより充実している人生があります。
ローラン: それは議論の余地があります。
アントーヴェン: いえ、まったく議論の余地はありません。200歳で死のうが800歳で死のうが、とにかく我々は死にます。我々はより少ない困窮にあるわけではなく、問題は何も変わりません。より遅く死ぬとき、より良く死ぬのでしょうか?
ローラン: シリコンバレーの目標は200歳で死ぬことではなく、もう死なないことです。
アントーヴェン: はい。
司会: 不死であるというあなたの野心について再び話すでしょう、ローラン・アレクサンドル…
しかし私はラファエル・アントーヴェンが医学について言ったことに反応したいと思います。
ローラン: すみませんが、ナンセンスはやめましょう。私はあなたを医師として持ちたくないと思います。
アントーヴェン: あなたは間違っています、私は非常に忍耐強いです。
AIの共感性について
ローラン: 世界第3位の科学雑誌「JAMA」で行われた研究により、AI、この場合ChatGPTは医師の2倍共感的であることが示されました。したがって、医師の特別な共感がAIより優れているという考えは間違いです。
しかし非常に簡単な理由のためです。あなたが病気で、例えば癌を患っているとき、ChatGPTはあなたの転移について5日間連続、昼夜を問わず話すことができます。あなたの腫瘍専門医は、あなたが小さな不安を持ったとき、午前3時に携帯電話で対応しません。いいえ、いいえ、いいえ、それは不可能です。
一方、AIの忍耐は完全で絶対的であり、AIは非常に共感的です。したがって医学を2つのグループに分ける考え、技術をAIに、共感を医師に、それは最近の科学的結果を考慮に入れていない考えです。
アントーヴェン: 共感の問題以外にもう一つの問題があると思います。共感の問題についてあなたが言うことには完全に同意しませんが、それについて話したいのではありません。
ローラン: しかし、あなたは間違っています。
アントーヴェン: 我々はお互いを「tu」で呼んでいるので。我々は常にお互いを「tu」で呼んできました。もう偽らないでください。いえ、それは別の問題、責任の問題です。
今日、そして私よりもそれをよく知っている人の前でこれを言いますが、医師はスーパーマンのマントを着ているようなもので、つまり彼は並外れた予測能力を備えています。今日それは信じられず、比較にならないものです。今日、医師は診断のために驚異的な道具を備えています。
しかし、彼が持つ道具のどれも、治療戦略の採用において医師に留まる責任を曖昧にしません。なぜでしょうか?まずそれが決定であり続けるから、そして戦略が病人の人格によって変わり続けるからです。
これはジョルジュ・カンギレム、医学の哲学者が説明しています。病気は病人によって生きられた経験にほかなりません。病人が医師より能力があると言っているのではありません。それは今日の幻想です。Doctissimoで10分過ごせば、自分の医師より強いと信じています。
ローラン: 私はDoctissimoの創設者であることを注記させてください。これはラファエルの優しい当てこすりです。
アントーヴェン: それは…それは優しい批判で、賛辞の形でした。しかし、いえ、医師の責任は、彼が持つ道具の力に溶解しません。なぜなら医師はまだ、その悪、その病理が気質と心理にも依存する個人に向き合っているからです。以上です。
創造性と哲学における議論
司会: ローラン・アレクサンドルさん、確かに計算力の面では、誰も人工知能の優位性を否定しませんが、創造性、人間精神の理解、哲学の面でも、明日ChatGPTはプラトン、ニーチェ、さらにはラファエル・アントーヴェンさえも置き換えることができるのでしょうか?
ローラン: ラファエル・アントーヴェンは1万年後でもAIは哲学ができないとツイートしました。私はAIが今後数年間で哲学者を追い越すと予測しています。したがって我々は…タイミングについて小さな意見の相違があります。
アントーヴェン: 未来の利点は、生きる者が見るということです。
ローラン: はい、そして私は、私の方がはるかに年上なので、君より先に死ぬリスクがあります。私は死の死以前の出身ですから、もちろん。
発明性について、それは非常に興味深い問題です。私はあなた方にこの議論を決着させることをお勧めします。最新バージョンのAI、ChatGPT o3とGemini 2.5に行って、それらがどれほど発明的か、哲学を含めて見てください。
我々は人工知能の非常に良い専門家である我々の共通の友人リュック・フェリーと一緒に、最近ChatGPT o3とGemini 2.5と哲学について議論することを楽しみました。それは衝撃的でした。今日AIは哲学ができ、日々、週々進歩しています。
AIは革新することができ、我々より速く革新します。はい、AIは革新するでしょう。それが週に1ポイントのIQを獲得することを決して忘れないでください。したがって今日のAIで考えてはいけません。未来、6ヶ月、1年、2年に投影する必要があります。
AIは非常に創造的になり、それはあなた方にとってチャンスです。角で泣きべそをかくのではありません。これらの道具を掴んでください。ミニテルというより現在の人工知能バージョンに似ている古いバージョンのchatGPTを使う間違いをしないでください。これらの道具に習熟し、ほぼ無料で持つことになる、常により革新的、常により発明的、常により知的なAIの使用によって、より革新的になってください。
記憶と技術についての考察
アントーヴェン: ステファン・ツヴァイクの小説、あまり知られていませんが、不当に知られていない、「古本屋メンデル」という話があります。「古本屋メンデル」で、語り手はレストランに入り、そのレストランを認識したと思います。
第一次世界大戦後です。彼は場所を認識したと思いますが、思い出せません。そして突然、思い出しました。戦前の古本屋メンデルの店でした。そして戦前の古本屋メンデルは、存在するすべて、出版されたすべての本を知っていました。
ウィーンの学生たちは、それ自体絶対に不可替代的なアドバイスを受けるために彼のところに来ていました。「この主題について、この他の仕事よりもむしろこの論文、この他の仕事を取ってください」。彼は正確な参考文献を持っていました。それは絶対的記憶でした。
そして古本屋メンデルの絶対的記憶は戦争によって一掃されました。戦後、彼は職業を再開できませんでした。なぜならすべてがファイル化されていたからです。これが進歩です。この結果、古本屋メンデルの給付は消失しました。ステファン・ツヴァイクは昨日の世界について語ります。明らかに、これは彼が郷愁を永続させる方法です。ステファン・ツヴァイクはこのように昨日の世界を描写します。
しかしツヴァイクの憂鬱な気質を超えて、我々が置き換えると信じているものは、実際には置き換えられず、それは知性と呼ばれない能力であるという事実もあります。それは測定されない能力です。ある意味で我々を機械の手の届かないところに置くもの、それは我々の複雑性ではなく、我々の単純性です。
私は単純性を、説明することなしに失われることのない、我々の中のすべてと呼びます。本質的に、愛、美の感情、あるいは直観は我々が戻ることができる例です。
ローラン: あなたが郷愁的で少し反動的であることを発見して嬉しいです。
アントーヴェン: あなたはそれを疑っていました、同志。
ローラン: いえ、実際には知っていましたが…あなたのような進歩主義者にとって、あなたは今夜それを発見していました。実際、リュック・フェリーが…ますますAIの並外れた専門家になっているのを見るのは非常に面白いです。一方、ラファエルを含むフランスの偉大な哲学者の一部は、完全に飛躍することを拒否し、AIの信じられない力を認めることを拒否し続けています。
アントーヴェン: AIは力ではありません。
ローラン: ローラン・アレクサンドル。
アントーヴェン: いえ、待ってください。AIは力ではありません。AIは権力です。
ローラン: 同じことです。
アントーヴェン: 全く違います。いえ。それがすべての話の核心です。
ローラン: 私は重箱の隅をつつきません。
アントーヴェン: 私は全く重箱の隅をつついていません。それは本質的な違いです。AIは力ではありません。AIは権力です。そして権力は恨みを持ちます。
これは権力の力に対する古い恨みです。それは王と鳥です。鳥は王によって捕まえられません。単純なものは複雑性の範囲内にありません。力、それは権力ではありません。この違いは根本的です。
なぜなら、力が芸術家のものであるのと同様に、権力は例えば金融家のものであり、そして持っているお金で芸術家になることができないのと同様に、力は権力ではないので、この違いを保持する必要があります。
雇用の破壊と創造について
司会: ローラン・アレクサンドルさん、ラファエル・アントーヴェンが言ったことで、物事がAIで消失すると。我々によく言われるのは、最も楽観的な人々は、シュンペーター理論、AIは数百万の雇用を破壊するが、心配しないでください、常に新しい雇用が浮上する、と言います。AI の経済面での革命に関して印象があるのは、もはや創造的破壊ではなく、ただの破壊だということです。
ローラン: どの時代でも、消失する職業を見て、現れる職業を見ていませんでした。おそらく我々はその状況にあります。ナポレオンの下のパリには2万7千人の水運び人がいました。水道がなかったからです。パリの水道は1814年に始まります。
2万7千人の水運び人がいました。すべての水運び人が職を失いました。しかしその後、我々は心臓外科医、マイクロプロセッサー製造者、ユーチューバー、デヴェッキオさんのようなテレビジャーナリストなどを発明しました。
したがって、新しい職業を我々は見ていません。だからこそあなた方はAIで自分を強化するために非常に速く疾走する必要があります。あなた方、若い世代がこれらの新しい職業を発明するでしょう。
私の友人ラファエルを批判するために言っているのではありませんが、あまり郷愁を培養せず、明日の職業、明日の新しい活動を見つけるために人工知能のTGVに乗ってください。
郷愁は65歳の私のような年齢では好感が持てますが、今日20歳や25歳の時には、それは致命的な罠です。
観客の反応と最終コメント
観客(Jennifer): 私たちは非常に強力な人工知能を構築しているのでしょうか、それとも人間性を弱体化させているのでしょうか?
ローラン: お答えします。この主題について10日前に「Le Figaro」で記事を書きました。あなた方の世代はもっと働く必要があります。
「Le Figaro」の記事で、2人の友人と一緒に書いたもので、学生の辞任についての最近の研究を取り上げました。ケンブリッジでさえ、学生は今日より少なく働き、人工知能にあまりに頼っています。
私の末っ子はケンブリッジで科学をやっており、アラン・チューリング、情報科学の発明者のカレッジだったキングス・カレッジにいます。そして私の息子は、1年で、Pythonでコーディングを学ぶ人が100%から0%になったと言っていました。
サム・アルトマンがChatGPTが2025年のクリスマスに世界最高の情報開発者より優れると言って以来、私の子供とケンブリッジの友達は、コーディングを学ぶのをやめました。私はそれは間違いだと思います。実際、私は自分の息子にそう言いました。
規律を自分に課す必要があると思います。AI時代には以前より働く必要があります。なぜならAIが疾走し、我々が働くのをやめれば、あなた方一人一人にとって個人的に、そして集団全体にとって、必然的に悪い結果になるからです。
今日は働く必要があり、大きななまけ者になってはいけません。プロジェクトを発達させ、起業家になり、アングロサクソンが呼ぶところのAgency、つまり行動する意志を発達させる必要があると思います。
なぜなら今日、たとえ人工知能が我々を追い越すとしても、プロジェクト、起業家のプロジェクトを持ち、新しいアイデア、新しい製品を開発する人々は成功するでしょう。たとえ人工知能が我々より50ポイント高いIQを持っているとしても。
ご覧のように、働き、プロジェクトを持つ必要があります。起業する必要があります。私はそれが真の良い答えだと思い、学生は働かないことを続けてはいけません。常に、親愛なるアレクサンドル・デヴェッキオの「Le Figaro」記事で引用した数字:88%のイギリス学生が試験のコピーにChatGPTを使用しています。
彼らは試験のコピーを携帯電話でコピーして、その後ChatGPTが携帯電話に書いたものを写します。監督者は見て見ぬふりをします。これは絶対に信じられません。いえ、学生はAIなしで考える能力を持つ必要があり、私は試験中のChatGPTの禁止に賛成です。一年中は許可されるが、試験中は、セッションが監視され、AIの使用が禁止されることに賛成です。人々が人工知能と並行して訓練され、今度は、先ほど言ったように、AIに押しつぶされ、粉砕される大きななまけ者にならないために。
プラトンの教訓
アントーヴェン: AIは結論の仕方を知っています。
ローラン: 何を言いたいの?
アントーヴェン: 長い間話しているということです。私は…一言で結論する前に。
それは不公平です。私はあなたと同意していると言いたいのです。
ローラン: ほら?
アントーヴェン: そうです、あなたが言ったことに同意しています。しかしなぜでしょうか?あなたが言ったこと、怠惰、AIの離れ業と一緒に来る怠惰の危険は、2500年前に「パイドロス」というプラトンの対話で理論化されました。これはトトの神話で終わる対話です。トトは文字の神です。
そしてトトはある日、テーベの王タモスの前に現れ、彼に言います:「ファラオ、王よ、記憶を救う素晴らしい方法を開発しました」。王は言います:「それは何ですか?」「それは文字と呼ばれ、見てください」。そしてトトは最初のヒエログリフを板に描きます。
そして愚かでない王は、発明者は自分の発明の効果の悪い判定者だと彼に言います。なぜならトトが開発したばかりのものは、記憶を救う手段ではなく、王が言うには、忘却を救う手段だからです。なぜなら今後は外部から、もはや内部からではなく思い出すからです。
我々の代わりに思い出すという注意を道具に委ねることによって思い出します。そして、そのような症候群を、記憶に残る何かを生きるたびに、それを写真に撮る必要があることで千倍になったのを見ます。それを思い出すためではなく、まさに忘れることができるようにです。
そして一般的に、技術はより少なく働くことへの永続的な招待です。ところで、より少なく働く人々、道具を使わない人々、道具を使う人々、自分で働く代わりに持っている道具を使う人々は、2倍時間を失います。まず、道具での研究に時間を失い、真に自立した思考の製作に専念しない時間だから時間を失います。
しかし、私はこの点を強調しますが、これはプラトンが2500年前に理論化し、神話にした問題です。この問題には新しいことは何もありません。
最終投票結果
最終投票の結果が発表されました。44%がAIは人間より強いと答え、56%がそうではないと答えました。「いいえ」が引き続き勝っていますが、両者の間に20ポイントの差があります。したがって、ローラン・アレクサンドルはかなり説得力があったようです。
アントーヴェン: しかし私自身もそのような問いに「はい」と投票したでしょう。それは問いのせいです。
世論調査と同じですが、とにかく、これは我々に考えさせました。私は信じていますし、それがこの番組の目的でした。ご一緒いただきありがとうございました。来月、「論争」の新しい回でお会いしましょう。


コメント