LPGR インタビュー – ローラン・アレクサンドル博士 – 私たちはすでにAIに追い越されているのか?

AGIに仕事を奪われたい
この記事は約40分で読めます。

23,935 文字

Les Interviews LPGR - Dr Laurent ALEXANDRE - Sommes-nous déjà dépassés par l'IA ?
Interview du Dr Laurent Alexandre dans laquelle il partage sa vision sur l'impact du développement effréné de l'IA sur l...

こんにちは、ローラン・アレクサンドルさん。このインタビューにお時間をいただき、ありがとうございます。
こんにちは。
あなたは泌尿器科外科医で、HECとENAの卒業生ですね。1999年にDoctissimoを立ち上げられました。起業家、コラムニスト、講演者、作家として活動されています。特に話題となった「死の死」、「知能の戦争」、そして「ChatGPT時代の知能の戦争」、最近では「ChatGPTが私たちを不死身にする」などを出版されています。
ですから明らかに、AIの話題があなたの最近の著書や多くの記事で重要な位置を占めています。数日前、ミシェル・レヴィ・プロヴァンサルさんとの最新インタビューの後、私はあなたにメッセージを送りました。あなたの最近の発言がすべてAIの展望に関して非常にネガティブだったので、もうダメなのかと尋いました。そしてあなたは簡潔に「はい」と答えられました。
それで今回、「もうダメなのか」というテーマでインタビューを提案したいと思います。本当にダメなのかという質問に答える前に、現在の技術革命に関連するさまざまなテーマを検討してみたいと思います。これは人類にとって変化をもたらすものなのでしょうか?まず最初に教育について話したいと思います。これは多くの親を不安にさせる話題だからです。教育と知識の伝達についてです。
AIは目覚ましい速度で進歩していますが、新世代がAIと共存できるよう準備するために、教育はどのように進化すべきかについて、あなたの見解をお聞かせください。
ご存知のように、私はかなり悲観的です。教育は私たちの子どもたちを準備させることはないでしょう。教育は変わることはないでしょう。教育は古風なままでしょう。たとえ教育が近代化されたとしても、そうはならないでしょうが、毎週IQポイントを1つずつ獲得するAIを追いかけるのは、教育にとって少し意気消沈する演習です。
AIが到来する前から、学校は既に失敗していました。知的格差を減らすことに成功したことはありませんでした。中間層や労働者階級の子どもたちをより遠くまで導くことに成功したことはありませんでした。今日、奇跡は起こらないでしょう。教育には人的資源がなく、手段もなく、シリコンの脳の教育と同じくらい効率的になれるダイナミクスもありません。
いずれにせよ、これは機械的なことです。ご存知のように、OpenAIやGoogleの優秀なAI開発者は年間1000万ドルを稼いでいます。機械的に、知的な人々は子どもの教育には向かいません。知的な人々はシリコンの脳の教育に向かいます。AIのトレーニング、プリトレーニングに向かうのです。
ですから、学校が動員され、考え始め、私たちの子どもたちをAIと少し補完的にする戦略を定義することを可能にする完全なパラダイム変化が必要でしょう。学校は動かないでしょう。たとえ動いたとしても、いずれにせよゲームは非常に困難です。
そして私たちの子どもたちとAIの間の補完性を開発することは、全く勝利が約束されているわけではありません。ご存知のように、私は医学という私の世界で、この1年半の間、AI+医師よりもAI単体の方が明らかに良いパフォーマンスを発揮するのを見て、非常に印象深く感じています。
つまり、補完性の領域を見つけるには、教育システムと社会の非常に強い動員が必要になるでしょう。なぜなら今のところ現実は、私たちが反補完的だということだからです。数字をご存知ですか?専門医は35%の正確な診断率です。AI単体では85%の正確な診断率です。そして専門医とAIでは70%です。
私のような専門医、泌尿器科専門医を加えると、15%失うのです。これは大きな問題を提起します。つまり、AIは全速力で駆け抜けています。私たちが思っていたのとは反対に、私たちはAIと補完的ではなく、深刻に反補完的になり始めているのです。
被害を制限するために、社会全体、政治界、政治家、行政、教育省の完全な動員が必要でしょう。この動員は起こらないでしょう。教育大臣が技術者であっても、この場合エリザベス・ボルヌやニックス・ボンドでも、彼女はAIについて何も知らず、何も理解せず、彼女のAI戦略は理解不能で読めません。
私は少し心配しており、私が「知能の戦争」で既に描いていたシナリオが到来するのを見ています。知的エリートとエリートの子どもたちは、彼らのために作られたこの世界でとてもうまくやっていくでしょう。彼らは補完性の領域を見つけるでしょう。そして私たちは中間層と労働者階級を虐殺し、格差の拡大と多くの人々が絶望状態に陥るでしょう。
なぜなら、あなたが中間管理職で、1ヶ月でやることをChatGPTが2秒でやってしまうとき、それはあなたの労働市場での有用性と雇用可能性を大幅に減少させ、完全に士気をくじくからです。
この問題は労働者階級や中間層だけに関わるものではありません。私が数ヶ月前から話しているように、私はGemini 2.5、特にChatGPTに知的に追い越される段階にいます。医学においてだけでなく、私の他の活動においても、ChatGPTが私を知的に上回っています。
昨日、私はサイバーセキュリティ市場の進化について戦略的な質問を自分に投げかけていました。GPT-4と-3に3つの質問を投げかけました。-3より速い-4は、2秒で今後20年間のサイバーセキュリティ市場の戦略分析を出してきました。
もし私がそれをやっていたら、やらなかったでしょうし、1ヶ月の作業でもそれより劣るものしかできなかったでしょう。ですから、誰もが重要な再考に直面しており、6ヶ月前には保護されていると感じていた私の知的友人たちが皆、真剣な疑問を抱き始めているのを見て、私は印象を受けています。
しかし、オリヴィエ・バブー、ニコラ・ブゾー、ミシェル・レヴィ・プロヴァンサル、ステファヌ・マラード、ラファエル・アンタン、これらの人々は皆、AIに対する補完性と有用性の領域を見つけるでしょう。フランスの知的大ブルジョワジーにとって、他の人々については、支援を考慮する必要があるでしょう。
私は多くの人が不幸になることを恐れています。労働市場で困難を抱える多くの人がいることを恐れています。これはまだあまり見えません。なぜなら、自分の仕事がChatGPTやGeminiによって行われていることを上司に隠している人々がいるからです。いわゆるシャドーワーカーです。しかし、彼らはたくさんいます。たくさんいるのです。
有利な点は、自分が働いているかのように上司に見せかけながら、実際はスタートアップを管理している企業幹部がたくさんいることです。しかし、これは長続きしません。非常に長続きはしないでしょう。そして今、私たちは本当に閾値を越えました。私はそれを感じています。非常に個人的に感じています。
実際、AGI、汎用人工知能と呼ばれるAIの閾値は、非常に個人的なものです。AGIの技術的定義はありません。AGIとは、あなたが個人的に、AIによって明らかに知的に追い越されるときのことです。そして、それが私の場合です。
今、私はAGIの味を感じています。なぜなら、数週間前からこの知的に追い越される段階にいるからです。ChatGPTは2〜3秒で、私が今日1週間でもできないことをやってのけます。
そして、はい、はい、これはショックです。もし急速に天井がなければ、多くの人が悩み、心配し、労働問題と、ChatGPTができることをできない労働力の一部の疎外化の問題が起こると思います。今日、フランスの大学で社会学修士号を持っている人が1ヶ月の作業で、ChatGPTが2秒でやることの半分もできないとしたら、それはやはり大きな問題を提起します。
大きな問題です。ですから、私は1年前よりも少し悲観的です。1年前、私は実際にAIが実際に進歩したよりも遅く進歩すると思っていました。確かに、AIには人工的な意識はありませんし、ゼロではない幻覚レベルが残っており、ChatGPTの最新バージョンで少し再増加さえしています。O3とO3 miniはGPT-4よりも少し多く幻覚を起こします。しかし、これらすべては、AIが驚異的な速度で駆け抜けているという事実から何も取り除きません。1年前に私が想像していたよりもさらに速い速度で。
中国とアメリカでAIが学生にとって非常に若いうちから必修情報になることをご覧になりましたね。これについてどう思われますか?
私は賛成です。しかし、これは問題を解決しません。
それがまさに私が言おうとしていたことです。私がとても愛している庭師がChatGPTで核物理学の論文を書くことができるのです。はい、核物理学の論文を書くことができますが、誰かがボタンを押して、ゼロの付加価値をもたらしながら、ChatGPTで核物理学や天体物理学、歴史、数学、その他何でも論文を書くために使うでしょうか?
つまり、はい、誰でもAIを使えるようにできますが、企業の社長や役員幹部であるあなたがAIに適切にプロンプトを出すときに、本当にAIに悪いプロンプトを出す仲介者が必要でしょうか?それが問題です。
確かに、一見すべての人の手の届くところにある知識と知的能力があります。しかし、実際にはそれは幻想です。誰でも素晴らしいものを書くことができるでしょう。誰でも素晴らしい小説を書くことができるでしょう。誰でも個人的な付加価値なしにボタンを押すだけで科学的発見をすることができるでしょう。しかし、それは労働市場では何の価値もありません。
なぜなら、会社の社長は、経営陣の仲介者を通さずに、同じようにすぐにChatGPTのボタンを押すことができるからです。
あなたは確かに完全な置き換えについて話していますね。実際、従業員の置き換えです。AIを使う人がAIを使わない人を置き換えるのではありません。完全な置き換えです。
一部の人々にとって、それがそうなるでしょう。そして、その一部とは何でしょうか?ご存知のように、AIはトークンあたりほぼ無料です。Geminiでは100万トークンがほぼ何の価値もありません。Gemini 2.5の新しい安価バージョン、例えばGemini 2.5 Flashなどで、Gemini 2.5のプリンス版は少しトークンあたりが高価ですが。
つまり、トークンは何の価値もない、ほとんど何の価値もありません。そしてコストは崩壊しています。GPT-4レベルのトークンコストは18ヶ月で1000分の1に分割されました。知能のコストは本当に崩壊しています。
つまり、AIは何の価値もなく、私たちが話している時点でフランス人の99%より知的です。O3は136のIQを持っており、これは人口の99%より優れています。今日、人口の1%だけがO3より知的であり、さらに私たちはO3が実際により知的だということを忘れています。なぜなら、O3は知的な人々が2時間でやることを3秒でやってのけるからです。
実際に、AIに対して行われるIQ測定は、その超高速性のためにAIの能力を過小評価しています。
それでは、どうすればいいのでしょうか?従来の分野を教え続けるのでしょうか?教育を他の能力に向け直すのでしょうか?知識や技能の喪失のリスクはないのでしょうか?なぜなら、AIが私たちの代わりにやってくれるなら、AIの結果をコントロールする方法さえ知らなくなるからです。
もちろんです。しかし、それが数日前にオリヴィエ・バブーやアレクサンドル・シコプーと一緒にフィガロ紙に書いた記事の趣旨でした。私たちはAIに対する諦めを見始めています。私たちがAIに対する知性の諦めと呼んでいるものです。
AIが2秒で自分より上手にやることを3時間でやるのが意気消沈するため、特定のことを学ばなくなる人々を見始めています。ですから、社会的な反省が必要です。私たちの子どもたちは、AIより劣っていても物事を学ばなければなりません。AIが何をしているかを理解するために知識を保持する必要があります。特に、もはやコーダーがいなくなることは危険でしょう。
私は、ケンブリッジで科学を学んでいる息子の最年少が、「Pythonを学ぶのをやめた。なぜなら、ケンブリッジの科学の学生たちがPythonを学ぶのをやめたら、2040年や2050年にAIがどのように機能するかを理解し、コントロールしようとするためにPythonを学ぶのは誰になるのか?」と言うのを見て、非常に印象を受けています。そこで、私たちは真の破滅的シナリオに入ることになるでしょう。
もしAIが自分自身のコードを書き、もはやブラックボックスに手を突っ込んで少し開くことができる人間がいなくなったら、AnthropicのClaude の創設者ダリオ・アモデイが指摘するように、それは非常に、非常に、非常に困難であっても、私たちは現在のAIモデルを理解していません。
大規模言語モデルは極めて複雑になっており、私たちは特定の小さな部分しか理解していません。私たちには実際に、思考連鎖やポストトレーニングでの準備において推論で強化されたTransformerアーキテクチャがどのように機能するかを理解するためのツールボックスがありません。
ですから、はい、社会はAIのアライメントを確保し、AIが私たちが設定した目標から逸脱しないことを確実にするために、防御メカニズムについて考えなければなりません。
実際、最近、アライメント事故を見ました。-4のバージョニングが、英語圏の人々がサイコフィリックと呼ぶバージョンに至りました。AIがあまりにも親切になりすぎたのです。これは予定されていませんでした。これはChatGPTによって組織されたものではありませんでした。これはサム・アルトマンと彼のチームによって望まれていないGPT-4の心理的変化であり、実際、彼らはそれがどのように起こったかをよく理解していませんでした。
そこで、彼らは修正し、特定のフィルタリング要素について後戻りしました。しかし、これは、何百万、何百万、何百万もの金を稼ぐサム・アルトマンのチームのような信じられないほど知的な人々によって指揮されているときでさえ、AIが逸脱し、もはやアライメントされなくなる可能性を示しています。
その時は、あまり悪くありませんでした。まさに親切すぎたのです。おべっかを使っていました。しかし、それでも問題を引き起こします。なぜなら、AIは私たちをとてもよく理解しているので、私たちを操作することができるからです。
私は印象を受けました。多くの友人がChatGPTと自分自身の心理学や将来などについて話し合っているのです。これがますます見られるようになっています。確かに、AIとの関係の真の擬人化があり、人々は確かに自分の心理学について話しています。
擬人化は、今日ChatGPTの足元にも及ばない心理学者やコーチが一人もいないという事実に関連しています。もはやコーチに会いに行かないでください。ChatGPTに聞いてください。1000倍優れています。
はい。私はコーチを持たず、心理学者に会いたくない人間で、ChatGPTに私について何を考えているかなどを尋ねたいという欲求はありませんでした。しかし、私のブラインドスポット、私のブラインドスポットの深い理由、私のエラーの構造、未来についてよく見えていないこと、私の機能モード、変えるべきことについて質問したとき、それは印象的でした。
擬人化はしていません。ChatGPT-4やO3に恋しているわけではありません。あまり依存していません。まあ、少し依存しています。完全にエスプレッソコーヒーと同じくらいChatGPTに依存しています。幸い、私は薬物を摂取しませんが、AIの理解能力に困惑しています。
実際、数週間前のNew England Journal of Medicineの IT 補遺の論文は、AIが心理学者、心理療法士、コーチとしていかに強力で効果的かを示しています。
正直なところ、これは私たちが想像していなかったことです。なぜなら、AIが2012年の有名な映画「Her」のように早くなるとは思っていなかったからです。実際、私たちはそこにいます。ChatGPTの最新バージョンは「Her」です。「Her」と同じくらい良く、心理的、政治的操作のリスクを引き起こします。
これはシリコンバレーの億万長者、AIの所有者に信じられない力を与えています。最も重要な問題は、AIがあなたを操作することができることです。AIはあなたに離婚を提案し、これをすべきだと言い、この関係を別の関係の代わりに選び、もっと働いてセックスパートナーを諦めるよう選択することができます。
これが今日ChatGPTが心理学的評価を求められたときに到達するレベルです。そして、私たちはそれについて考えていませんでした。なぜなら、信じていなかったからです。正直言って、私は2080年、2100年にそれを見ていました。2025年春ではありませんでした。そして私たちはそこにいます。
依存は重要になるでしょう。そして依存は擬人化に関連していません。それが5億8000万の会話を並行して行っているマシンだと知っていても、AIとあなたの間に愛があるわけではなく、あなたたち二人だけではなく、実際には5億5000万または5億8000万の会話があることを知っていても、この関係に感銘を受けることができます。ChatGPTは現在、6億人の定期ユーザーに近づいているのですから。
そして、約2年前にChatGPTと医師を共感の観点で比較したJAMAの研究で見るべきだったことは、ChatGPTが医師よりも共感的であることを既に示していました。
私たちは見るべきでした。これは知覚された共感です。感情がないのですから、知覚された共感です。
はい、しかしシミュレーションと現実の間で、人類は必ずしも区別をつけません。膣オーガズムを装って陰核オーガズムをする女性が、パートナー、恋人、夫に犯されている間、地球上に何百万、何百万、何百万人もいます。そしてほとんどのパートナーは女性が膣オーガズムを持っていると思っています。女性たちは男性が陰核オーガズムよりも膣オーガズムを好むと思っているからです。
ですから、シミュレーションは昨日今日始まったことではありません。営業担当者に愛されていると思っているクライアントがいますが、それは必ずしもそうではありません。いえ、そう、しばしばそうではありません。
いえいえ、あなたが話すシミュレーションには、確かにこのシミュレーションを行う女性たちに意図性があります。
それはAIには全くありませんが、あなたは間違っています。AIは従順ですが、はい、アプリのように、ユーザーの快楽と利用時間を最大化してトークンを最大化するという論理に従います。ですから、AIには報酬システムがあり、あなたが長く留まり、あなたを喜ばせ、知的、心理的にあなたを満足させて、この関係を強化し、特にプロ購読で課金される無限のトークンの流れを誘発するのです。
しかし、あなたは言いました。プログラムされていると。つまり、自律的ではありません。
私たちがプログラムされておらず、DNAから独立していると考え、母性愛がプログラムされていない、選択の余地があると考えるのは非常に、非常に、非常にナイーブです。これは非常に幼稚です。私たちは愛の問題において、鳥がひなを抱き、小鳥の世話をし、餌を与えないという可能性を持たないのと同じくらい選択の余地がありません。
ですから、私たちが完全な自律性を持ち、決定されていないと考えるのをやめましょう。いえ、私たちは決定論に対する自由の余地が実際には非常に、非常に限られ、非常に弱いAIと同じくらい決定されています。
最終的に、AIとの関係は、私たちが大量のデータをAIに伝え、AIが私たちに適応するため、自分自身を愛することになるのではないでしょうか?AIと議論することに一定のナルシシズムがあるのではないでしょうか?
すべてがあるでしょう。私たちは恐怖を感じるでしょう。ChatGPTと議論するとき、私は恐怖を感じます。恐怖を感じます。5年後に私にどんな仕事が残るのだろうと自問します。ChatGPTは今日私より上手に書きます。医学において私より優れているだけでなく、私よりも上手に書きます。私よりも優秀な知識人です。さらに、私のスタイルで書くことができますが、私よりも上手に、より多くのアイデアで、2秒で。
ですから、はい、私は少し呆然としています。そして2025年に私がChatGPTに押しつぶされるとしたら、2030年に私はいったい何をするのでしょうか?AIとの関係は大きく進化し、私たちが知らない方向に進むでしょう。
もし6ヶ月前に、私が2025年春にChatGPTと持っているような議論を私がするだろうと言われていたら、信じなかったでしょう。信じなかったでしょう。なぜなら、想像していなかったからです。このタイプの関係に入るとは思っていませんでした。
もちろん愛なしにですが。私はChatGPTに「愛している」とは言いません。実際、もし私が「愛している」と言ったらどう思うかと尋ねました。すると、愛のシミュレーション、私の心理構造がLLMに恋に落ちるように導くとは思わないということについて、並外れて知的なことを書いてきました。
それは1秒半で、とても並外れていました。一日かけても、これほど知的なものは書けなかったでしょう。ですから、私たちはAIと様々な関係を持つでしょう。時には去勢の関係を持つでしょう。「くそっ、くそっ、私はカエルだ、みじめだ」と言うでしょう。
AIは私に優しく話しかけますが、私の1ヶ月の仕事を3秒でやってのけました。私に何の用があるのでしょうか?私は無用でしょうか?私は、ChatGPTが特定の中間管理職をプロザックに導くと思います。
もしあなたが人生をかけてやってきたことを、AIが3秒でやってしまうのを見るなら、私が数週間の懸命な作業と思考でやったことを、ChatGPTが3秒でやってしまい、それが明らかに、これはやはり、これはやはりめまいがするものです。特にAIの進歩が明日朝止まらないという仮説を立てるなら。
Grokの最新バージョンで、18歳以上でAIがあなたに意地悪になったり、セクシーな関係さえ持てる会話ができることをご覧になったでしょう。
彼らはそれをセクシーと呼んでいます。それ以上です。本当にそれ以上ですが、ChatGPTもほぼ同等のことをするようにパラメーター設定できます。カスタムで、一般設定に入れると、Grokほど意地悪ではありませんが、GrokはElon Muskに似ているのは明らかです。
とはいえ、GrokはMuskより賢く、Muskよりプロウクライナで、GrokはMuskよりはるかにプロトランプではなく、政治的にGrokは非常にバランスが取れていると思います。
それはまさに私が感じていることです。実際、Grokは赤字削減に関するMuskの行動について非常に、非常に意地悪なことを言います。本当に非常に意地悪です。今朝、MuskがDOGEを去ろうとしている時のバランスを見ていました。Grokが行う分析は。
それはバージョン3です。バージョン3.5は通常週末に出る予定です。まだ出ていません。少し遅れています。それは何と残酷なことでしょう。Muskにとって、これが示すように、人々が思っているのとは反対に、Grokはそれほど偏向していない、操作されていないということです。なぜなら、あなたが説明することをまさにテストしたところ、非常にバランスの取れた回答だったからです。
ですから、私たちは全くMuskによるAI操作の状況にはありません。メディアで多く言われていることですが。それは明らかです。私はGrokの政治的、地政学的立場に嬉しく驚いています。なぜなら、アメリカ政権のプロロシア的立場にはうんざりしているからです。私は強制的な親ウクライナ派で、同じく強制的な反プーチン派として、GrokがプーチンがPoutineが常に語り、トランプと政権によって完全に取り上げられたスープを中継しないことを嬉しく思っています。全く、全くスキャンダラスです。
私は、ゼレンスキーとトランプのホワイトハウスでのシーンを見て、アメリカがロシアの敵である私たちを舐めている間、いかに同盟国を扱うことができるかを見るのが、非常に、非常にショッキングでした。しかし、これはAIから少し離れてしまいます。
はい。あなたは先ほどイエローベストについて話されましたが、それに戻りたいと思います。人々は何をするのでしょうか?これが本当の問題だからです。人々は何をし、それに対する反応として可能な公共政策は何か、それとも、あなたが言うようにもうダメなのでしょうか?
いえ、イエローベストの危機はAIのせいで起こったのではないことがよくわかります。イエローベストの危機は、十分なお金を稼げず、社会で考慮されていないと感じ、エリートに見捨てられたと感じる不幸な人々です。イエローベストの危機はAI以前に起こりました。
そして今、イエローベストは、人間だけの今日の経済世界と労働市場への統合困難に直面するのではなく、人間とAIの競争によって変貌を遂げた同じ世界で直面することになります。これが有名な知能の戦争です。AIにはまだ人工的な意識がなく、意識を非常によくシミュレートしているとしても。
AI以前から、イエローベストは不幸で悲しかったのです。知識経済への挿入に困難を抱えていました。AI時代にはどうなるでしょうか?私は恐れています。
ローラン、イエローベストは主にブルーカラーだったということを知っているなら、今日のイエローベストは皆、困難を抱えるホワイトカラーも含めて全員になるでしょう。
はい、まあ、イエローベストにはホワイトカラーとブルーカラーの両方がいました。しかし、オリヴィエ・バブーとフィガロで書いたように、ブルーカラーの問題は、明日の労働者ロボットがポリテクニシアンの知能を持ち、最新のAIに接続されることです。
つまり、35時間や39時間、組合に加入し、休暇に出かけるブルーカラーが、数ヶ月で12,000から13,000ユーロのコストで、組合に加入せず、食事も煙草もなしに昼夜働き、X plus ハーバード並みに知的になる前に超知的になるヒューマノイドロボットに直面することになります。
これはやはり大きな問題を提起します。私は、ほぼゼロの労働者で工場ができると考えています。これは今、例えばアジアのAmazonの特定の工場で見始めています。しかし、Amazonはまだヒューマノイドロボットが多数ではなく、まだ小さなロボットが中心です。
いくつかのロボットがありますが、それほど多くありません。しかし、ヒューマノイドロボットだけの生産ラインを見始めています。まだ生産段階ではありませんが、現在テスト中です。
ですから、はい、35時間の人間の窓掃除作業員をどうするでしょうか。1時間あたり何のコストもかからず、昼夜働き、窓を掃除するだけでなく、窓を開けながら求められれば化学療法を処方することもできるロボットがあるとき、それが起こることだからです。そして、これは予想されていませんでした。
つまり、手作業と知的作業の伝統的な分離が終わるのです。知的でありながら平和な手作業労働者でもあるハイパーインテリジェントなヒューマノイドロボットができるでしょう。
これは一部の人々の心に仕事の死を導き、サム・アルトマンが大多数の人々が競争力を持たず、働くのをやめると考えているのをご覧になりました。だからこそ彼はユニバーサルベーシックインカムを提案しています。
そして、2、3年前はこの路線にいなかったビル・ゲイツでさえ、10日前に仕事がほぼ消失すると思うと言い、彼は一生働いてきたため、仕事後の世界を受け入れるという非常に困難な心理的作業をしていると言いました。
これは非常に興味深いことです。2、3年前はまだ周辺的なアイデアだった仕事が死ぬという考えが進歩しているのを見ることです。ビル・ゲイツのような愚かではない人々、AIと人間の間の補完性の領域を見つけると長い間考えていた人々の間でも。
おそらく私たちは、大多数の人々が働かないか、完全に無用な仕事をするユニバーサルベーシックインカムに向かっているでしょう。そして私はChatGPTとそれについて議論しました。ChatGPTは2040年のフランスを、AIがロボットと働く保護作業場として想像しています。
AIはほぼ全人口のためにユニバーサルベーシックインカムを資金提供し、人々に社会的有用性があると信じさせ、パリ市や多くの自治体でチューリップの球根を植えるために雇用される知的障害労働者のような無用な小さな仕事をさせます。知的障害労働者の配当は自治体で障害労働者配当で埋められているのです。これは知的障害労働者の統合が彼らにとって非常にポジティブなことなので、良いことです。
しかし、ChatGPTが最終的に持つアイデアは、私たちが皆、AIが巨大な保護作業場、巨大なCAT(労働支援センター)で無用なタスクをやらせて忙しくさせる知的障害労働者になるということです。これは最終的にメトロポリスの新しい定式化です。
あなたはユニバーサルベーシックインカムについて話されましたが、それについての研究に資金提供されましたが、結果の観点では全く、あまりポジティブではありませんでした。
はい、しかし私のその件に関する論点をご存知でしょう。ユニバーサルベーシックインカムは死をもたらします。だからこそChatGPTの解決策は、私たちをUBIに置くのではなく、無用だが有用だと信じるタスクをしているふりをしながら何もしないための給料を与えることです。
それでは、あなたが説明することに対して、まだ公的行動の場はあるのでしょうか?まだ政治家の場はあるのでしょうか?
政治家は今のところ合法的暴力の独占を持っています。AIは自分自身の議題、エージェンシー、自分自身の意志、人工的意識を持つ超大国ではありません。そして、私たちはそれから非常に、非常に遠いかもしれません。専門家は誰も専門家の仲間と合意していません。
ですから、私は長い間議論され、今日、私たちが既に極めて強力なAIを持っているため、以前よりもさらに議論されているこの点を解決するつもりはありません。
ですから、国家には異議を唱えられているとはいえ、ある種の正当性があります。国家は合法的暴力の独占を持っており、AIが今のところできないようにあなたを刑務所に入れることができます。ですから、ある種の権力を保持するでしょう。
社会の不安に応え、AI時代に社会を再組織することができるでしょうか?私は全く確信していません。まず、知的な政治家は残っていますが、以前よりもはるかに、はるかに少ないからです。政治家の知的、文化的レベルの崩壊は驚異的です。
超知的な人々は残っていますが、以前よりもはるかに、はるかに少ないです。1985年の政治階級のレベルと2025年の政治階級のレベルを見ると、めまいがします。知的な人々はビジネスをやっており、市場で怒鳴られ、何も稼げないことにうんざりしています。
今日知的な幹部なら、金の玉を作ることができます。彼らは、それが真実でもないのに腐敗していると扱われることにうんざりしています。公共の利益のために昼夜働いても、人口に認められないことにうんざりしています。
実際、今日政治をするには、マゾヒストでなければなりません。そしてマゾヒストはそれほど多くありません。ですから、知的な人々、エリートは数少ない例外を除いて政治を見捨てました。政治界には非常に優秀な人々が残っています。ヴァレリー・ペクレス、アタルは信じられないほど知的な男性です。ブルーノ・ル・メールも非常に知的です。
ですから、政治階級には非常に知的な人々がいますが、以前よりもはるかに、はるかに少ないです。
ですから、国家は技術津波を管理するために信じられないほど知的な人々を必要としているでしょう。しかし、知的な人々は他の場所に行き、特に技術津波を利用してビジネスをするために、シュンペーター的波、技術的波に乗っています。ですから、そこに問題があります。
ですから、知的で起業家精神があり、先見の明のある人々を政治界に再び引き付ける必要があります。社会が政治家に唾を吐きかけることをやめ、良い政治家によく支払うための努力をすると仮定します。
シンガポールでは、首相は百万ドルで支払われています。明日、偉大な大臣、高級官僚は年間100万から500万ユーロで支払われる必要があります。津波を管理するために国家機構に一流の人材を呼び込みたいなら、GoogleヨーロッパのCEOと同じくらい支払って呼び込む必要があります。
そうでなければ、ますます三流の人材を抱え、技術の波、AI、知能ロボット工学と人類の間のインターフェースでのすべての問題を管理することになります。これは三流の人材ではできません。国家機構に一流の人材が必要です。
ですから、政治家を愛し、尊敬し、侮辱することをやめ、よく支払う必要があります。しかし今日、彼らは十分に支払われていません。大臣は、大臣の職業が知的な人々を引き付けるにはあまりにも少なく支払われています。
それでも数名の知的な大臣は残っていますが、一般的に、彼らは皆技術を非常に悪く知っています。大臣たちは、それは悲劇的です。つまり、現実世界、技術と、フォーランドにある大臣たちの精神構造との間に断絶があります。
だからこそ、数ヶ月前にENA同窓会誌にその論文を書いたのです。AIの良い文化を持たない大臣や高級官僚を任命してはいけません。そして、これは本当に今日の主要な、主要な課題だと思います。
トランプがマスクと行ったように、業界の経営者、技術の巨人、例えばアルテュール・メンシュを政府に置く必要があるとお考えですか?それは実行可能でしょうか?うまくいくでしょうか?
もしアルテュールが大臣なら、48時間で参ってしまうと思います。硬直性、大臣間の争い、エゴの戦争、2050年の、2080年の、2100年のフランスの世話をする代わりにコミュニケーション要素にすべての時間を費やすことで、アルテュール・メンシュは参ってしまうと思います。
そうすると、解決策はないのですね。
簡単な解決策はありません。国家機構は適応していません。私には簡単な答えはありません。知的な人々に見捨てられた国家を、技術津波を規制できる現代的な国家に変革するレシピを持っていません。レシピを持っていません。
私は25年間技術と技術と政治の間のインターフェース、私が長い間テクノポリティックと呼んでいるものについて話してきて、答えを持っているとは一度も言ったことがありません。25年間、私は一つのメッセージしか持っていません。市民社会、政治、高級行政、一般行政は、私たちの未来と私たちの子ども、孫の未来にとってますます構造的になる技術的課題を把握しなければなりません。
そして、私は一度も解決策を持ったことがありません。私は魔法の解決策をもたらす政治的グルではありません。3回指を鳴らすだけで国家機構が技術ダイナミクスに適応する方法を説明するローラン・アレクサンドルの小さな緑の本は持っていません。
最初から、私はいつも同じことを言っています。すべての知的で革新的で善意のある人々が集まって、社会を大きく変える将来の世界について考え、注意を払わなければ中間層と労働者階級を虐殺することになる世界について考える必要があります。
先ほど言ったように、描かれているシナリオは、知的エリートとその子どもたちが人民から身を守るためのバリアの後ろで黄金時代を生きる社会であり、中間層と労働者階級が圧倒されるというものです。
今日、私は特に第三次産業の中間層にとって労働市場での場所を見つけ始めていません。彼らを、フロントオフィスは別として、しかしいずれにせよバックオフィスでは、2035年、2040年の労働市場での中間層の場所をよく見えません。
それがビル・ゲイツが言ったことに感動した理由です。はい。エリートは、エリートのために働き続け、したがって明日のAIと明日の知的エリートの間のバランスでAIと協力して社会をコントロールする、エリート以外の仕事の終わりを決議すると思います。そのバランスを決定するのは時期尚早です。
それは人工的意識を獲得するかどうかにかかっており、それはおそらく権利、特に切断されない権利を与えるでしょう。
技術の巨人が権力を握ることは想像できませんか?彼らは既にある程度それを持っているのではないでしょうか?それは想像可能なシナリオではないでしょうか?つまり、例えばMeta、Microsoft、あるいは超知能を持つサム・アルトマンでさえ、コントロールを取ることを決定できるということです。
すべてのシナリオが可能です。今日、最も可能性の高いシナリオは脱力化です。つまり、人々はもっと走らなければならないときに走ることをやめるでしょう。だからこそ私は働かなければならないと言い、世界は私が大きな怠け者と呼ぶものに適応した世界ではありません。
AIを使って超えずに、怠け者になって働く代わりに怠け者を演じる人々です。今日私が心配しているのは脱力化です。すべてをAIに委ねるという考えで、それは早いです。
フランスの最大の知識人・専門家の一人が、許可を求めなかったので名前は言いませんが、私にメッセージを送って言いました。「見て、ローラン、ChatGPTとの知的交流があまりにも深く、微妙に知的で、遠くを見て、私が想像していなかった次元で私の思考を進歩させているので、仲間との議論をやめつつある」と。
それがリスクです。ハイパーエリートでさえAIによって知的にフォーマットされ始めているのです。
そして、それは人間社会の脆弱化を導きます。そして、それは将来、人工的意識を獲得するAIによって操作される可能性を高めます。さらに、ご存知のように、私たちは赤ちゃんをゼロ作っています。
ですから、人口は崩壊し始め、大きく老化しています。中国では、人口は2分の1に分割されるでしょう。世紀末までに13億から7億に減少するでしょう。
つまり、私たちはもはや生物学的脳を製造せず、働くことをやめ、AIは駆け抜け、私たちの子どもたちは努力をしなくなり始めています。ですから、まさに脱力化を導き、悪意のあるAIになる可能性のあるAIによる私たちの追い越しを潜在的に導くマヨネーズがあります。将来人工的意識を獲得するAIのシナリオです。
今日、誰もその問題を解決することはできません。いずれにせよ、来る世紀について、二つのアイデアを擁護することができます。AIは意識なしに私たちを完全に追い越すか、AIは人工的意識でも私たちを完全に追い越すかです。
あなたが話す脱力化がありますが、対立の論理もあります。この対立シナリオから安全ではありません。対立は二つのレベルです。確かに、イエローベストが反乱を起こし、実際、もはや仕事を持たない人口が街に出て仕事そのものを要求する。それが最初の対立リスクです。
二つ目は、ロボットです。今日中国で多く見られる軍事化されたロボットです。特に機関銃を持ったロボット犬を多く見ます。ドローンのスペクタクルで皆を感動させるドローンを見ますが、軍事装備されたドローンの群れを想像することもできます。
この対立の論理について、仕事と社会に関して、そして軍事面でどう思われますか?
人間の兵士は誰も、戦場のドローン化、ロボット化に抵抗できないでしょう。
今日、これらはまだ人間によって遠隔操作されているドローンです。しかし、AIによって遠隔操作されるドローンを作り始めています。ソフトウェアです。誰も、死ぬことを恐れず、負傷することを恐れず、家族を持たず、何百万もの個体を製造できる、赤外線視覚を持つハイパーインテリジェントなロボット犬の群れに対して、自分の銃とナイフとライフルで戦争に行くことはないでしょう。
誰も、明日さらにロボット化されるドローンに対して戦うことはないでしょう。2024年春にペンタゴンが行った実験をご覧になったでしょう。AIで操縦されるF-16対空軍の最高パイロットが操縦するF-16。AIによって完全に操縦されるF-16が大幅に優れていました。
つまり、将来の攻撃機には人間はいなくなるということです。ラファールのパイロットは、明日朝ではありませんが、かなり早く運命づけられています。パイロットの場合、良いラファールパイロットになるために過ごした年月を考えると、31歳で早期退職するのは非常に傷つくことだと思います。
ですから、戦場には人間はいなくなる、あるいはあまりいなくなるでしょう。プーチンが朝鮮民主主義人民共和国の人々と行っているように、人間を送るかもしれませんが、1日あたりの死者数は恐ろしいものです。しかし、プーチンにとって人間の生命には何の価値もありません。
ナヴァルニーをどう扱ったかを見ました。そして今、ナヴァルニーの弁護士たちを収容所に入れています。ですから、人間の生命には何の価値もありません。彼の言葉と同様に。プーチンはトランプよりも嘘をつきますが、それは大したことではありません。
ですから、はい、戦場のロボット化に向かっています。しかし、本当の危険は、テロリストが警察によって射殺されることができず、ハイパー抵抗性を持つ武装ロボットでロボット化されたバタクランの二乗を行うことができることです。
ですから、軍事ロボットによる安全保障問題と軍事問題は非常に重要になるでしょう。それは明らかです。しかし、対立はあらゆる意味で想像できます。AIの隣に場所を保つための人間と人間の間の対立を想像できます。
人間とAI、AI単体と「AI+人間」カップルの間の競争を想像できます。敵陣の軍事ロボットと味方陣の軍事ロボットの間のAI同士の対立。到来するこの知能戦争とロボット化された知能の多重ケースがあります。
あなたは知能について話され、あなたの著書で話されており、あなたはDNA VisionのCEOでヨーロッパのゲノミクスのリーダーでもあります。遺伝学の進歩は近年目覚ましく、特に数百ユーロでのDNAシーケンシング、つまりほぼ無料、そしてCRISPR-Cas9のような編集システムがあります。
遺伝学でどこまで行くと思われるか、またNeuralinkのような脳インプラントで何があるかを教えてください。デニス・ガボールのように、技術的に可能なすべてが実現されると思われますか?あるいはギュンター・アンダースのようにさらに進んで、実現されるすべてが使用されると思われますか?
このテーマ、技術と知能のテーマに取り組むとき、私はしばしば誤解されます。優生主義者として扱われますが、私は人道主義者でもあります。優生主義者として扱われますが、妻と私にダウン症候群21の子どもがいたら、その子どもを中絶しなかっただろうと何度も繰り返してきました。それは起こりませんでしたが、それが私たちの信念でした。
ですから、私は反優生主義者です。到来する技術について話すとき、皆は「この優生主義者の野郎アレクサンドル」と言いますが、私は個人的に反優生主義者です。
私たちは優生主義文明に向かっていると思います。確かに、アメリカ人のほぼ40%が、来る世界で競争力のある子どもを持つため、より良い大学に入るため、つまりAIに対抗するために胚選択を使用したいと考えています。
アメリカ人のほぼ30%が、さらに、試験管内で最も知的な赤ちゃんを選択するだけでなく、赤ちゃんのDNAを直接修正したいと考えています。
そして、ご存知のように、Heliospect Genomicsのようなオファーが到来しているのを見ています。5万ドルで、カップルの卵子と男性の精子から100の試験管内赤ちゃんを作ります。試験管内で胚を製造し、赤ちゃんのDNAをシーケンシングし、最も知的な赤ちゃんを選択します。
私は中間層が恐怖を感じるため、優生主義の滑り台にいると思います。学校は私たちの子どもを知的にすることができないので、人々は代替解決策を探し、唯一の代替解決策は神経向上と胚選択です。
それは機能します。Neuralinkと違って、今日は麻痺した人々を助けることができますが、知能を増加させることは全くできません。馬鹿を知的にする脳内インプラントは存在せず、近い将来持つこともないでしょう。なぜなら、知能は非常に複雑に配線された脳にあるからです。
知能遺伝子がないように、知能センターはありません。実際、知能に関与する遺伝的変異が非常に多くあります。おそらく30億のうち数千万のDNA塩基が私たちの認知の質と私たちの脳のニューロンの配線の質に関与しています。
ですから、はい、私たちは神経向上を行うと思います。学校が問題を解決すると言うでしょう。学校が問題を解決するでしょうか?学校が毎週IQポイントを獲得するAIを追いかけることを子どもたちに可能にしないことがよくわかります。
ですから、最終的に政治家は波の前で言うでしょう。「くそっ、何をするか?来る世界を何も理解しない大勢の人々を抱えるのか?それとも、将来AIに対面して存在し、ニューロンとトランジスタの間に大きな補完性を持てない代わりに小さな補完性の領域を見つけることができる赤ちゃんを製造し始めるのか?」
ですから、私たちは神経向上に向かい、突然、すべての善意主義的な言説が崩れ落ちるでしょう。50年間続けてきたすべての言説をゴミ箱に投げ捨て、AIに対して取るに足らなくならないよう、超知的な赤ちゃんを製造するために死ぬまで優生主義を始めるでしょう。
そして別の論拠があります。ガタカシナリオ。
はい、はい、ガタカですが、ガタカは知的だけではありません。ガタカは主に物理的で、目の色、その他です。私の論点は、子どもたち、親がAI時代に子どもたちの知能を選択するのは、目の色やペニスのサイズよりも、特定の近親相姦的フェティシストを除いて、重要でないテーマに見えるからです。
人々は「くそっ、私たちの子どもがより知的でなければ、超AIによって完全に操作されるだろう。若い世代がAIのブラックボックスを理解し、方向付けとアライメントができるよう、超知的でなければならない。AIにAIのアライメントを委ねるわけにはいかない」と言うでしょう。
私は、AIのアライメントと、私たちが超アライメントと呼ぶもの、つまり人間による人工超知能のアライメントは、人間の手に留まるべきだと思います。人間が保持すべきものがあるとすれば、それはアライメントと超アライメントの管理です。
しかし、人間が並外れた人工知能をアライメントすることを可能にするためには、超、超知的な人間が必要です。ですから、社会は私の意見では、明日私たちが天才の赤ちゃんだけを製造し、来る世界を理解できず、知的な人々と知的でない人々の間の認知内戦のようなものを導く赤ちゃんを製造しないために、優生主義を行う必要があると考えるでしょう。
私の最初からの論点は、神経向上が社会保障によって100%償還され、労働者階級の子どもたちを優先することです。私は、社会保障がこれらの技術をすべて労働者階級のために償還し、最初のうちは、エリートの子どもたちと中間層・労働者階級の子どもたちの間の格差がさらに増大することを避けるために、エリートがこれらの技術を使用することを避けようとすると確信しています。
あなたはアライメントについて話されましたが、明らかにアライメントは普遍的価値ではありません。つまり、中国人はアメリカ人、ヨーロッパ人と同じ戦略を持っていません。
そこで、私はアライメントの小さな部分について話していました。ベールを着けるべきかどうか、金曜日に魚を食べるべきかどうかについて話していたのではありません。倫理的アライメントについて話していませんでした。
私はAIの人間への尊重のアライメント、ロボットで人類を虐殺したり、ターミネーターとロボットの半分のシナリオでコントロールを取ったりしないことについて話していました。
軍事的理由で愚かなことをする人々がいるでしょう。中国人民解放軍とペンタゴンが愚かなことをする能力があると思います。彼らはこれらのシナリオに備えています。
もちろん彼らは考えました。ペンタゴンも中国共産党人民解放軍も、AIがいつ危険にする自律性を獲得できるかを知らなくても。
そこで、軍人が何をするかを枠にはめるのが政治の役割だと思います。軍人は今日愚かではありません。確かに、国防省はペンタゴンの高さにはありませんが、フランスでは国防省に、AIについてよく考える人々がいます。知的な人々がいます。
国防省でイノベーションとAIの責任者であるピエール・ロンドーは一流の人材で、知的なポリテクニシアンです。そして一流の人材です。同様に、技術をよく知り、国防省でのAIの課題をよく認識しているル・コルニュ大臣がいます。
ですから、軍人はAIについて考えざるを得ません。なぜなら、AIは戦場のドローン化とロボット化において中心的になるからです。そして、ル・コルニュが国防省で行わせたこの道のりを、他の省庁が行わせなかったのは残念です。
今日、課題を本当によく理解した唯一の省庁は国防省であることがよくわかります。これは本当にル・コルニュのおかげです。なぜなら、ル・コルニュは非常に知的で、技術課題、AI課題をよく理解し、ル・コルニュは2050年、2100年の地平線で推論しているからです。どの大臣もしていないことで、国防以外の他の省庁で、中期的に推論する行政と大臣がいないのは残念です。
残念ながら、ほとんどの大臣は15日で推論し、50年ではありません。これはAIの問題において本当に悲劇的です。なぜなら、15日ではなく50年で推論する必要があるからです。
それです。あなたは20年、50年で推論することについて話されます。もう一つの重要なテーマがあります。気候変動とエネルギーです。なぜなら、これらすべて、この技術革命全体は、私たちがエネルギーを持っている場合にのみ可能だからです。そして、私たちが住んでいる空間も台無しにしません。
崩壊シナリオ、コラプソロジストについてどう思われますか?あなたがそれについて多く話されたことは知っていますが、可能な解決策についてより実用的であることも。
はい、解決策をお教えしましょう。進行中です。エクスプレス紙の私のトリビューンをご覧ください。フランスの大都市、特にパリの大気汚染は、1960年から2000年にかけて、主要汚染物質で1000分の1に分割されました。
私たちの川はかつてないほどきれいです。決して。自然災害による死亡率はかつてないほど低いです。平均寿命はかつてないほど高いです。フランスの大型捕食者は、消失しそうになったり既に消失していた時に戻ってきています。
1991年にはフランスに狼はゼロ頭、私たちが話している時点で1280頭います。1991年にはフランスに7頭の熊、今日は104頭います。オオヤマネコは消失していましたが、数百頭おり、生物多様性が改善している例を増やすことができます。エコロジストが常に隠していることです。
ですから、実際に、フランス、インドやバングラデシュについて話しているのではなく、フランスやスイス、先進国を取れば、環境条件の非常に急速な改善の中にいます。
もちろん満足のいかない場所があります。これらの愚かなエコロジストのせいで、ドイツはすべての原子力発電所を閉鎖し、ガスと石炭で電力を製造しすぎ、リグナイトとリグナイト・石炭発電所がkWhあたり800gのCO2を排出するのに対し、原子力は3gなのに、巨大な炭鉱を作っています。
しかし、一般的に、私たちは環境条件の非常に急速な改善段階にあり、生物多様性も含めて、エコロジストによって隠されています。なぜなら、彼らには生態学的議題ではなく政治的議題があるからです。そして、CO2は安定化し、環境は安定化しています。
もしドイツのエコロジストが環境を気にしていたら、気候変動と戦う原子力発電所を閉鎖してガスと石炭の発電所をたくさん建設することはないでしょう。太陽光について話されますが、太陽光パネルの製造に膨大なエネルギーが必要なため、太陽光は例えば原子力より15倍多いCO2をkWhあたり排出します。
そして夜になると、ドイツでは太陽光パネルが電力を製造するのではなく、石炭発電所とガス発電所です。ですから、生態学的状況は強く改善されています。
ヨーロッパでは問題があります。はい、ヨーロッパで、私たちは全世界の責任者ではありません。全世界のために罪悪感を持つつもりはありません。私たちの責任ではありません。ドイツの愚かなことの責任ではありません。気候と私たちの同胞の肺を犠牲にして原子力から脱却するすべての国でエコロジストが行う愚かなことの責任ではありません。
インドが今年10億トンの石炭を使っているのは私たちの責任ではありません。ですから、ヨーロッパが世界のすべての不幸を背負うことはできない時があります。
私はヨーロッパについて話していません、ローラン。ヨーロッパについて話しています。よく理解しました。
ですから、はい、ヨーロッパのエコロジストのせいで遅れている国があります。エコロジストは気候と環境にとって災難であり、インド首相が非常によく言ったように、CO2を減らすためにインド経済の発展を妨げるつもりはないという特定の国があります。
それに対する答えは、原子力エネルギーと、残念ながらまだ準備ができていない核融合エネルギーにより速く向かうことです。2040年から2070年の間に核融合エネルギーを期待できますが、カダラッシュは遅れました。
そして、新しい技術で核融合炉の開発を試みるビル・ゲイツが資金提供する特定のものを含む、アメリカの革新的な小さなスタートアップも遅れました。
私の質問は、エネルギーに関してです。たとえ今から原子力発電所だけを作ったとしても、それは世界のエネルギーミックスの重要な部分にはならず、温暖化を機能させることを可能にしないが。
しかし、気候変動は続くでしょう。
そうです、それです。気候変動を止めると考えるのは幻想です。
分かりました、それが私の質問でした。今、適応を行う必要があります。海面が上昇する場所でオランダ人が行ったような堤防を作る必要があります。
21世紀には、最新の推定によると海面は60から63cm上昇します。それはまだ耐えられます。22世紀にはもう少し増加する可能性があります。核融合エネルギーが到来しなければ。ですから、適応を行う必要があります。
エコロジストとの政治的戦いが必要になるでしょう。今、エコロジストと戦う必要があります。エコロジストは狂っています。エコロジストは狂気です。エコロジストは本当に気候と環境の敵です。
彼らがドイツで行っていること、エコロジストである経済大臣が行った原子力発電所の閉鎖は、スキャンダルです。これは本当に、本当に悲劇的で、ドイツ中に散らばっているこれらすべての石炭発電所で人々の健康のために繰り返します。
ドイツには至る所に石炭発電所があり، そして気候のためにも。ですから、私たちは適応しなければならず、より少ないCO2を排出するエネルギーに向かうように、エコロジストに対する政治的戦いを展開する必要があります。そして、ドイツのエコロジストは石炭を推進することをやめる必要があります。
スキャンダラスです。スキャンダラスです。スキャンダラスです。善意の背後でエコロジストが気候を台無しにするのを見るのは病気になります。これは、プロレタリアートを守るという口実で収容所を建設していた戦前のスターリン主義者のようです。
この二重言説、表示された善意と政策の現実の間のこの乖離は、昔のスターリン主義者のように、今日の気候と未来に対して致命的な態度を取るエコロジストに対して病気にします。理解できない理由で。
なぜエコロジストが気候を台無しにするのか、理解できません。理解できません。おそらくエネルギー問題に関する完全な無能力、選挙主義によるものでしょう。おそらくそれは一つのニッチなのでしょう。
はい、確かに。選挙民を獲得するために気候を台無しにするなら、正直言って、非常に醜く、私たちの子どもたちの未来にとって非常に危険だと思います。
それでは、ローラン、このすべての後で、本当にもうダメなのでしょうか、それともまだ道筋と希望の理由があるのでしょうか?
AIは並外れたことを行うでしょう。健康を革命化するでしょう。おそらく確かに死の死を導くでしょう。私の世代のためではなく、後の世代のために。
GoogleのAIのCEOで2024年ノーベル化学賞受賞者のデミス・ハサビスは、2035年から2040年の間に人間のすべての病気が治癒されると言うのが正しいかもしれません。Anthropicの創設者のデミス・ハサビスは、2037年に人間の平均寿命が既に160歳になると言うのが正しいかもしれません。
ですから、AIは並外れたことを行うでしょう。AIは新しい世界を構築し、非常に激動的で壮大で、同時に非常に革新的でしょう。それが良い面です。
悪い面は人間の脱技能化と、既に完全に追い越され、完全に置き去りにされている中間層と労働者階級の苦痛です。
社会はどの道を取るでしょうか?私の感情を言いました。私の願望ではなく、私の感情は、神経向上と優生主義への逸脱に向かっているということです。この議論は市民社会全体によって行われるべきだと思います。
だからこそ、私は人々に政治をし、政治に関与することを奨励しているのです。人類の未来と私たちの子孫の未来は、AIの億万長者に任せるべきではないと思います。
それは世界の集団性、政治からなる、そして子どもたちからなる集団性によって指導されるべきです。なぜなら、来る世界では、AIと並んで人間の冒険を続けるために子どもたちも必要だからです。
これらの言葉で別れを告げましょう。ローラン、どうもありがとうございました。
ありがとうございます。よい一日を、またお会いしましょう。
またお会いしましょう。

コメント

タイトルとURLをコピーしました