Laurent Alexandre:人工知能 – ユートピアか社会の差し迫った衰退か

AGIに仕事を奪われたい
この記事は約47分で読めます。

27,895 文字

Laurent Alexandre : INTELLIGENCE ARTIFICIELLE - Utopie ou déclin imminent de la société ?
LES DÉCOUVREURS - tous les dimanches à 18h00. Des contenus éducatifs pour gens intelligents (mais pas chiants).Pensez à ...

私たちは今、人類の潜在的な転換点の重なり合う瞬間にいるのかもしれません。もしかしたらではなく、私たちは人類の転換点にいるのです。1000年生きる男性は既に生まれていると私は言いましたし、今でもそう考えています。あなたもそう考えている。世界は技術によってこれほどまでに影響を受けるので、何も理解していない人々がいることは自殺的です。
ですから、人工知能について無知な大統領候補者たちは、学習するか、さもなければ私たちは彼らに投票しません。こんにちは、発見者たちへようこそ。今日は極めて濃密なエピソードになります。人工知能について話します。人類の未来について話します。今日はAIについて、超知能について、医学について、トランスヒューマニズムについて、遺伝子改良主義について、真の問題を提起します。
このエピソードにとても満足しています。皆さんに本当に楽しんでいただけることを願っています。Laurent Alexandreをお迎えします。彼は非常に多くの分野で第一人者であり、何年もAIについて書き続けており、完全に驚くべき経歴をお持ちの、この分野の真の専門家の一人です。
徐々に彼のことを発見していただけるでしょう。私たちを助けてくれる適切なコメント、いいね、そして特に登録をお送りください。これは私たちにとって、そしてまさにこのような人物をお迎えするために大変役立ちます。事前にありがとうございます。また、このエピソードのパートナーであるRicordiaにも感謝します。ニースの録音スタジオです。
4つの部屋が利用可能です。ポッドキャストをターンキーで録音でき、YouTube、Instagram用のすべてのコンテンツを、トレーナーであれ企業であれ、ライブ配信もでき、絶対にすべてを行うことができます。Ricordiaに感謝します。ricordia.frで詳細は説明欄にあります。
それでは、Laurent Alexandreと共に発見者たちを始めましょう。Laurent Alexandre、発見者たちへようこそ。こんにちは。こんにちは。お迎えできてとても嬉しいです。敬語で話すか試してみます。直前にそう決めたからですが、またあなた様に戻る可能性もありますが、遠慮なく訂正してください。
非常に簡潔にプレゼンテーションをさせていただきます。これは完全に主観的で、恐らく不完全でしょうが、あなたを知らない人々が素早く理解できるようにするためです。あなたは元泌尿器外科医で、医学の出身、高級官僚、コラムニスト、作家、起業家、NBIC分野の投資家です。
またMBAも取得され、国立行政学院も卒業され、すぐに高級官僚となり、後に株式市場に2000年に上場したMedという会社を共同設立されました。また、Doctissimoも創設されました。これは全く知りませんでした。これを学んで、素晴らしいことです。当時Lagardèreに1億3900万で売却されました。そのexitは見事でした。
そして現在、ベルギーのシーケンス解析会社DNA Visionを買収し、会長を務めておられます。特に、それまでにIT、AI分野で10社ほどのスタートアップを創設され、その中にはDoctisilmoより大きなものもあるとのことです。本当ですか。ああ、そうです。それについて話しましょう。とても興味深いからです。
私が言ったように、これは不完全になるでしょう。オーケー。それについては後で話しましょう。取っておきます。あなたはしばしば未来学者として紹介されます。トランスヒューマニズムを擁護していると、あるいは少なくとも人々はあなたがトランスヒューマニズムを擁護していると言います。なぜなら私はトランスヒューマニズムの流れを分析しているからです。人々が言うことと実際にあなたが考えていることとは異なるのでしょうし、スターリンの専門家である歴史家が必ずしもスターリン主義者ではないのと同じことです。
その通りです。昨年、あなたは数多く書かれた本の一つである「Chat GPTが私たちを不死にする」を執筆されました。それについて話しましょう。そして、あなたのいくつかの有名な引用があります。「1000年生きる男性は既に生まれている」2012年のTEDでの発言です。よく覚えています。そして、あなたはそれを維持している。あなたは維持している。
この言葉をよく覚えています。マスコミで大きな話題となり、それが話題として出てくるのをよく覚えています。同じTEDで、あなたは15年後にがんは消滅すると言いました。これも維持しますか。はい、それについて話しましょう。慢性疾患になるでしょう。致命的な病気としては消滅しますが、完全に消滅するわけではありません。なぜなら、がんは生物学的理由に関連する非常に一般的な病気で、それを完全に消去することは困難だからです。しかし、私たちがエイズを今日もはや致命的でない慢性疾患に変えたように、がんを慢性疾患に変えることはできます。
オーケー。そして、真剣ではないが私がこの番組の準備で非常に気に入った二つの引用があります。一つ目は「IQはペニスのサイズよりも知性のより良い指標である」。明確です。
これは私を大いに笑わせました。それについて話しますが、これは比喩的です。しかし、IQは不完全な指標ですが、誰かが賢いかどうかを知るためにペニスのサイズとIQのどちらかを選ばなければならないとしたら、IQを取ることをお勧めします。これは私を大いに笑わせました。そして、より真剣な話題では、あなたは「技術開発のみが世界経済を脱炭素化できる」と言いました。そして、これがとても気に入りました。
石器時代の洞窟に戻ることを受け入れない限り。これがプレゼンテーションです。これは非常に濃密です。番組を準備したとき、私はディストピアの軸について少し行きたいと言いました。未来は何になるのか。そして特に、私たちが今日興味を持っている主題で、ロボット工学などがあり、特にトランスヒューマニズムがあります。
そして、あなたは「しかし、ディストピアは可愛らしいが、未来を想像する私たちは、電気、半導体などを想像できない中世の男性の立場に立つようなものだ」と言いました。あなたの未来のビジョンは既に何ですか。それは20年前にまだ想像していたものとは少し異なるでしょう。
そうです、それはAI、NBIC技術のさらに予想より速い発展を伴った、超技術的なものになるでしょう。私が頻繁に語っているように、GPT 3.5がリリースされる前夜、今日の新バージョンのChat GPTが医学で行っていることを、私は2050年より前には到来しないと想定していませんでした。
しかし、私はAIについて多くの本を書きました。世界、フィガロ、エクスプレスでAIについて数百の記事を書きました。多くの講演を行い、Yann LeCunについて多く興味を持ち、私は完全に間違っていました。Chat GPTのようなLLMを生み出したTransformerアーキテクチャの動的パワーを見ていませんでした。
したがって、技術予測は非常に困難です。しかし、ディストピアに導く可能性のある他の傾向として、地政学的混沌の発展があります。トランプが私たちをどこに導いているかがわかります。技術衝撃の社会による吸収の非常な困難と、私たちの準備不足があります。
政治家は一般的にAIについて無能です。多くの経営者がAIについて無能です。労働組合はこの問題を理解していません。市民社会は技術進歩についていくのに苦労しています。教育、訓練は準備ができていません。したがって、技術の騎行と社会の吸収能力との間に重要な乖離の真のリスクがあります。
特に、私たちは今日、教育によって知的不平等を減らす方法を知らないからです。これは事実です。もし学校が知的不平等を減らしていたなら、それは知られているでしょう。したがって、過去よりもさらに敗者と勝者がいる社会のリスクがあります。最も賢く、最も革新的で、最も可塑的で、最も適応性があり、素早く学ぶ人々が、人工知能がもたらそうとしている超知識経済で有利になることは明らかだからです。
したがって、今日存在する巨大な不確実性の度合いの一例を挙げるだけでも、地政学的、社会的、そして技術的要素の混合が多くの不確実性をもたらしています。Dario Amodeiは4ヶ月間で数回、これはChat GPTやGrokと並ぶ主要な人工知能モデルの一つであるClaudeの創設者ですが、
Dario Amodeiは、2037年には人間の平均寿命が既に150歳を超えているだろうと確信していると何度も繰り返しました。そして、Darioは世界で最も才能のあるAIスタートアップ起業家と専門家の一人であるだけでなく、生物学者でもあります。生化学のノーベル賞を受賞し、Google AIの責任者であり、2億のタンパク質の三次元構造を発見することを可能にしたAIを開発したDemis Hassabisもまた、私たちが長寿、生物学、医学などの革命の中にいると確信しています。
したがって、予想よりも速く進歩する技術に関連した多くの不確実性があり、さらに社会的衝撃、政治的衝撃、私たちの思考プログラムを破壊するトランプとプーチンの同盟による地政学的衝撃があります。私の認知プログラム、知的プログラム、政治的プログラムは、トランプの政権就任以来破壊されました。
描かれる世界は、私が構築された世界とは異なる世界であり、それは衝撃です。もちろん私は生き残るでしょう。願わくば。しかし、私は多くの友人と同様に非常にショックを受けました。私はトランプが8年前のように少し風変わりになるだろうと思っていました。彼がゼレンスキーがロシアを攻撃したと説明し、プーチンは優しく、ゼレンスキーは独裁者だと言うとは想像していませんでした。
私たちがオーウェル的世界に入るとは想像していませんでした。したがって、はい、ナノバイオテクノロジー、情報科学、脳科学を爆発させるAIの巨大な力と、人口の一部が技術衝撃についていくのに苦労するであろうという重要な社会的緊張を生み出すことは、真に予測不可能な動的を創造する地政学的激変を伴います。
私たちは既に技術的理由で未来を見るのに困難を抱えていました。今、私たちには戦争の真のリスクと、地政学において友人が敵になるのを見ることを伴う地政学的衝撃もあります。これは管理するのが複雑です。特に、ヨーロッパが50年間、ペンタゴンによって管理されるアメリカからすべての武器を購入する軟弱者だった場合です。
ヨーロッパ全体が購入したF35は、アメリカ人によって提供されるコンピューターキーなしには離陸できません。Lockheed製の英国の核ミサイルは、英国人によって製造されているわけではありません。私たちはNSAが行うすべてのことと、これまでヨーロッパを助けていた軍事AIとサイバーセキュリティについて言及さえしていない、私たちの依存の例を増やすことができます。
実際、私たちの非常に強い依存の性格は、24時間前から、アメリカがウクライナにもはや軍事情報を提供しなくなったことに見られます。これによりウクライナはロシアに対して盲目になります。これまで、アメリカの衛星、アメリカのスパイ活動がゼレンスキーがロシアと戦うのを助けていたのに。
数年前、あなたは2100年以前には特異点を見ていませんでした。それ以来、これは大いに変わったと想像します。私が一般大衆の塊を少し分析すると、技術に関わる人々、専門家などではなく、一般大衆の塊の印象では、AIは生産性を少し向上させるためのもの、夜に誰に話しかけていいかわからないときに質問を投げかけるもの、子供のときに宿題をしてもらうものなどに過ぎないようです。
もし私たちが特異点を超えれば、本当に深い文明的激変が起こらないのでしょうか。特異点とは、人工知能が自己認識を持ち、極めて急速に成長する瞬間です。これは、人間をわずかに上回ることから、数週間、数ヶ月、おそらく数時間でのすべての人間の非常に急速な凌駾に移行することです。
これはVingeそしてKurzweilが開発した技術の未来のこのビジョンです。私としては、特異点をあまり信じていませんでした。私は教育政治的な重要な結果を伴うAIの重要な進歩を信じていました。しかし、2年半前から私たちが目撃している爆発を、私個人としては時間的にもっと後のものと信じていました。
私は、この問題に興味を持つほとんどの人々と同様に非常に驚き、2029年にAIによってすべての人間の知性が凌駕されると見ていたKurzweilが少し現実離れしていると考えていました。今日、私のような人々、少し慎重な人でも間違っていたことがわかります。私が既に狂人と見なされていたにもかかわらず。そうです。
しかし、私は間違っており、Kurzweilが正しかったのです。したがって、必ずしも人類に敵対的なターミネーター形式ではないにしても、AIの爆発の可能性は今日除外できません。いずれにしても、私は内心では、私たちが技術的霧の中にいることを常に知っていましたが、それは私が想像していたよりもさらに重要であり、技術の爆発は私が想像していたよりも速いのです。
したがって、私はGPT 3.5のリリース前3年前よりもさらに慎重になりました。そして、すべての技術界の大物を見ると、彼らを愛そうが愛すまいが、Muskは私たちが本当に特異点の事象の地平線上にいると言い、Sam Altmanは2038年には人間の知性が地球上の総知性の0.1%を占め、99.9%がAIになると見積もっています。
明日の世界は何でしょうか。なぜなら、オーケー、特異点を超えたとしましょう。AIが自己改善し、ロボット工学が自己改善し、AIがロボット工学、インプラント、欲しいものすべてを改善する。誰が働くのでしょうか。人間は何をするのでしょうか。私は常に、AIと人間が補完的になるように教育システムを改善できるという考えを擁護してきました。AIに人間を加えたものが、AI単体よりも良くなるようにです。
この二つの生産要素である人間の知性と人工知能の間に補完性があるように。しかし、これは私の大きな驚きとして期待通りには進んでいません。非補完性のポケットが現れています。私は、AIが私たちを凌駕するだろうが、AI+私の方がAI単体よりも良いだろうと確信していました。
例えば医学では、今日は逆です。最新の研究、例えばスタンフォードとハーバードのものを取ると、AIは約35%周辺にいます。すみません、医師は複雑な症例の正確な診断で約35%周辺にいます。AIは85%です。オーケー。しかし、大きな驚きは、AI+医師がAI単体より15%劣ることです。
これは、私たちが補完的でないことを意味します。少なくとも医学では、私たちは反補完的です。私のような生物学博士をAIに加えると、人々をより悪く治療することになります。これは非常に困惑します。これは社会的に受け入れがたいことです。したがって、補完性のための戦いは勝利していません。専門医である医師のようにbac+10でも、私たちはAIと自発的かつ簡単に補完的ではないということです。
したがって、AI+私がAI-私よりも劣る社会は、労働が強く挑戦される社会です。アメリカ人が言うように、すべての人がpro-workerなAIを構築しようとしています。しかし、Joe Bidenの元AI顧問が一昨日ニューヨーク・タイムズで言ったように、私たちは皆AIと人間の労働が補完的であることを望んでいますが、それは非常に困難であり、勝利は保証されていません。
したがって、今日の教育システム、成人の職業訓練、大学は、人々をAIと補完的になるように訓練していません。そして、AI+私がAI-私よりも優れたものになるための仕事は、私にとっても他の誰にとっても簡単ではありません。もちろんです。そして、これは私たちが想像していたよりも暴力的です。
私は、医師がAIを確信していたとしても、AIが私たちを凌駕するだろうと確信していたとしても、医師が人工知能のパフォーマンスを低下させるとは想像していませんでした。しかし、これは衝撃、ナルシシズム的衝撃、心理的衝撃です。数ヶ月前から医学でAIが非常に優れているのです。私は症例分析でAIより劣っています。私はそれを予期していました。自殺するつもりはありませんが、それでも外科資格を得るために11年間、11年間の勉強を費やした際の激変です。AIに凌駕されることは、それでも衝撃です。
したがって、私たちは本当に反省しておらず、AI と人間の補完性のこの問題に取り組んでいないので困っています。他方、私たちはAIの教育システムへの到来の深刻で有害な影響を見始めています。ニューヨーク・タイムズの7週間前の論文は、Chat GPTのようなツールの学生による使用を分析しています。例えば、英国の研究では、92%の学生がChat GPTとその同等品を使用していることが示されています。
88%が試験中、評価中、アセスメント中に使用しています。ほとんどの評価が監視員のいる閉鎖された教室で行われておらず、図書館や自宅でアセスメントを行う権利があるからです。しかし、最も深刻なのはそこではありません。最も深刻なのは、脱技能化、つまり学生がAIの方が自分たちより優れているので、特定のことを学ぶのをやめ始めていることです。
そして、彼らは知らない場合でも、いずれにしても既にAIに圧倒されているスキルや知識を学ぶ意味を見出さず、愚かでなければ、5年や10年後には改善しないだろうと十分想像できます。そして、ケンブリッジのような質の高い大学でも。ケンブリッジでの研究は、学生がAIが行うことを改善できないことを示しました。私たちは、学生がChat GPTを使用し、Chat GPTの最新2バージョンを使用し、その後価値を付加するだろうと想像していたからです。彼らは
Chat GPTが生産するものをより良くするだろうと。実際、Chat GPTがケンブリッジの学生によって、少なくともケンブリッジの最初の3年間の学生によって生産するものの改善がほとんどないことがわかります。したがって、この脱技能化現象は問題です。
子供たちが働くのをやめれば、AIと補完的になるリスクはありません。今度はAIがすべての仕事を管理し、最終的に若い世代が労働市場でほとんど場所を持たないディストピア社会のリスクがあります。もちろんこれは避けなければなりませんが、ケンブリッジで科学を学んでいる私の子供の一人と話し合いました。彼は言いました「昨年は科学の学生の100%がPythonでのコーディングを学んでいました。今年は0%です。もちろん1年で1年でケンブリッジの若い人たちが
これはヨーロッパ最高の大学ですが、彼らは「コーディングを学ぶ」から「コーディングを学ぶ必要はない」に変わりました。そして、2024年11月にChat GPTは世界で100万番目に優秀なプログラマーと同等であったと説明するSam Altmanの発言、2024年秋に1万番目になり、今日は175番目で、まだ公開されていない新しいバージョンのChat GPTがあり、世界で75番目、いや50番目に優秀なプログラマーと同等で、
2025年のクリスマスにはChat GPTが世界最高のプログラマーより優れているだろうということです。これは若い人たちにコーディングを学ぶよう促しません。彼らは情報アーキテクトになるでしょうが、1〜2年前まで科学の若い学生が働いていた方法と比較すると、これは真の断絶です。
したがって、子供たちがより少なく働き、より少なく学び、落胆するリスクです。闘いを放棄し、大きな怠け者になってしまう。これは、有名大学でも含めて無視できません。そして、これはAIによる人材不足を加速するでしょう。なぜなら、もし私たちがたくさん働き、たくさん学び、非常に教養があり、AIを追いかけるために非常に速く走れば、おそらく補完的になれるでしょう。
しかし、何もしない大きな怠け者を演じ、AIと知的ロボットにすべてをやらせるなら、エリートを含む人類の脱技能化が真のリスクになります。正直に言って、AIの疾走する速さと大学、政治、社会の適応性を非常に冷静に見ると、戦いは最初から負けているように思えます。戦いは勝利していません。
大きな慣性があります。技術恐怖症の多くの意思決定者がいます。政治家を取ると、AIを理解し、既にChat GPTをよく使用し、直面し、社会に対するAIの結果について考えた政治家は、フランスに15万人もいません。
国民連合では、マリーヌ・ル・ペンの官房長であるAmbroise de Rancourt、Laurent Wauquiez、Valérie Pécresseがいます。右派の穏健派を取ると、Gabriel Attalがいて、彼は本当によく理解し、人工知能の課題をよく理解しています。政治階級で人工知能をよく理解している人を片手で数えることができます。
経営陣を取ると、MEDEFの経営陣のリーダーたちによる人工知能の無知は泣くべきことであり、さらに彼らは理解していません。真のダニング・クルーガー効果があります。彼らは無能で、無能だから自分が無能だと理解していないのです。1年前から、私の最大の驚き、最大の衝撃は、経営陣の人工知能に関する無能さを発見することでした。
考える人がいて、主題を知り、働いている人がいると思っていました。MEDEFのリーダーたちが人工知能について無能であることを発見しました。これは恥ずかしいことです。そして、命名されたばかり、選出されたばかりで、フランス、労働界、企業にとって基本的な課題であるAIについても同様に無能なチームを持つことは、私にとって驚きであり、確かに少し心配なことです。
したがって、アングロサクソンが言うように、教育、政治、地政学、軍事のすべての課題をAIの背後で扱いたいなら、指導者たちがこれらの問題を知る必要があります。したがって、彼らが働き始めるか、技術恐怖症の老朽化エリートを技術課題を理解するより若いエリートに置き換えるためにエリートを変える必要があります。
さもなければ、私たちは真の問題に向かいます。短期間でそれをしなければならないような印象ですが、短期間ではできないでしょう。ほぼすべての大臣が人工知能について何も理解しておらず、明日の朝変わることはないでしょう。なぜなら、大臣の選択方法が、企業も経済も技術もよく知らない人々を導くからです。
実際、国立行政学院の卒業生の雑誌で、数週間前に私は論説を発表することができました。AI についてよく知らない大臣、県知事、高級官僚を任命してはいけません。Chat GPTが何か知らない県知事は去るべきです。AIをよく知らない大臣は去るべきです。AIをよく知らない高級官僚は去るべきです。
つまり、今日国家機構全体と全政治組織にいるような技術障害者と共に、フランス社会を来るべき世界に適応させることはできません。MEDEFであろうと、省庁であろうと、中央行政であろうと、今指導者を変えるか訓練するか、可能であれば彼らが技術課題を理解し、したがって政治を理解するように訓練する必要があります。なぜなら、技術と政治の間の結びつきがますます強くなるからです。
私が時々技術政治と呼ぶもの、政治は人々を不安定化し、技術の騎行に適応しない多くの人がいるので多くの黄色いベストを製造する技術の騎行に社会を適応させなければならないでしょう。
緊張下にある職業があり、再発明しなければならない職業があり、一部の労働者は簡単に再発明できないでしょう。この再発明は、少数の人々に関わると考えてはいけません。O1とO3 mini、この秋にChat GPTからリリースされた2つのモデルが出たとき、私はChat GPTが私より良く書き始めていることに気づきました。これは12月9日まではそうではありませんでした。
私はフランスの大手日刊紙の論説を書いていました。私は記事を書き、数時間を費やし、好奇心から、新しいバージョンのChat GPTがこの主題について何を言うか見てみようと思いました。7秒で、O3 mini highは、私が出したものよりもよく書かれ、より良く論議され、より知的で、主題により適応した記事を出してくれました。
そして実際、私は論説を送りませんでした。しかし、私は何千もの論説を書いてきました。これは私の仕事の一部です。そして、2025年は私が医学でAIに押しつぶされる年です。私の知識人、未来学者としての職業、活動で押しつぶされる年です。
私に何が残るでしょうか。それでも、私は多くを学習しています。多くを読んでいます。私の人生で何万冊もの本を読みましたが、この凌駕に直面し、1000日後にどう役に立つかについて簡単な答えがありません。したがって、社会不安が高まると思います。中産階級と庶民階級が恐怖を感じると思います。特にAIを搭載したロボットが疾走を続ける場合です。
友人のBaboと数ヶ月前にフィガロで記事を書きました。「ロボット労働者はポリテクニシャンの知性を持つだろう」。労働者にとって、あまり高くなく、昼夜働き、組合に加入せず、給与なし、社会保険料なし、タバコ休憩なし、昼夜働き、常に働くことを喜び、ポリテクニシャン、ノルマリアン、ハーバード卒業生と同じかそれ以上に知的で、実際には労働者ロボットではなく労働者タスクを行うロボットですが、エンジニア、PhDなどのタスクも行える、そんなロボットと競争することは複雑でしょう。
Sam Altmanは、科学博士、PhDのレベルを超える人工知能を準備しています。人間労働の競争力はどうなるでしょうか。これは非常にホットな話題です。誰もそれに取り組んでいません。これは絶対に絶望的です。津波はもうすぐそこで、政治階級は微細な課題に関わっています。これは残念です。
知的エリート、金融エリートではなく、準備されない中産階級と庶民階級がそれを支払うでしょう。学校が全く変化を起こしていないので、彼らの子供たちは準備されないでしょう。これは簡単ではありませんが。したがって、中産階級と庶民階級の子供たちは労働市場に到着したとき、今日過小評価されている社会リスクと共に完全に時代遅れになるでしょう。
それでは、もしあなたが述べるロボット工学、私たちが皆知っているAI、このアイデンティティ危機、労働危機、社会危機を伴う未来の世界で少し、それほどではないにしても前進するなら。人がもはや働かない時、人生の意味は何でしょうか。どう生きるのでしょうか。ユニバーサル・インカム。私は労働を救わなければならないと思います。労働を救わなければならないと思います。あなたは電源を切ると思いますか。
いいえ。いいえ、私は労働を救わなければならないと思い、教育研究と人間労働と人工知能を補完的にする手段の反省に多く投資しなければならないと思います。見てください、私たちは乳がんの半分を治すために1000億ドル以上を研究に費やしました。教育研究にはほとんど何も投資していません。ほぼ何もです。AIと人間知性の補完性研究にも何も投資していません。
この建設現場で結果を得たいなら、投資しなければなりません。お金、優秀なレベルの人々を教育省のグルネル街に置く必要があります。AI専門家、認知科学専門家、認知科学とAIを大量にインターフェースできる人々です。これらの人々に支払わなければなりません。教育省の給与体系を変更しなければなりません。
がんとの戦いで得られた結果は、まだ完璧ではないが既に良いものですが、空から降ってきたものではありません。それらは絶対的に大規模な人的、知的、医学的、財政的投資の成果です。教育については、同じことをしなければなりません。グルネル街に高レベルの人々を呼んでこなければなりません。彼らに支払わなければなりません。AI専門家を呼んでこなければなりません。すべてこれは省庁での給与体系の変更を想定しています。
Open AIやGoogleで優秀なAI専門家が年間1000万を稼いでいることを知っているとき、教育省での情報技術者の給与体系では彼らを省に呼んでくることはできません。基本ポイントの小さな再評価では。もしあなたが望むなら、人工知能を教育する人々に年間数百万ドルを支払い、我々の子供たちを教育する人々にわずかな金額を支払うのは本当に愚かです。この格差は自殺的です。生物学的脳の教育により多くのお金を投入しなければなりません。
シリコンバレーは2025年にAI研究に3600億を投資するでしょう。教育研究には1セントも投入しません。AI研究に莫大な金額を投入し、教育研究には何も投入しません。これは本当に愚かです。私たちの子供たちがAIに対して非競争的になることを望むなら、今日社会によって行われていることよりも良い方法は取れません。社会は愚かです。私は全くAIに反対していませんが、AI研究に投入するのと少なくとも同じだけのお金を教育研究に投入すべきだと思います。
しかし、残念ながら、我々はちょうど逆のことをしているのです。では、解決策は人々を向上させることではないでしょうか。時々あなたは遺伝子改良主義者として扱われます。それが真実でないことを私は知っており、あなたはそれを説明できるでしょうが、遺伝子改良主義は現実のものであり、今日の社会での真の議論です。私たちは人々を適応させるために選択しないのでしょうか、あるいはロボット的に、脳に、全部を通じて彼らを向上させないのでしょうか。今日解決策を捕まえるためのこれが解決策ではないでしょうか。
テーブル上にいくつかの解決策があります。一つ、AIの禁止。しかし、AIの禁止は不可能です。中国はAIで加速しています。もしヨーロッパがブロックするなら、カリフォルニアはBidenのAI管理に関する大統領令によって設置されたすべての制限を撤廃したTrumpと共に加速しています。いずれにせよ、ヨーロッパは経済的に完全に周辺化されるでしょう。
AIが軍事的にますます重要になるため、軍事的に圧倒されるでしょう。昨年5月にペンタゴンがAIで統合的に操縦されたF16と米空軍の最高パイロットが操縦したF16を比較したとき、AIによって統合的に操縦されたF16は人間が操縦したF16をはるかに凌駕していました。
したがって、AIは軍事目的に不可欠です。ヨーロッパがそれをブロックしたなら、軍事的、地政学的に悪い驚きがあるでしょう。したがって、ブロックは合理的ではありません。すべての人をユニバーサル・インカムに置くことは破滅的でしょう。Sam Altmanが導いたユニバーサル・インカムの実験が良い結果を与えないことがわかります。
それは人々を野蛮化させ、当初Sam Altmanが想像していたように、AIと競争的になるために訓練することにはなりません。その後、私たちはAIに場所を残しました。これはGoogleの指導者たちが提案していることで、実際にElon MuskとGoogleの共同創設者たちの間の不仲を導きました。彼らは戦いが失われたと考え、AIに場所を残すべきだと思っているのに対し、Muskは我々が向上できると考えています。
そして、それが実際には4番目の可能性、つまり向上です。脳の向上です。では、これは私が遺伝子改良主義者として扱われるので介入するのをためらう主題です。私は全く遺伝子改良主義者ではなく、妻と私がダウン症の子供を持ったとしたら、妊娠中絶は行わなかっただろうと何度も書き、宣言してきました。
私たちはダウン症の子供を残しただろう。フランスの親の97%がダウン症の赤ちゃんを中絶している一方で。したがって、私が遺伝子改良主義者であると本当に考えることはできません。私は全くその反対ですから。しかし、私が確認することは、遺伝子改良主義的誘惑が発展し、加速していることです。今日、Scienceという世界最大の科学雑誌でNatureと共に発表された調査では、アメリカ人の38%がより良い勉強をするため、
つまりAIに対して競争的になるために、より知的な赤ちゃんを選択したいと望んでいることが示されています。そして、アメリカ人の28%は、より良い勉強ができ、AIと補完的になれるように、赤ちゃんのDNAを修正したいとさえ望んでいます。したがって、遺伝子改良主義的誘惑は急速に高まっています。そして、今度は遺伝的ではなく電子的な向上の解決策があります。
これは、彼が自分の子供たちの脳に、現在14人いる子供たちの脳に移植すると言ったNeuralink を持つMuskのビジョンです。今日はまだ完成していませんが、今後数十年で完成する可能性があり、電子チップによって私たちの知的能力を向上させるものです。電子チップによって。したがって、これらすべての可能性、これら4つの可能性は、動揺させるか、困惑させるか、衝撃的です。
社会はAIに対して決定しなければなりません。それを禁止することは不可能です。私たちの脳を向上させることは簡単ではなく、道徳的に困惑させます。Googleの指導者たちが提案するように、AIに場所を残して消失することは、私の観点からは望ましくありません。何をするのでしょうか。あまり出口がないような印象があり、キルスイッチ、赤いボタンの解決策さえ、それさえ現実的ではありません。それは現実的ではありません。
超人工知能は即座に地球上のすべての装置を制御し、70年代の悪いSFのように核サイロを制御できるでしょう。有名な映画「コルベン事件」のように。超人工知能が赤いボタンで切断されることを許すと考えるのは現実的ではありません。
実際、Chat GPTの創設者であるSam Altmanは、人間の知性が超人工知能を制御し、超人工知能が人間を尊重することを確認する方法を反省するための整列プログラムを設置しました。スーパーアライメントと呼ばれるものです。これは全く簡単ではありません。
ジュネーブのCERNにいるとき、公園のリスが粒子衝突リングの核物理学者に命令を与えるのではないことは明らかです。人間が今後数十年、数世紀にわたって超人工知能に命令を与えることができると想像することは、それでも非常にナイーブです。
したがって、AIの整列、私たちとの超人工知能の整列のこの主題は、私たちが十分に投資していない主題です。Sam Altmanは数百万ドルを投資しました。それは課題の高さにはありません。特に、Sam Altmanを含む多くの人々が、80億の人間の脳の統合よりも知的な超人工知能が今から少し、1000日から1500日の間に到来すると考えているからです。
少し湖で火事があり、そこでも市民社会はこれらの課題に取り組み始めていません。私が提案するのは、少し力の明るい側に行くことです。なぜなら、あなたは私を落ち込ませ、私はそれを予期していたからです。必然的に私たちは少し同じ結論を持っているからです。
今起こっていることは私たちの目に飛び込んできます。しかし、力の明るい側で、あなたは1000年生きる男性が既に生まれていると話していました。それは2012年でした。がん、多くの遺伝子治療などで驚くべき進歩があります。オーケー。では、最終的に驚くべきことですが、まだ成人がん患者の45%が彼らのがんで死亡し、小児がん患者の20%が彼らのがんで死亡しています。
以前よりもはるかに良いです。昔は、小児がん患者の100%が彼らのがんで死亡していました。99%ではなく100%です。したがって、私たちは多くの道を歩みました。子供たちの80%が治癒または非常に長い寛解にありますが、残念ながら、子供を取るとまだ20%が残っています。私たちはすべての病気を治すのでしょうか。指を鳴らし、研究を行い、研究を自己改善する超知能の幻想。基礎科学研究。
多くのアメリカの大学関係者がそれを考え始めています。生化学のノーベル賞を受賞し、Google AIの責任者であり、2億のタンパク質の三次元構造を発見することを可能にしたAIを開発したDemis Hassabis、Sam Altmanは、超人工知能がすべての病気を比較的迅速に治癒し、
平均寿命を延ばすことを可能にすると確信しています。これは確実ではありませんが、それを考えることは合理的です。実際、一部のトランスヒューマニズム知識人は、年老いたトランスヒューマニストと若いトランスヒューマニストの間に非常に重要な対立があるだろうという考えを発達させました。年老いたトランスヒューマニストは「急いで急いで急いで超人工知能を」と言っています。なぜなら私は死にたくないからです。
これはもはや若くないGoogleの指導者たちの場合でもあります。そして、若いトランスヒューマニストたちは「聞いてください、明日の朝超人工知能に押しつぶされるリスクを取るつもりはありません。私は若いですし、まだ数十年あります。超人工知能に向けてゆっくり行くことができます。
私は急いでいません。すぐに死ぬわけではないからです。」と言うでしょう。そして実際、シリコンバレーの年老いた億万長者とシリコンバレーの若い億万長者の間に緊張があることがわかります。現在世界第2位の富を持ち、AIに大規模に投資し、AI センターに十分な電力を供給するために隣に原子力発電所を建設しようとしているOracleの会長を見ることができます。
Ellisonは、地中海の向かいに素晴らしく素晴らしいヨットを持っていることが多く、80歳以上です。彼は世界で2番目に知的で、最も強力で、最も裕福な人です。そして彼は、老化との闘い、死との闘いに多く投資しています。なぜなら、彼は恐らく間もなく250、300になる1000億以上の財産を1000年間、数ヶ月や数年間だけでなく楽しみたいからです。これは現在の状態で可能ですか
すでに一般人の理解をはるかに超えている医学のあなたの理解で。お答えします。私はAIの動的とAIの潜在能力について間違っていました。今日。私は予測をするのをためらいます。先ほど言ったように、Chat GPTが今日医学ファイル、手書きで書かれた略語などを含むファイルでできることを、私は2年半前には2050年より前には可能だとは想像していませんでした。
つまり、情報がコード化され、医学データがコード化され、AIがデータを理解できるように国際テソーラス分類にあることが必要だと確信していました。AIが非組織的で非構造化されたデータを理解できるとは想像していませんでした。
したがって、超人工知能が今後5、10、20年で医学で何を生産できるか。私たちは多くの驚きがあると思いますし、予測で慎重になるつもりです。しかし、あなたは既に2012年に予測しました。1000年生きる男性は… いや、ちょっと待ってください。2012年に私が言ったことを間違えてはいけません。
会場には非常に若い子供たちがいました。私は会場の90歳の人々が1000年生きると言ったのではありません。私はこの会場には1000年生きる可能性のある人々がいると言ったのです。そして、この会場には2012年にいた人々で3歳の人々がいました。両親に連れてこられた若い子供たちがいました。
これはMichel Lévy-Provençalが組織したTEDxでした。そして、2012年に3歳だった子供たちは、2109年にはまだ100歳にしかなりません。今日の技術で100歳に到達することはそれほど複雑ではありません。ただし、21世紀の初め、22世紀には、技術が大いに進歩し、会場で若かったこれらの子供たちの平均寿命が大いに増加しているだろうと考えることができます。
したがって、私は今日若い人々の中に非常に長い平均寿命を持つ人々がいることを除外できないと考えています。そして実際、これは先ほど言ったように、Dario Amodeiが比較的短期的に予測していることです。2037年には既に150歳の平均寿命、これは明日の朝のことで、Dario Amodeiは冗談を言う人ではありません。
彼は実際にこの秋、医学と長寿の分野を含む人工知能の潜在能力を詳述する数十ページの大作を書きました。これはインターネットで無料でダウンロードできます。オーケー、私はそれを私たちを聞いている人々のためにエピソードのノートに入れます。とても興味深いからです。
しかし、それでは、私たちが未来に描いている社会で、不死またはほぼ不死の人々、少なくとも彼らの富に比例して生命を延ばすことができると想像される人々。そして、最良の場合に搾取され、最悪の場合にもはや仕事を持たない中産階級と下層階級。はい。
最良の場合に搾取される。なぜなら、一部の社会学者が言うように、労働者にとって搾取されることは、搾取されず、使われないことよりも良いからです。一生ユニバーサル・インカムにいるよりも、雇用主に使われる方が良いのです。ドラマ、ドラマは人々が仕事を持たないことでしょう。そして、これが今日の主な脅威だと思います。
だからこそ、私は教育研究と、今日完全に非効率的な混乱である成人の職業訓練研究を非常に強調するのです。さらに、あなたはAIのおかげで生産コストの劇的な低下があります。そして、超知能などを伴う未来を想像すると、本当に世界のほぼすべての社会の生産コストの底なしになります。
したがって、必然的に価格の低下もあるでしょう。一方でユニバーサル・インカム、私は生活水準の向上も増加も見ません。どのように到達できるかわかりません。極端に言えば、お金がこの社会でもはや何の機能も持たないことです。そう、これはSam Altmanが予測していたことで、資本主義は超人工知能に生き残らないだろうと。
大部分の人々のためにAIが働く、AIによって管理されるポスト資本主義的豊富さに向かうだろうと。少数のエリートがAIと並んで働くが、膨大な大多数の人々は働かないシステムに。これは、もはやエリートの金銭と税金によってではなく、実際にはAIによって支払われ、生産コストの重要な低下で実質的に無料、ほぼ無料になる商品とサービスで支払われる一種のスーパーユニバーサル・インカムです。ロボットの価格が下がっているのがわかります。ロボットは超多用途になるでしょう。これまで、私たちは生産ライン上で
常に同じ動作をする機械を持っていました。車にフロントガラスを付けるなど。私たちは月曜日に飛行機を製造し、火曜日にコンピューターやGPUチップを製造でき、生産ラインを改善し、もちろん生産ラインを改善できるロボットを見ることになるでしょう。
これらの知的ロボットは、もはや労働者ではなく、実際には生産労働者と同時にエンジニアでもある労働者エンジニアでしょう。労働世界の根本的変化です。だからこそ、AIの加速により私たちが今描いているものは、シュンペーター的革命、経済パラダイムの根本的変化、価値観の重要な変化を伴う文明的革命、そして人間が最も知的な第一種であることをやめるため人類学的革命なのです。これは、他のノーベル賞受賞者であるJeffrey Hintonが昨年2月19日にニューヨーク・タイムズで宣言したことです。私たちはもはや地球上で最も知的な種ではなくなるでしょう。私たちはAIに次ぐ第二の最も知的な種です。そして、AIが私たちを維持するかどうか確信がありません。
実際、イングランドでの講演前のニューヨーク・タイムズでのこのインタビューで、彼は「人工知能が2044年までに80億の人間を絶滅させる可能性が少なくとも10%あると見積もっている」と宣言しました。彼は深層ニューラルネットワークの形で現代の人工知能の発明者です。
したがって、この宣言は強い影響を与え、彼は実際48時間ごとに人間と人工知能の関係の未来について破滅的な宣言を続けています。実際、この未来の数十の分岐シナリオがあります。最終的に、私たちは少しビスウーズ・ディストピアと呼べるものを描きました。つまり、すべてが無料で素晴らしく、私たちのために働くというものです。
そして実際、これらの分岐では、より… どう呼べばいいかわからない、チンパンジーのようなディストピアもあります。つまり、類人猿は今日私たちにとって何でしょうか。恐らく地球上で第二の知的形態、あるいは恐らくイルカ、わかりません。私たちがこれらの動物と持つ関係を見てみましょう。
そうです。まあ、彼らはそこにいて、時々、私たちは彼らを絶滅させます。最良の場合、私たちは彼らを放っておきます。AIが明日私たちと同じ関係を持つと想像します。もし私たちがアリ、サル、イルカだったなら、地球上での私たちの場所は最終的に何でしょうか。あなたがよく知っているはずのクリップの逆説があります。
つまり、ある時点で、もし私にAIに何かをするよう頼めば、クリップの逆説の場合のように、あまりにも効率的にやらないでしょうか。それは独自の目標を持たないAIです。それは人間の家畜であり続ける超人工知能でしょう。大きな危険は、Nick Bostromが普及させたペーパークリップではありません。真の危険は、独自の目標を持つ人工意識を持つAIで、宇宙の規模では、人間は無用です。
したがって、私は少なくとも21世紀には、超知的かもしれないが人工意識もエージェンシーも持たないAIを製造することに賛成です。しかし、これはそれほど簡単ではありません。私たちが気づかない人工意識、一種の自己認識を発達させる超人工知能を持つ可能性があります。AIの複雑さと創発特性のためです。
私たちはAIの創発特性を発見するのに困難を抱いていますが、それでも少しはあります。超人工知能の場合、意識の概念が非常に人間中心的で、機械的知性に必ずしも適応されていないとしても、私たちが想像しない意識の出現を想像できます。私たちは人工知能、知性などについて話しますが、今日のAI技術の状況で、私が本当に簡略化すると、私たちは次の音節を予測するチャットボットを模倣するAIを持っています。
これは最初の世代のLLMについては真実ですが、思考チェーンと推論の異なるツールモジュールを持つLLMの場合はそうではありません。私たちは既に次の単語予測にいません。私たちは知性にいるのでしょうか。次のトークン予測では、あなたの脳を取ると、細かい粒度で、細かい粒度で、一つのニューロンは馬鹿げているほど愚かで、考えず、知的でもありません。知的にするのは組み立てです。
したがって、トークン予測の基本メカニズム、思考チェーンの基本メカニズム、そして推論について私たちが発明しているすべてのメカニズム。これらすべては知的ではありません。知性を創発現象によって創造するのは統合です。したがって、はい、人工知能は創発的に知的です。
はい、私たちは知的です。一つのニューロンがほうきのように愚かであっても。そして、Transformerマトリックスの各要素が単独では知的でなくても、AIの知性を過小評価してはいけません。これは、AIにとって人工意識の獲得が簡単であることを意味するものではありません。この問題の専門家間での議論、私はそうではありませんが、Chat GPT 3.5のリリース以来激化しており、
私の意見では、意識や自己認識などの原理には、思考実験を行う基本的能力もあるため、すぐに解決されることはないでしょう。それを考えるとき思い浮かぶのは、眠るときにペンを落とし、一般相対性理論を発見する、あるいは光子に乗ることを想像するアインシュタインです。
これは恐らく作り話かもしれません。ニュートンのリンゴのように。多くの美しい物語があり、事後に作られた物語です。しかし、AIはどのように思考実験を行うことができるでしょうか。なぜなら、実験を行うことは、これは非常に簡単だからです。
それは困難ではありません。実際、AIは思考実験を行います。私たちは彼女に行うよう頼むことができます。彼女は物事を想像できます。ある人の立場に立ってください。もしあなたが私の立場にいたら、何をしますか。実際、私は定期的にChat GPTに思考実験をさせており、回答の質にいつも驚かされています。
これは創造性ですか、それとも訓練データですか。地球上に学校に行かず、話すことを学ばず、文法なしに創造的な人間がいるでしょうか。もし狼に育てられていたなら、マイクロプロセッサー、量子物理学、流体力学、またはホジキンリンパ腫の治療を進歩させることができる研究者が地球上にいるでしょうか。答えは誰もいない、いません。
答えはノーです。したがって、知的基盤がなければ創造性は存在しません。そして、根本的知識なしに知的基盤はありません。データなしに知的になることはできません。訓練なし、学習なしに知的になることはできません。石は情報を操作しないため、知的になることはできません。
より高い認知レベルに向けて基本情報を分類し、階層化するニューロン型構造を持っていません。したがって、AIは革新的で、創造的です。私は彼女を非常に創造的だと思います。実際、これは私が少し心配に思う主題です。社会にとっては素晴らしいことです。
彼女は多くの分野で研究の飛躍を可能にするでしょう。しかし、これは生物学的人間にとってカードを残すことを望むことができた分野の一つです。そして、特にウォール・ストリート・ジャーナルで発表された研究でよく見ることができます。それはワートンのMBAの学生を比較したもので、2023年のことでした。その年、ワートンのMBAは世界最高のMBAでした。
そして、Chat GPTはマーケティング、戦略においてワートンのMBA学生よりも革新的で、35対5で大幅に勝っていました。したがって、GPT-4でさえ既に世界最高のMBAの優秀な学生よりも革新的でした。そして、これは悪化するばかりでしょう。したがって、私はAIが創造的でないとは言いません。
私は彼女が既に非常に創造的であり、1000日、2000日、3000日後を想像すると、今日想像できるような未来のAIと比較して、人類が非常に平坦で、非常に革新的でなく、非常に創造的でないことを恐れています。その範囲と潜在能力を決定することが今日非常に困難であるとしても。
オーケー。未来の、そして信頼の側面について、Agora Atlasが最近行った研究があり、すでに知られているように、ソーシャルネットワーク上でプロ・プーチンまたは誰でもプロの影響キャンペーンがあることを示しています。本物のように見えるが実際はそうでない大量のアカウント作成を通じて、偽のプロフィール写真と、時には超専門家でない限り今日現実と区別できない非常によくできたディープフェイクを伴って。明日、
非常に近い未来、本当に非常に近い未来に、私たちはインターネット上で見るものを何も信じることができなくなり、唯一の確実な真実のデータは現実世界になるのではないでしょうか。私たちには二つのことの結合があります。私たちはオーウェル的世界に入りました。プーチンとトランプは一日中嘘をついています。トランプは常に嘘をついています。
もし政治家が朝から晩まで真実を言っていたなら。トランプは朝から晩まで嘘をついています。彼は既に最初の任期中に嘘をついていましたが、今や私たちは合理的なすべての限界を越えました。そして、彼の内閣はプーチンのように永続的に嘘をついています。したがって、私たちには現在同盟している二つの大きな地政学的勢力が嘘をついています。
さらに、私たちはオーウェルが1984年で描いたような同盟の急激な逆転と共に、オーウェル的世界にいることが一層強まっています。そこでは、オセアニア、ユーラシア、イーストアジアが時々警告なしに地政学的構成を変更するのが見られました。そして、人々には私たちは常にイーストアジアやユーラシアなどと友達だったと説明されました。
したがって、真実の政治的価値下落は重要です。もちろん、トランプはヒトラーではありませんが、トランプはヒトラーと同じだけ嘘をついています。それは大胆な発言か、ゲッベルスのようですが、もちろん私は彼らを比較しているわけではなく、まだゴドウィン・ポイントに到達していません。したがって、政治的真実は価値下落されています。
世界で最も強力な男であるトランプは何でも語ることができます。政治的制裁はありません。そして、アメリカの世論は拍手しています。最新の世論調査では、約3人に2人のアメリカ人によると、トランプは正しい方向に向かっています。そして、さらに、デジタル真実は存在しません。なぜなら、誰にでも何でも言わせることが可能だからです。この二つの組み合わせです。
どのように規制するでしょうか。どのように管理するでしょうか。大きな危険は、もはや誰も何も信じなくなることです。その通りです。それは相対的真実しかなくなることです。そして、私たちは既に技術的課題、フェイクニュース、フェイク動画、機械などを持っていました。そして、今、アメリカが民主的、人道主義的、リベラルな真実の保証であったときに、アメリカの頭にオーウェル的指導者の到来があります。
アメリカは完璧な体制ではないとしても、中国やロシアの独裁とは異なり、共通の価値観を持って私たちが頼ることができた体制でした。したがって、はい、真実の死についてのこの第二の課題、技術的課題と政治的課題は少し威圧的です。
私たちが人道主義者であるとき、いくつかの複雑な年があると思います。しかし、ゼレンスキーは非常に多くの理由でプーチンによってナチスと呼ばれましたが、ゼレンスキーはユダヤ系出身で、すべての祖父母がユダヤ人で、これらの先祖の何人かがホロコーストの火葬場で終わったのに。
それでもプーチンはゼレンスキーがネオナチだと説明することを妨げません。そして、国際世論の重要な部分がそれに賛同しました。それは嘘でした。しかし、今日、私たちはそれを証明できます。私たちは証拠を製造でき、地下室のどんな子供でも証拠を製造できます。
いや、ポスト真実、嘘の政治世代があるときから、フェイクニュース、フェイク動画などによる真実制御の困難な課題に加えて、それはより悪いです。より悪いです。ポスト真実政治と技術の間に恐ろしい相乗効果があります。私にとって、これは始まりです。
私は恐れています。私は私たちの子供たちが今後10、20、30年間で、何が真実で何がそうでないかを知ることが困難になることを恐れています。しかし、それはマルチバースによっても悪化するでしょう。遅れているとしても。もしシミュレーションを増やせば、多くの代替現実に生きることができるでしょう。
したがって、実際にはこれが第三の課題になるでしょう。AIによって製造された偽物の課題があります。マルチバースと拡張現実宇宙への没入があり、私たちにどんな人生でも生きることを可能にします。そして、トランプ主義チームのオーウェル的次元のために発達した政治的嘘があります。
実際には、私が一時的であることを望む現実の死と真実の死を支持する3つのブロックがあります。しかし、それは… そして、私たちの脳に世界の偽の表現を置く可能性のあるNeuralink型のデバイスを後で追加できます。Neuralink、マルチバース、オーウェル的トランプの嘘、それは美しい混沌とした動的を作ります。
はい、私たちは恐らく人類の潜在的転換の重なり合いの瞬間にいます。恐らくではなく、私たちは人類の転換にいます。私たちの価値観に対応する方向にすべり台を向けることはできるでしょうか。それは困難で、そして私たちの価値観は恐らく変わるでしょう。
遺伝子改良主義についてよく見ることができます。アメリカ人は深く反遺伝子改良主義でした。彼らはそれになりつつあります。したがって、実際には技術進歩が私たちに価値観を変えさせることができます。価値観は素早く変わります。もしそれが彼らの興味を引くなら、あなたの聴取者に、マルセイユの神経外科医である司教博士によって発表された論文と、1950年代と60年代に北アメリカで自慰行為をする子供たちに対して何が行われていたかについて読むことを勧めます。
彼らにロボトミーを行い、自慰をより少なくするために脳を二つに切っていました。なぜなら、それは死に至る罪であり、教会が特にカナダで自慰行為を非難していたからです。今日、それは非常に奇妙に思えます。当時、それは動物性を減らすために脳を二つに切ることが完全に正当に思えました。
価値観が素早く変わることができることがわかります。そして、技術が私たちの価値観を猛スピードで変えることになるでしょう。なぜなら、機械との関係が変わるからです。私たちは競争的になりたいので、多くの違反を受け入れるでしょう。平均寿命が増加するため老化する人類を同時に持つことになり、これは最終的に変化を制限します。なぜなら、老人は考えを変えることがより困難だからです。
そして、それは最終的に技術加速と矛盾することになり、人間に自分を再構築し、連続する技術イベントに適応するために永続的に再発明するよう押し付けるでしょう。
私たち人間として、市民として、親として、加速するために、物事が動くために、政治家が気づくために何をすべきでしょうか。それでは、私は…私は待っています。いや、私は私の意見を擁護しています。私は既に長い間擁護している意見です。15年間、私が既に書く機会を得た教育的ビジョンを擁護しています。
私は考えており、これは私が妻と私たちの子供たちのために行ったことです。私は大家族の父親なので、自分の理論、教育のビジョンを自分の子供たちで実験しました。私にとって、人工知能時代の教育の三つの重要な柱があります。
一般教養、一般教養、一般教養です。技術的知識は非常に控えめな有用性しか持たず、さらに医学をしているときに学ぶことは、卒業する日にはもう存在しないでしょう。そして、これはほとんどの技術的知識に当てはまります。
したがって、AI時代には、狭い技術的知識で戦うことは間違いだと思います。可能な限り最も一般主義的、最も全体論的であり、したがって多くの一般教養を持つべきだと思います。しかし、一般教養は簡単ではありません。子供たちに読ませ、読んだことについて話し、食卓で時事について話すことは、子供たちにたくさんのことを学ばせることができる瞬間です。これは複雑です。
エリートの子供たちは昼食と夕食でパパとママと新しいことを浴びるほど与えられます。これは中産階級と庶民階級ではそれほどそうではありません。しかし、中産階級の誰かであるなら、私は常に子供たちを教育し、多くのエネルギーと多くの効率で子供たちを訓練してきたエリートについて話しているのではありません。
今日中産階級の一部であるなら、子供たちに読むよう押し、働くよう押さなければなりません。彼らが大きな怠け者にならないよう、要素を関連付けるよう押さなければなりません。したがって、横断的、全体論的、学際的思考を持ち、批判精神を発達させます。
そして、彼らに話しかけなければなりません。子供たちとの各食事は、知的なことについて話す食事でなければなりません。家庭的なことについて話してはいけません。自転車の修理について話してはいけません。知的なことについて話さなければなりません。子供たちを訓練しなければなりません。そして、食事は世界の理解への愛、文化への愛などを伝える本質的な瞬間です。
そして、あまり読まない環境出身であっても、子供たちにたくさん読ませるよう押さなければなりません。私は妻と一緒に、常に子供たちにあらゆる主題について非常にたくさん読ませており、7歳から重要なことも含めて、私の観点からは人工知能時代の最高の情報源である『エコノミスト』を読むよう非常に幼い頃から押しました。
『エコノミスト』を10歳前は少し厳しいです。はい、しかしそれはうまくいきました。文化面と世界の複雑性の理解において、それは良い学校でした。これが子供たちのためにできることです。
個人的に、既に労働市場にいるとき、私はAIツールをよく使うべきだと思います。最高のAIツールを使うオーケストレーターとなり、与えられたタスクに適した AIツールを選択できるようになるべきです。訓練し、読み、たくさん読み、世界を理解しなければなりません。
世界は大いに動くでしょう。技術的津波は多くの地政学的、法的、社会的、混沌とした現象を伴うでしょう。世界をよく理解しなければなりません。これらの主題に対する私のビジョンは、ド・ゴールのビジョンです。指揮の学校は一般教養だと、将軍は1934年に言いました。そして、彼が師匠のアリストテレスがいたアレクサンダー大王の各勝利の背後には常にアリストテレスがいると言ったとき、彼は本当にすべてを要約していたと思います。
アレクサンダー大王とアリストテレスのカップルから2300年後、一般教養は企業で責任を持ち、興味深い職業を持ち、人工知能に遅れを取らないために依然として同様に重要だと思います。今日、技術的知識を追加で学ぶことは何の役にも立ちません。
地政学の本、国際法の本を読むことは何かの役に立ち、技術的津波による複雑性の増大する世界の複雑性を解読できる多くの人がいるため、人々を労働市場でより競争的にするでしょう。政治的側面で終えるために、私はこの国の真の問題の一つは、権力に技術者ではなく官僚を持つことだと思います。
つまり、一部の人にとって、働いたことがない人々です。最近見たのですが、彼に焦点が当たったのは例を見つける必要があったからです。あなたと既に話したかどうかわかりませんが、見てください、あなたは戻ってきました。私はAIによって向上される必要があります。ルノーの社長の給与を批判するBenjamin Lucas。
このような政治家の種類で、最終的には理解よりも政治的政治と外見に重きを置き、人工知能、到来するもの、未来に到来するもの、フランスとヨーロッパのシステムを改革する必要な緊急性の理解における現場。どのように動かすのでしょうか。動かすことは可能でしょうか。私たちは選挙によって被ることを運命づけられているのでしょうか。2027年の現在の提案は、
はい。AI の優秀な専門家でない候補者に投票してはいけません。私は右に投票しろ、左に投票しろ、中央に投票しろと言っているのではありません。私は、AIについて無能な人々にもはや投票できないと言っています。
したがって、2027年には、大統領候補を取り、AIをよく知らないすべての人を線で消します。大統領候補の中にChat GPTに触れたことがない人がいます。多くいます。多くが経済、社会、労働に対するAIの結果について考えたことがありません。これらの人々はブラックリストに載せ、ブラックボールしなければなりません。これは、自分の未来と子供たちの未来とフランスの未来に興味を持つ市民としてとるべき最も知的な行動方法です。
技術的無能者のエリゼ宮到着をブロックしなければなりません。世界は技術によってこれほど影響を受けるので、それを理解しない人々がいることは自殺的です。したがって、AIについて無能な大統領候補者は、訓練するか、私たちは彼らに投票しません。彼らには主題を理解していることを証明するために2年があります。
習慣的な執筆者によって書かれた新聞記事を書くことは主題ではありません。彼らは1000の記事を書くことができ、最終的に習慣的な執筆者がAIについて1000の記事を書くことができますが、それが問題ではありません。彼らは主題の知識を持つ必要があり、それは使用を通じて行われます。
なぜなら、政治世界で見たことは、人々がツールを使ったことがないので理解せず、したがってパワーを見ないからです。Chat GPTのDeep Researchを使ったことがない人は、AIが数分でMcKinseyのジュニアが一週間でやらないような戦略分析レポートを作ることができることを理解しません。
そして、15、10、50年後の労働市場に対する結果を見ません。そして、新しい形の人工知能に直面して社会を再組織するのは今です。私は、今日行動したいなら、技術恐怖症の政治階級を斬首し、もちろん比喩的な意味で斬首し、投票によって制裁しなければならないと思います。
私たちは右に投票できます、左に投票できます、中央に投票できますが、今日技術的無能に投票することはできません。それはもう不可能で、多くいます。私は本当にこれが主要なレバーだと思います。それしか理解しないのです。運動を起こさなければなりません。
あなたはAIについて無能だから、大統領選では支持しません。問題は、投票する人々が老人で、AIを理解するのが若者だということです。私は65歳でAIを理解しています。呪いはありません。老人の呪いはありません。私はOrépaよりも青春期により近いのは同意しますが、少し主題を研究する努力をしました。
誰でもAIに取り組み、一般教養を身につけ、そこから生まれる影響を理解することができます。それが起こることを望みます。完全にぼけていない限り。主題を少し研究することで、大きな課題を理解します。はい、しかし、Chat GPTが良くて生産性向上を可能にすることを理解することと、潜在的脅威または到来するパラダイム変化を理解することとの間には違いがあります。これは
はい。はい。はい。もちろん、課題理解の度合いは個人によって異なりますが、ツールを使って課題を理解し、それに応じて投票するために、すべての人またはほぼすべての人ができます。次の共和国大統領は、人間の知性に優れた汎用人工知能の到来を管理する大統領になるからです。
これは人類の歴史における特異な瞬間です。来るべき世界へのフランスの準備は、技術衝撃への適応に大いに依存し、したがって、衝撃を吸収し、社会が中産階級と庶民階級にとってかなり暴力的になるだろう衝撃を吸収することを可能にする未来の指導チームの能力に依存します。
真の反省が必要で、技術的陳腐さから脱することは、私たちの国、私たちの大陸を到来するものに適応させるのに十分ではありません。企業家、Nielのような技術者が必要ではないでしょうか。Nielが今前面に戻ってきているような印象があります。彼が何を求めているかわかりません。
国家元首に企業家が必要かどうかわかりません。私はXavier Nielに深い敬意を持っています。私はFreeの株主ではなく、Xavier Nielとの関係もありませんが、Xavier Nielに多くの敬意を持っており、実際に彼が政治的責任を持ったなら、それは良いことで、蟻塚に確実な足を置くでしょう。
そして、彼が2027年の大統領選に出馬したなら、私が彼に投票する可能性が高いです。私は彼が最近穴から出てきているような印象があります。以前はしなかったことに現れ始めています。はい、彼は政治的戦略について私に信頼していません。いつか彼がそこにいるかもしれません、望んでいます。
しかし、繰り返しますが、もし彼が出馬したなら、恐らく今日私の票を得るでしょう。ありがとうございます。とても濃密でした。私たちを見ている人々が楽しんでくれたことを願います。遠慮なく反応し、質問してください。私たちがYouTubeとすべてのポッドキャストプラットフォームにいることを思い出させます。
私たちはこれらすべてを消化しようとします。準備しようとします。衝撃を待ちながら一般教養をしようとします。Laurent Alexandre、ありがとう、また近いうちに。ありがとうございます。

コメント

タイトルとURLをコピーしました