人工知能の革命 – ガスパール・コーニグとオーレリー・ジャンを迎えて

AIに仕事を奪われたい
この記事は約33分で読めます。

19,698 文字

La révolution de l’intelligence artificielle, avec Gaspard Koenig et Aurélie Jean
ChatGPT, c'est un mot qu'on ignorait tous il y a 6 mois et qui est sur toutes les lèvres. Certains présentent cette inte...

知識人や科学者、さらには小説家までもが、これらの非常に複雑に見える技術に対して少し萎縮してしまっているんです。機械の中身を覗いてみようとする勇気もなく、結局のところ、これらのイノベーションに対して非常に消極的な態度を取っています。無条件に受け入れるか、あるいは「これは大惨事や、昔の方がよかった」と説明して否定するかのどちらかです。
ブロンデルがヴィルモンについて語っていたように、資本主義の大きな中心地で、4、5世紀の間、起業家や発明家、金融家、詩人、知識人などが出会う場所があったというのに、その機能を失ってしまっています。
そういった場所で議論できることが重要なんです。確かに、オーレリーさんが TGV の車内で Python のコーディングを教えてくれようとしたことがありますが、それが私の持っている唯一の技術的な知識です。
それでも、私は数ヶ月間現場に出向いて、そういった人々と話をしました。モンテーニュの言う「色合い」、つまり無よりはましな知識を得るためです。そこから、この分野に対する少しばかりの直感を得て、自由や国家の問題を含む大きな哲学的な課題との関係で理解しようと試みました。
実際、これらのシステムは古典的な哲学体系の枠組みの中で考えることができると思います。ただし、それらを適合させるためには、さらなる作業が必要です。
おっしゃる通り、オーレリーのような寛大な方々を除けば、この分野の専門家たちはあまり協力的ではありません。もちろん、彼らには時間がないとか、より重要な課題があるといった理由もありますが、分野外の人間と議論することは無意味だと考えているからでもあります。
ただし、どんな人間関係でもそうですが、接触を重ねて個人的な信頼関係を築いていけば、最終的には理解し合えるようになります。しかし、これは特に参入が難しい世界で、専門家たちは相手の文化的背景をあまり考慮せずに、すぐに技術的な用語を使い始めます。
教育的な配慮はあまりないですね。また、倫理的あるいは形而上学的な問題についても、いくつかの例外を除いて、あまり関心を示しません。
たとえば、ピーター・ティールのオフィスに入った時は非常に感銘を受けました。彼本人には会えませんでしたが、右腕の方が対応してくれました。そのオフィスはフランスの古典的な図書館にありそうな本で一杯でした。待合室にはパスカルの「地位について」のフランス語版があったのを覚えています。
人工知能の推進者の一人も数年前に設立し、ルネ・ジラールの講義も受けていたそうです。このような大陸的、というかヨーロッパ的な哲学文化は珍しく、これらの人々を理解し解釈しようとする際には、特別な努力が必要です。
オーレリーさん、科学の世界と哲学の世界の間のこの断絶について、あなたもお感じになりますか?科学の世界からいらっしゃって、必ずしも万人には理解しやすくないこれらの主題を説明したいという欲求をお持ちですよね?
いくつかの問題がありますね。私も自分の立場を擁護しますが、よく言っているし、書いているように、今日、哲学者たちは理解していない世界について考え、科学者たちは考えもせずに世界を作り上げているのです。これが両者の過ちと、この二つの世界の間の橋渡しの欠如をうまく要約していると思います。
しかし、これはもっと広い問題です。今日、分野間の横断的なつながりが深く欠けていることに気付きます。これは私の考えでは、現代において最も必要なことです。なぜなら、30年前にはなかったような形で、ロボット工学と医学を組み合わせたり、金融とアルゴリズムを組み合わせたりするような、様々な分野が交差し、相互作用していることが見られるからです。
これは出版される本にも表れています。確かに、哲学者たちに近づこうとする努力をする科学者たちを批判することはできますが、人文科学の分野から来て、AIについて本を書く人々の中には、実際にAIを作っている人々と一度も話をしたことがない人もいます。
これがガスパールとの違いです。彼の本では明らかに機械の中身を見て、科学者たちと話をし、行動を通してこの世界を理解し発見しようと試みています。
フランスでは、特に多くの本が出版されていますが、著者は言いませんが、それらはエッセイとして提示されているものの、実際には意見の本に過ぎないものが多いです。アメリカでは、すべてが完璧というわけではありませんが、エッセイを書く際には、その分野を最低限実践し、実践者の視点から語らなければならないというアメリカ的な実用主義があります。
私は、AIやデジタル技術、データサイエンスに関する本で、多くの不正確さや誤りを含み、結果として大きく歪められた真実を示し、人々を誤った方向に導くものを見かけます。
では、多くの人々が、必ずしも本当に知らないまま語っているこの主題について話しましょう。ChatGPTというこの会話型ロボットは、人工知能を革新すると告げられています。ビル・ゲイツはインターネットの始まり以来、最も驚くべき革命だと言っていますが、ガスパール・コーニグさん、この深い技術的な断絶についてどうお考えですか?
ChatGPTとその派生物については、私は深層学習アルゴリズムや会話型アルゴリズム、いわゆるLLMの発展の延長線上にあると考えています。オーレリーの方が私よりも詳しいでしょうが、それ自体は科学的な革新ではありません。
しかし、地球上のあらゆる人間とあらゆる主題について会話を模倣することができるガジェット化された対象は、革命という言葉は大げさかもしれませんが、少なくとも社会的、政治的な断絶です。このツールを適切に使用しないと危険です。
実際、ChatGPTが登場した時、大手企業の人々が言っていたのは、「技術的には我々も同様のものを作れたが、評判を大きく損なうリスクがあり、すべての安全装置が整っていなかったため、作らなかった。誤りや不正確さが多いことは分かっていた」ということです。
それを発表したのは、失うものがなく、すべてが完全には整っていない状態でも何かを破壊的に投入しようとするスタートアップでした。その後、会話アルゴリズムの改良については、多くのことを助けることができます。
例えば、図書館全体の要約を作ったり、医師が医学文献全体から特定の情報を検索する必要がある場合に、このような種類のツールを使用したりすることができます。
しかし、現在のように一般公衆に向けて、何の警告も説明もなく発表されているのは非常に危険だと思います。人工知般知能に近づいているから危険だとは思いません。それはイーロン・マスクやあの声明に署名した人々の懸念でしたが、「モラトリアムが必要だ、AIが世界を支配し始めるかもしれない」という懸念です。
実際、このような現場調査をすると、「コンピュータが制御を握る」というような少し面白い形而上学的なアイデアを持って専門家のところに行くと、彼らはそれは全く違うと言い、構造的にそれは不可能だと説明してくれます。
したがって、調査を続けたければ、現実に適応し、これらの興味深い政治的な主題は、多くの場合、天体物理学者たちによって探求されていることを考慮しなければなりません。声明の最初の署名者たちは、ニック・ボストロムやマックス・テグマークといった天体物理学者で、ブラックホールや太陽の爆発について考えるのは好きですが、コーディングやアルゴリズムの具体的な部分には関わっていません。
したがって、これは比較的簡単に脇に置くことができると思います。しかし、大きな問題は、ChatGPTが質問に答える方法です。ジンガーがこれについて非常に素晴らしい分析をしています。
この本を準備していた時に既に読んでいた99年の人工知能に関する素晴らしい記事で、AIについて語る「啓蒙の終わり」という見事な記事を書いていました。そして、MITのAI専門家たちと元GoogleのCEOと一緒に新しい記事を書き、ChatGPTはもはや啓蒙以来の知識生産の方法、つまり反証がないかどうかを確認しながら確実性を積み重ねていく方法では機能していないと説明しています。
彼が言うように、それは「累積的な曖昧さ」によって機能します。つまり、それは常にほぼ正確だが、完全に正確ではない道具です。道具として扱い、特定の文脈で使用するのであれば非常に良いのですが、知識を生産すると考えるのは恐ろしいことです。
今日、情報を探す時、私たちはWikipediaやGoogleに行きます。Googleはリンクを提供し、これらのリンクは全てのサイトで異なります。そして、各サイトは狂的なまでに出典を示しています。至る所に出典があり、意見が合わない場合は介入することができ、その後、人間の調停者がいて、一種の対話が成立し、人間の合理性が働きます。
しかし、ChatGPTはそうではありません。なぜなら、それはもはや出典のある知識ではなく、実際にはその出典を分析的に遡ることができません。それはどこから来て、なぜそう言っているのかが分かりません。
実際、構造的に、ChatGPTは出典を引用したくないのです。もちろん、出典を尋ねれば引用しますが、それらは近似的な、可能性のある出典です。なぜなら、確率によってのみ機能するからです。
例えば、私がChatGPTに「ガスパール・コーニグとは誰か」と尋ねると、Wikipediaにはあらゆる種類の誤りがありますが、それらには出典があります。一方、ChatGPTは「ガスパールは起業家であるリベラル派」と言います。なぜそう言ったのでしょうか?私は起業家ではありませんし、それは間違いです。
しかし、インターネット上で流通している情報の中で、「リベラル」の後に最も確率的に結びつく言葉が「起業家」だからです。常に「リベラルな起業家」と言われるからです。そして、統計的に、彼は起業家だと判断したのです。
しかし、これらのシステムがブラックボックスを通じて生成されることを考えると、最終的に、これらのシステムは結果を生成する方法を、自分自身も含めて誰も遡って理解することができません。
不透明性について、オーレリー・ジャンさん、これについてどうお考えですか?
その通りです。実際、これらのツールは非常に興味深いものだと思いますが、今日の問題は、それらが訓練されたデータベースについての透明性がないことです。ただインターネットから来ているということだけは分かっていますが、インターネットには深い偏り、間違い、正確な情報など、あらゆるものがあることも分かっています。
しかし、出典を呼び出すことができないため、正当化することができません。ちなみに、これらのモデルは2017年に最初に作られ、テキスト生成の用途に使用されていました。私がブルームバーグにいた時、自動的にニュース記事を生成するために使用していました。
「自動ニュース」と表示され、ジャーナリストが深い記事を書くための時間をより多く持てるように支援するためのものでした。したがって、これは新しいものではありません。
今日の違いは、アルゴリズムの種類と、コンピュータの計算能力により、巨大な、パンタグリュエル的な数の未知のパラメータとデータポイントに対してアルゴリズムを最適化し、訓練することができるということです。これは重要な点です。
ガスパールが言うように、本当の革命はグラフィカル・インターフェースにあります。人間と話しているような錯覚を与えるユーザーインターフェースのおかげで、人々は信頼してしまい、提供される情報を疑問視しなくなってしまうのです。
だから私がよく言うのは、ChatGPTを禁止するのではなく、教育し、何が起こっているのか理解することが必要だということです。大学では、これは素晴らしい事例研究になると思います。
ヴァンサン・ジョリさん、あなたはChatGPTについて誇張されていると思いますか?それとも、これは革命的なものだと言われることは正しいと思いますか?
私は33歳で、新しい技術とともに育ちました。ジャーナリストになる前から、予測や分析に関しては非常に謙虚であることを学びました。GoogleグラスやMetaverseなど、私たちが皆使うようになると言われた技術が結局そうならなかった例を覚えています。
専門家でない私は、ガスパール以上に表面的な知識しかなく、これらのツールを自分で使用した経験もありません。技術的な能力もありません。ただ観察するだけです。
しかし、この分野について知っている人々の話を聞いていると、実際にはあまり重要ではないと思います。私はこれをWikipediaのように、改善され、改善可能なツールだと考えています。以前のバージョンと、数ヶ月前に有料になったバージョンの違いを見れば分かります。
私にとって本当の革命は、暗号通貨のようなものです。誰もが暗号通貨について話し、それは素晴らしいと言い、通貨を置き換えようとしています。しかし、それを可能にした技術であるブロックチェーンには、暗号通貨とは全く異なる、本当に価値のある応用があります。
これは特に、2010年代末、つまり2018-2019年頃からのChatGPTの背後にある技術で見られます。例えばタンパク質の構造予測において – 詳しいことは説明できませんが、私は詳しくないので – 医薬品やワクチンを作るための研究における大きな課題の一つは、タンパク質の形を予測することでした。
この言語モデルの背後にある技術は、大まかに言って、人間の研究者が何十人もで何十年もかかるような、1億、3億、5億という異なるタンパク質の構造を予測することを可能にしました。
これは、私たちの次のテーマにつながります。人間の知性は、押し寄せてくるこの人工知能の技術の波に耐えることができるのでしょうか?
ガスパール・コーニグさん、あなたの本のテーマである個人とその自由は、この技術的な管理によって脅かされているのでしょうか?
「クレムリンの仮面」の著者で、これらの新技術の問題についても考察しているジュリアーノ・ダ・エンポリの「グラン・コンティナン」に掲載された非常に興味深い記事について、あなたの反応をお聞きしたいと思います。
その記事のタイトルは「なぜ中国共産党とシリコンバレーは脱人間的な未来のために働いているのか」です。彼は、一見正反対の前提から出発した二つのモデル、つまり一方では個人よりも集団を重視する中国の全体主義的共産主義モデル、他方では個人至上主義的な自由主義のシリコンバレーモデルが、結局は同じような技術的ツールを開発し、特に個人の監視と管理において、これらのモデルを収束させていると指摘しています。
これは興味深い仮説だと思われますか?
その本で、先ほど話に出たピーター・ティールは「AIは共産主義的だ」と言っています。これはどういう意味でしょうか?
彼が言っているのは、科学的研究を可能にし、本の要約を作るなどのAIについてではありません。プラットフォーム上で使用され、ユーザーを接続し、データを提供し、その後オペレーターがユーザーの行動を方向付けようとするAIについて話しているのです。
なぜなら、これが商業的に最も使用される方法だからです。そして、この点について理解しなければならないのは、一人のユーザーの快適さや利益ではなく、ユーザー全体の利益を考慮しなければ機能しないということです。
これは産業界との大きな違いです。冷蔵庫を作る時は、あなたがクライアントとして最も満足するように、最高の冷蔵庫を売ろうとします。
スタンフォードにいた時、ピザサイエンスの教授に会いに行きました。彼は「私は毎朝GoogleMapsを打ち負かしている。仕事に行くのにGoogleMapsより速いルートを使っている」と言いました。なぜでしょうか?
実は、GoogleMapsのアルゴリズム(もちろん秘密ですが)は、あなたにとって最適なルートを提供していません。なぜなら、もしあなたにとって最適なルートを提供すれば、それは利己的なルートとなり、他の人々のために渋滞を引き起こす可能性があるからです。
他のユーザーの利益を考慮して、あなたが比較的容易な経路を取れ、他の人々が不利益を被らないように、そして渋滞や混雑を作らないようにしているのです。
したがって、実際にコンピュータに従わない時、あなたは利己主義を選択することができます。これは倫理的に議論の余地のある選択かもしれませんが、理解可能な選択です。少なくとも議論できるべきです。
しかし、これらのシステムは最終的に、自分の直接的な利益を選択するという倫理的な選択を許可しません。彼らは常にグループの利益を考慮します。
コミュニティの存在は、コミュニティがあるからこそ存在するのです。これは出会い系プラットフォームでも同じことが言えます。もしこれらのプラットフォームが、人々の明示的な好みに基づいて – 私はこのようなパートナーが欲しい、私は別のタイプが欲しいなど – 単純にマッチングを行うだけなら、すぐに機能しなくなるでしょう。
詳細は省きますが、明らかに、需要と供給が全く合っていないからです。そのため、彼らは人々に最適ではないかもしれないが、うまくいく可能性のあるものを提案しようと、人々を分散させようとします。
これが、共産主義というよりも功利主義に基づいて機能している理由です。つまり、シリコンバレーの人々によってしばしば明示的に表明されている考えは、たとえ一部の個人が途中で損失を被ったとしても、グループ全体の幸福を絶対的に改善し、最大化しなければならないというものです。
このベンサムの功利主義は、その哲学的なルーツを容易に見つけることができますが、決して自明なものではありません。これは他の選択と同様に、一つの社会的選択です。
私個人的には、ベンサムの弟子であるジョン・スチュアート・ミルの反論を支持します。彼は、個人は互いにあまりにも異なっているか、少なくとも私たちの文明の目的は個人をそれほど異なる、それほど特異なものにすることであり、実際には誰もが入り込み、すべての人の好みを平準化しようとするこの種の普遍的な枠組みから逃れることができなければならないと言っています。
もちろん、中国はこの技術に非常に快適です。今日の中国で驚くべきことは、19世紀末のフランスのように、産業の進歩や資本主義に対して誰もが熱狂していた美しい時代のような、一般的な熱狂があることです。
今夜私たちが議論していることは、彼らにとってはデフォルトの意見として、これらすべてが素晴らしく、より良い未来に向かっているということです。
そして、ある意味では、それは伝染性があります。長年中国にいるフランス人と話すと、彼らはしばしば、ヨーロッパは完全に時代遅れの形而上学的な議論をしていると考えるようになり、これこそが未来だと考えるようになります。
これは、アメリカと経済競争をする能力を与えるだけでなく、明らかに集産主義的なシステムを確立することを可能にします。それは彼らの儒教主義に完全に合致する、ほとんど倫理的なものです。
つまり、グループのために生きる、個人はそれほど重要ではないという考えです。したがって、データを共有することは非常に良いことで、民間のプラットフォームが異常を発見した時に警察に通報することも良いことです。
なぜなら、これらすべてが少しずつ犯罪と戦い、教育を改善することを可能にするからです。しかし、これらすべての目標は、個人が拒否する権利を持ち、いわば横道にそれる権利を持つべき目標です。
そしてそれはもはや不可能です。だからこそ、私の本は「個人の終焉」と呼ばれているのです。
一方で、あなたは私たちの国では、アメリカでもまだそこまでは至っていないと言っています。実際、ガスパールは平均、つまり回答の平均について正しいのです。
例えば、規範から外れている場合、つまり特定の平均から外れている場合、正しく考慮されない傾向があります。少なくともそのような印象を受けます。なぜなら、結局のところ、アルゴリズムや機械学習は統計だからです。
しかし、個人データをより細かく収集することで、特定のサービスにおいて、あなた個人に、そしてあなただけにサービスを提供するために、より強力なパーソナライゼーションに向かっています。
これは何を意味するのでしょうか?AIの専門家ではありませんが、「合理性への目覚め」と最近の「感情と民主主義」という二冊の本を書いたエヴァ・イロウズについて、私は本当に読むことをお勧めします。
彼女は「感情と民主主義」の中で、データについて少し触れ、本の一部でデータについて語っています。彼女は、今日、私たちについて、そして私たちだけについてのデータが収集され、私たちにサービスが提供されると言います。
そして、私たち個人にサービスを提供するアプリケーションを日常的に使用することに慣れています。これは驚くべきことです。そのため、人々は幸福は他者への愛、アガペーを失って、自分個人への配慮からのみ来ると考える傾向があります。
これは非常に興味深いです。なぜなら、アプリケーションの中で、彼女は前向きな心理学や自己啓発、そしてこれらすべてのことについても語っており、データとパーソナライズされたアプリケーションと共に、幸福は私たちを通じてのみ来るということになっています。
私は、むしろ逆の偏りもあると思います。人々は社会的なつながりを失い、他者への愛、つまり社会を形成し、社会的な結びつきを可能にするものを失った社会の中の個人でしかなくなるということです。これは問題です。
ヴァンサン・ジョリさん、技術は、特にこれらの人工知能は、私たちをより個人主義的にするのでしょうか、それともより集産主義的にするのでしょうか?
それは少し残酷な質問です。私の年齢に戻りますが、私が「第一のインターネット」と呼ぶものがありました。カラフルなメッシュがあり、インターネットに出て、Wikipediaやフォーラムを発見し、人々と議論していました。それは本当に…
そして、その後に私が本当に世界の終わり、そして個人の終わり、知性の終わりと呼ぶもの、それがソーシャルメディアの時代が来ました。これが私たちを完全に愚かにしました。
TikTokで起こったことを見てください。中国政府が自国の人口とそれ以外の世界の人口に対して異なるアルゴリズムを持っていることが分かりました。そして、私たちは無料のソーシャルメディアを手に入れました。
人々は自分たちが商品であることを理解せず、快適さのためでもなく、本当に何の見返りもなく、イメージのためだけに、すべてのデータ、これらのデータを提供してしまいました。そして、私たち自身を完全に愚かにし、完全に自分自身に集中するようになってしまいました。
私がより楽観的なのは、数ヶ月前に初めてChatGPTを発見した時、2000年代初頭のインターネットの魔法を再び見出したことです。なぜなら、ChatGPTは完全に愚かで – 正直に言って、そう言わなければなりません、本当に愚かなのですが – 会話をし、何かを尋ねると答えてくれる方法で情報を整理するのは素晴らしいことです。
これは時間の大きな節約になります。確かにGoogleはリンクしか提供しませんが、例えばジャーナリストの仕事において、それは確実に私たちを置き換えることはありません。悪いジャーナリストは置き換えるかもしれませんが。
しかし、リストを見つけたり、このデータを別のものと比較したり、そしてこのデータについて考えているけど、分析できる他のデータのアイデアはないかと尋ねると、何かを提案してくれます。しかし、私はそれを取るかどうかを選択できます。
この完全な引きこもりについての戦いは、Instagramに登録した時点で失われました。特に、アルゴリズムについて話す時、私たちはソーシャルメディアだけを話題にする傾向がありますが、それはアルゴリズムの大多数ではありません。
毎日、良いことのために動いているアルゴリズムがあります。医療分野や創造的な環境で、アルゴリズムが開発されています。しかし、私たちはそれについて決して話さず、この科学を、そしてソーシャルメディアのアルゴリズムさえも悪者にしています。
実際には、それらが異なる方法で開発され、異なる方法でテストされれば、これらの問題は起こらないでしょう。また、これらが良いことにも役立つことができるということを再文脈化することも重要です。ただし、それを開発する適切な人々が必要です。
さて、これらのアルゴリズムを最低限規制する必要があるということについては、ある程度のコンセンサスがあります。デジタル担当の欧州委員会委員であるティエリー・ブルトンが最近フランス・アンテルで語ったことを聞いてみましょう:
「我々は人工知能に関する規制を構築した最初の大陸です。まず法律を作り、構想する必要がありました。今や法律は存在し、我々の上院、つまり欧州理事会で可決されました。それは完了し、現在議論されており、4月に議会で可決される予定です。
2年で法律を作るのは快挙です。我々は何も驚きませんでした。すべてを予測していました。法律を見ると、4つの保護レベルがあります:禁止されているもの、リスクの高いもの、中程度のリスクのもの、許可されているものです。」
多くの人々がティエリー・ブルトンを嘲笑し、「これが快挙だ、人工知能を規制することができた」と言いました。つまり、ヨーロッパでは規制し、禁止することはできますが、発明することはできないということです。
アメリカ人や中国人が新技術を発明し、我々は規制することしかできないという、ある種のギャップがあるのではないでしょうか?
私はそれを言う人々は少し厳しすぎると思います。なぜなら、実際にはアメリカも非常にうまく規制しています。例えば、アメリカは金融市場と健康データを、私たちよりもはるかに早く、そしてはるかに厳しく規制しました。
個人データに関しては、CCPAというカリフォルニアの法律があり、これは米国の複数の州で認められており、願わくば連邦レベルでも認められることを望んでいます。これは議会議員たちの仕事のおかげです。
確かに、欧州のGDPRに触発されたものですが、アメリカは決して無法地帯ではありません。しかし、私たちはしばしばそのように表現しがちです。
ティエリー・ブルトンの発言については、アルゴリズムそのものの規制ではなく – なぜなら、評価できるものしか規制できず、アルゴリズムを完全に評価することはできないからです – むしろ、設計、開発、テスト、そして時には何千万人もの人々によって使用されるアルゴリズムの「バックテスト」と呼ばれる実践、そして使用の適切な実践を規制することを考えているのは良いことだと思います。
私は実際、GDPRと最初の法律を比較しました。GDPRは欧州の個人データ保護規制で、アメリカの法律にも影響を与えました。これは、私の2冊目の本でも説明していますが、各ウェブサイトでクリックしなければならない理由です。
実際、GDPRを信頼する必要があります。それはあなたの最高の弁護士です。例えば、私は出版契約を結ぶ時、チボーという弁護士(お世話になっています)がすべての契約を読んでくれます。私は契約を理解しようとはしません。彼を信頼して、彼に任せています。
同様に、GDPRをあなたを保護するものとして見る必要があります。信頼する必要があるのです。
現在、AIに関する法律については、例えば個人データに関する法律との違いを見ました。AIに関する法律では、少しより保守的でした。これは理解できます。なぜなら、個人データに関しては、法制化の歴史があるからです。
1978年の情報処理と自由に関する法律から始まり、1995年にインターネットで転送されるデータに適応し、最後にGDPRで終わりました。これはフランスの法律に大きく影響を受けています。
したがって、この科学については、はるかに具体的な知識と歴史を持っています。一方、アルゴリズムの科学は非常に無形で、非常に速く進化し、法的な経験もありません。
そのため、これらの法律について考え始めた時、私が見たのは、知らないことに対しては予防原則を適用する傾向があるということです。例えば、ティエリー・ブルトンが上手く説明したリスク評価の概念があります。
異なるリスクレベルがありますが、リスクをどのように定義するのでしょうか?リスクは同じ方法で定義することはできませんし、時間を超えて普遍的ではありません。なぜなら、私たちは異なる考慮事項を持っているからです。
特に、リスクはすべての分野に同じように適用することはできません。研究分野と産業分野では、同じリスクの考慮事項を適用することはできません。
学術研究や民間研究を区別することはできますが、より多くの自由が必要です。実際、GDPRはそれを認めています。個人データを持っている場合、産業目的よりも研究目的の方が多くのことができます。
私は法律をもっと研究する必要がありますが、少し保守的な性格を感じました。とは言え、アメリカも現在、法律に取り組んでいます。アメリカが無法地帯で、私たちが閉鎖的だと考えるべきではありません。
ガスパール・コーニグさん、私たちは過度に保守的だったのでしょうか?
いいえ、まず第一に、立法者がこの種の問題に取り組むのは当然です。特に、技術の進化の歴史においても、政治、つまり人々が共に生きる方法を選び、共に生きるための法律を作る方法が、技術に優先するのは当然です。
これは、人類の歴史は技術の歴史であり、人類はそれに従ってきたと語るある種の歴史観に逆行します。つまり、鋤を発明したので誰もが農民になり、その後都市が建設され、都市があったので国家が必要になった、というような考え方です。
これは真実ではありません。最近亡くなった、よく知られたアナーキスト、そして本当に21世紀初頭の最も偉大な思想家の一人であるデイビッド・グレーバー – 彼のすべての本は素晴らしいものです – が、デイビッド・ウェングロウと共に書いた「すべてのはじまり」という本があります。
これら二人の人類学者は、多くの学術研究を引用し、人類学や考古人類学(つまり、特に残された物質的な痕跡を通じて初期文明の歴史を再構築すること)の研究の現状をまとめています。
彼らは物事を逆から見ています。実際には、人間はまず法律を定め、技術を採用するかどうかを選択し、時には選択せず、生活の方法を変更したと説明しています。
例えば、農具の発明について、彼らは一部の社会がそれを採用して定住し、他の社会は何が起こっているかを見て、「それは全く私たちに合わない、遊牧民のままでいたい」と決めたと説明しています。
また、半分半分にした社会もあり、年の半分は定住し、半分は遊牧生活を送ることにしました。また、実験したことを後で変更し、「いや、やはり考えを変えた」と言った社会もありました。
彼らの主張は非常に強力です。つまり、技術は並行した道筋であり、必ずしも進歩ではありません。私たちが進歩と考えるものは、社会として与える価値に基づいて決定されます。
彼らはこれを社会的想像力と呼んでいます。これこそが何よりも私たちを人間たらしめるもの、つまりアゴラに集まって議論し、共に何をしたいかを決定する能力だと言います。
今日を見てください。私たちは人間のクローン作成を禁止していますが、誰もそれを退歩だとか、進歩に反すると言いません。なぜなら、それは私たちの理念に反すると決めたからです。オゾン層を破壊するガスなども同様です。
したがって、まず議論の余地はありません。もちろん、人間は法律を定めます。中国でさえも、技術を侵入的に使用していますが、それは彼らの価値観、彼らが定める法律に合致しています。
次に、人工知能に関するこの規制についての具体的な問題ですが、詳細については私の知識は少ないのですが、少なくとも、まだ採択されていない法案の草案で私が非常に評価したのは、自由意志の概念への言及です。
彼らは、どのように実施するかは分かりませんが、明らかに難しい問題です。しかし、ユーザーの行動を操作し、彼らの自由意志を奪うような技術を規制または禁止したいと言っています。
定義するのは非常に難しいです。もちろん、その通りです。しかし、同時に、これは私の本の主張の核心です。つまり、良い理由があっても機械を信頼しすぎると、結局、考える能力を失ってしまうということです。
考える必要がある度にChatGPTに答えを求めるようになれば、明らかにあなたは委任してしまっています。おそらく、それはあなたよりも優れているかもしれません。しかし、あなたの熟考能力、推論能力を行使する能力をそれほど委任してしまうと、結局、野菜のようになってしまいます。
あなたが言及したソーシャルメディアのように、それをどのように使うかを知る必要があります。いつも言われることですが、「はい、でも使い方を学ぶでしょう」と。ソーシャルメディアについてそう言われましたが、結果は見ての通りです。
「ええ、人々は大学でツールとして使い方を学ぶでしょう」などと言いますが、私はそれは、これらのツールが私たちの脳を「ハック」する能力に対して本当に多くの信頼を置きすぎていると思います。
この欧州規制についての三番目の点は、GDPRには最後のステップが欠けているということです。これは非常に個人的な意見ですが、アメリカの一部の思想グループも共有している考えです。それは個人データの所有権、つまり大きな所有権の意味でそれらを所有する能力です。
欧州委員会、そして欧州委員会の中にこのアイデアを持っている人々がいることは知っていますが、彼らはこれらすべてが段階的なものだと言っています。
インターネットとすべてのソーシャルメディアは、私たちの個人データの収集に基づいて機能しています。実際、それは無料のように見えますが、私たちが商品なのです。ある時点で、私たちのトラッキングデータを使用する権利に対して、支払いや報酬が必要になるでしょう。
所有権があれば、すべてが可能になります。ただし、それを乱用してはいけません。そう、あなたは権利を持っています。データを取り戻し、好きなように使用し、破棄することができます。ususになることもできます。つまり、これは相互運用性です。
これは非常に保護的な権利です。興味深いのは、技術の歴史において、新しい技術の誕生に常に伴ってきたということです。
印刷術があり、その3世紀後に著作権が生まれました。時間がかかるのです。産業革命があり、その後に特許権、知的財産権が生まれ、50年の戦いがありました。
現在は物事がはるかに速く進んでいるので、この権利がより早く到来すると想像できます。しかし、これらの技術の進化に伴うのは非常に論理的なことです。私は、ヨーロッパが静かにこの道を進んでいると思います。
最後に言いたいのは、フランスでは政治家たちがこれらの問題を全く理解していないことが多いということです。しかし、少なくともマーガレット・ヴェスターガーと、ティエリー・ブルトンもそうかもしれませんが、少なくともヴェスターガーについては確実に、この観点から本当に素晴らしい人材がいます。
私たちは知的構造を持つべきですが、彼女は私がこれらの問題で感銘を受けた唯一の政治家です。彼らは少し何をしているのかを知っており、実際にアメリカの巨大企業に大きな罰金を科すことができます。
まず競争担当委員として示されたように、私はヨーロッパがこれらの問題を扱うのに適切なレベルだと思います。そしてこれらの問題については、知的に十分な能力を持った、よく訓練された人々がいます。したがって、今回は喜ばしいことです。
個人データの所有権が今後数年で実現するかどうか、見守っていきましょう。いずれにせよ、2050年の世界がどのようになるか考えることができます。
オーレリー・ジャンさん、あなたの小説のテーマですが、フランスの人口の90%が認知能力を向上させる脳内インプラントを装着している世界を想像しています。これは、特に2050年という近い未来では、完全に狂気じみた計画に見えるかもしれません。
しかし、シリコンバレーの一部の企業、特にイーロン・マスクのNeuralink社がこの種の技術を開発しています。あなたは本当にこれを信じていますか?これは起こり得ることでしょうか?
すべてのSFと同様に、よく作られたSFは現実に基づいています。それが不安を煽るSF、エキサイティングなSF、フランス的なSFになるかどうかは別として、私たちの本では、明らかに2035年頃から始まります。
そこでは、チップが当初は治療目的で2人のフランス人によって作られます。
これはフィクションではありません。既に現実です。なぜなら、パーキンソン病の特定の症状を治療するためのチップが既に作られ、使用されており、実際にフランス人によって開発されたからです。
人々はそれを知りませんが、アルツハイマー病の治療のための研究が大量にあり、認知能力を向上させるための研究や取り組みもあります。Neuralink社だけでなく、他の企業もあります。
しかし、この原則から出発して、この物語では、チップは最初は治療目的で使用されます。まず神経変性疾患の症状を治療し、次に病気の発症を防ぐために使用されます。
その後、中国を始めとする一部の国々が、AIとの競争のために、より知的な人々を持ち、常により効率的な技術を開発するために、この チップを使って国民の認知能力を向上させ始めます。
アメリカもそれに従うことを決定し、ヨーロッパの一部の国々は、宗教的な理由で拒否したり、フランスのように立場を決めずに、フランス企業が個人にチップを提供するかどうかを決定させたりします。
「でも、人々がなぜ同意するのか」と言われるかもしれません。しかし、例えば、チップを持っていると、痩せていられるので、あまり食べ過ぎません。幸せな生活を送り、鬱になることもなく、愛の悩みもありません。完璧な男性や女性を見つけることができます。
同時に、この酸っぱい世界は魅力的でもあります。なぜなら、人種差別も、性差別も、同性愛嫌悪もない世界だからです。誰もが美しく、学校もありません。なぜなら、自動的に学習するからです。エネルギーの問題もありません。
実際に、誰もが平等であり、それは素晴らしいという考えがあります。しかし、人口の一部、フランス人の10人に1人は、このチップを拒否するか、経済的・財政的な理由で持つことができません。
時には宗教的な理由で、時には一部の科学者たちが拒否し、また一部の人々は、この抵抗する人々と共に生きるためにチップを拒否します。
そして、私たちは、一つの民族でありながら分裂し、対立し、本の中で徐々に対決していく、これら二つの民族の物語をたどっていきます。
実際、良い世界と悪い世界があるわけではありません。アマンダと私は多くの議論を重ね、彼女は本を書き直す過程で、「人間らしさとは何か」という繰り返し現れる質問を私に投げかけていました。
なぜなら、それが彼女を悩ませていたからです。私たちは必ずしも常に意見が一致していたわけではありません。
もしそれが存在したら、あなたはインプラントを装着しますか?
アマンダさん、いいえ。彼女は「あなたは既に装着していますか?」と私に尋ねました。いいえ、まったくの自然体です、私のガスパールさん。
しかし、実際には、本には二人の主要な登場人物がいます。このチップを作ることに貢献した科学者のクロエと、抵抗のリーダーである芸術家のウナです。
私はクロエに非常に近い感情を持っています。なぜなら、クロエはチップを作り、信じており、物語の中で何が起こるにせよ、チップを取り除くことはないでしょう。
しかし、彼女が望むのは、この技術が適切に使用され、適切に管理され、悪用されないように戦うことです。私たちは地政学について、仕事について、他者との関係について、子供時代との関係について、多くのことを語ります。
物語を発見する人々のために言えば、私はクロエに非常に近いと思います。
ヴァンサン・ジョリさん、もし認知能力を大きく向上させる革新的なインプラントがあれば、あなたは装着しますか?本当に必要ですか?
ええ、いいえ、はい。お金があればですが。なぜなら、やはり、世界にはまだ電気にアクセスできない人々が大勢いるからです。
私は南アフリカから帰ってきたばかりですが、それは発展途上国と考えられる国です。彼らには負荷遮断、つまり1日4時間、田舎では8時間の停電があります。
したがって、私が興味深いと思うのは、たとえそれが来て、AIが世界を侵略したとしても、Instagramやそれらすべてとは異なり、必ずしもすべての人が手に入れることができるわけではないでしょうし、それが一般化されることが必ずしも良いことだとは思いません。
純粋に論理的な意味で非常に知的であることが必ずしも良いことではないと思います。詩人ではなく神経科学者のアントニオ・ダマシオは、知性を定義する際に、それが自然進化から来ており、身体を非常に多く含むと説明しています。
そして、ここで私は人工知能の研究者たちが間違っていると思います。実際には、それは人工的な分析能力です。ダマシオによれば、知性は身体から来ており、特にホメオスタシスのような有機的なプロセスから来ています。
これらのプロセスが知性を作り出し、それは単に方程式を解いたり、非常に速く推論したり、巨大な記憶を持ったりする能力だけではありません。
実際、記憶力が非常に高いことは完全な障害になる可能性があります。ボルヘスの短編小説に出てくるような超記憶症の人々は、すべての細部を見てしまうため、一般化することができなくなります。
一方、現在私たちに必要なのは、まさに切断し、再接続することだと思います。自分の身体を地球や自然に再接続すること、これは詩的なものではなく、神経科学が教えてくれる秩序のものです。
ミシェル・ル・ヴァン・クエン(発音が難しい)は、脳と自然に関する本を書いており、瞑想や沈黙、木々との接触など、技術とは全く関係のないものが、健康を維持するのに役立つと説明しています。
さらに、これは今や人類が解決しなければならない主要な問題だと思います。技術との関係です。ある意味で、はい、私は技術が好きです。あなたはお分かりでしょう。
しかし、非常に優秀な何万人もの科学的な精神を持つ人々が、次の会話エージェントを手に入れるための戦いをしているのを見るのは少し恐ろしいと思います。
一方で、例えば土壌科学のような非常に基本的な分野には、私が次の小説のために研究したのですが、誰もいません。資金もなく、フランスには専門家もいません。実際にどのように機能しているのか分かっていません。
土の塊を取ってみても、そこにいる細菌があまりにも多く、まだ分類されていない地中の虫の種が多すぎて、研究する手段がないため、どのように機能しているのか説明できません。
少し話がそれましたが、優先順位の問題もあると思います。認知能力を向上させることは私にとって優先順位ではありません。
しかし、もし木々と再接続するチップがあれば…
本の中で話されている逸脱を見ることができます。監視、自己決定、私たちの行動の決定論、学ぶことを学んでいないこと、まさにこの人工知能という言葉について。
フランス語では、アメリカ人が話していることに比べて、この「人工知能」という言葉は本当に何も意味しません。私たちは「artificial intelligence」を透明に翻訳しましたが、英語の「intelligence」はフランス語の「intelligence」とはまったく異なる意味を持ちます。
英語の「intelligence」は情報を意味します。そして、AIについて本当に話す時、私の意見では、感情的、社会的なものになり得る人間の知性については全く話していません。
英語にも区別があります。フランスでは、人工知能という言葉を使うため、議論があります。多くの人々は、情報としての知性と一般的な意味での知性を考えていません。
実際には、ガスパールが言うように、それは分析的知性です。そのため、私はめったにこの言葉を使いません。あまり好きではありません。
2016年にMITテクノロジーレビューで行ったインタビューでヨシュア・ベンジオが言ったように、これを「人工的な愚かさ」と呼ぶべきです。なぜなら、コンピュータをより知的にするのではなく、より愚かでなくするからです。
ただし、「人工的な愚かさ」は売れません。
宗教についてですが、2050年までに、人工知能のおかげで本当に変わったことがあるとすれば、それは健康への影響かもしれません。あなたはそれに取り組んでいますが、この分野では人工知能のおかげで本当の革命が期待できるのではないでしょうか?
ここで小説を離れて、私の専門家としての立場から話をしましょう。人々はよく「あなたがそう言ったなら」と言いますが、それはエッセイではなく小説です。
健康の分野では、精密医療、予測医療、個別化医療という3つの大きな方向性があります。これらは、私たちが前進していく3つの大きな分野です。
精密医療とは、病気や患者の治療方法など、今日私たちが持っていない医療情報をより詳細に掘り下げていくことです。
個別化とは、診断だけでなく、予後や治療法も個人に合わせていくことです。
そして予測医療とは、病気のリスクや発症を予測すること、言い換えれば、微弱な信号を検出したり、個人の遺伝的・医学的・身体的な特徴を見て、特定の食事療法などを適応させたりすることです。
多くの研究が行われており、私自身は特に乳がんの早期発見に取り組んでいます。これは予測医療ではなく精密医療の分野で、通常の乳房X線写真から、がんの前段階、放射線検査以前の微弱な信号を検出しようとしているのです。
このような研究に取り組んでいる人々は大勢いて、非常に興味深い分野です。
ガスパールが言ったことに戻りますが、これらの分野に十分な資金が投入されていないことは残念です。申し訳ありませんが、メール管理システムを作るような会社が4000万ユーロを調達し、私が150万ユーロを調達するのに1年半かかったことは、気になります。これは少し気になることです。
なぜ私たちは、特にフィクションの中で、テクノロジーの未来を常に悪夢として想像するのでしょうか?あなたが言うように、良い面もあるはずなのに。
私の解釈ですが、大きな実存的不安には単純な理由があります。フィクションやSFは、現在の時点で考えると私たち全員をストレスにさらし、不安にさせるような質問を、物語の中で投げかける手段なのです。
そのため、ディストピアになりがちです。なぜなら、ディストピア的な世界に身を投影することで、それについて話すことができるからです。
例えば、皆さんもご存じだと思いますが、ドラマ「ブラック・ミラー」のある回では、文字通り人々が互いを「いいね」し合い、そのスコアによって特定のサービスにアクセスできるかどうかが決まります。
飛行機に乗れるか、アパートを借りられるかなどが、スコア次第なのです。これは中国のソーシャルスコアリングを直接反映しています。
中国のソーシャルスコアリングについて人々と話し始めると、賛成か反対かという問題ではなく – ここにいる私たちは皆反対だと思いますが – 何が起きているのかを理解し説明しようとすると、人々はすぐに拒絶反応を示し、議論を妨げるような立場を取ってしまいます。
しかし、ブラック・ミラーのエピソードについて話すと、誰もが議論する準備ができており、本当の批判的思考を伴う真の会話が始まるのです。
したがって、私の目から見ると、フィクションは、現代において直接話すことに違和感を覚えるような主題について議論する手段なのです。

コメント

タイトルとURLをコピーしました