
17,342 文字

サピエンスと人工知能、競争か補完か?マルク・V(マルク・フェンスキー)による人工知能革命についての特別シリーズ。AIは人間に取って代わるのか、それとも人間をより良くするのか。
未来の中心へ。皆さん、こんにちは。2月の今月は、人工知能、AIに全ての放送を捧げています。タイトルは「サピエンスと人工知能:競争か補完か?」。疑問符が付いているのは、これが大きな問いだからです。今日はジャン=ガブリエル・ガナシアをお迎えします。こんにちは、ジャン=ガブリエル。
こんにちは、マルク・フェンスキー。
ジャン=ガブリエル・ガナシア、あなたはソルボンヌ大学の名誉情報学教授で、パリ第6情報学研究所のメンバーであり、エンジニアであり哲学者でもあります。人工知能の専門家として認められています。また、2016年から2021年まで、つまりごく最近までCNRS(国立科学研究センター)の倫理委員会の委員長を務めておられました。現在はフランス科学振興協会の会長を務めておられます。つまり、科学や技術、特に人工知能が私たちの生活に与える影響についての問題に非常に近い立場にいらっしゃるわけですね。多くの著書を出版されていますが、その中には2017年の「人工知能:プログラムされた支配に向けて」という、まさに一連のプログラムについての著作があります。そして最近では、人間のための「AI解説」という非常に教育的で興味深い小さな本が2024年にスイユ出版から出版されました。
ジャン=ガブリエル・ガナシア、最初に尋ねたい質問は、まさにその「人間のためのAI解説」に関連しています。AIについて、人工知能について、すでに耳にしているけれどもまだ本当には知らないかもしれない人々に説明することは、本当に重要なのでしょうか?それは不可欠なことなのでしょうか?
それがこの本を書いた理由です。メディアで人工知能についての話がますます増えているのに、基本的な概念や本質的な概念があまり知られていないという印象を持っていました。この科学分野について一種の曖昧さや神秘的な雰囲気がありました。まず、これが科学的な分野であることを明確にする必要がありました。機械自体には精神が宿っているわけではありません。もちろん神話の中では、ゴーレムの物語などがありますが、それとは別の話です。これは20世紀半ばに、ある研究者たちが私たちの認知能力全体をシミュレートしようとする意志から生まれたものなのです。
その観点から、私はこの小さな本を始めるときに、実はシナリオが面白いんです。学校新聞の特別号を作成しなければならない4人の中学生との出会いです。その新聞は「ケノーの論争」と呼ばれていて、彼らはレイモン・ケノー中学校の生徒です。ちなみに、このスタジオのすぐ近くです。もちろん架空の中学校ですが、実際に中学校は存在していても、私はこの生徒たちに実際に会ったことはありません。彼らは一種の地球の要約のようなものです。4人の子供たちですが、彼らはとても賢いんです。彼らはいい質問をします。私が選んだ彼らは、私に寄せられた質問の要約であり、また私が伝えたいと思っていることの要約でもあります。
少しソクラテス的な側面があります。彼らが質問をし、私もまた彼らに質問を返します。例えば、最初に彼らは質問のリストを持っていて、「誰がこれらの質問をしたのですか?」と私は尋ねます。なぜなら、私の考えは、人工知能はさまざまな角度からアプローチできるということで、彼らそれぞれの関心が何かを知りたかったからです。彼らにはそれぞれ個性があります。ジャーナリストになりたい子、科学者になりたい子、エンジニアになりたい子、そして夢想家の子がいます。
そこで私は「誰がこれらの質問をしたのですか?」と尋ねると、彼らは赤面し、ChatGPTを使ったことを告白します。そこで私は「では、あなたたちは人工知能を使っているのだから、すべてを知っているわけですね」と言います。多くの人々、特に哲学者や専門家たちは「ChatGPTは革命だ」「メシアだ」と言います。でも私はそうは思いません。その背後には合理的な思考があり、長い間存在していて、この認知能力をモデル化しようとする意志があるのです。
そこで私がやったのは、「では私は必要ありませんね」と言うと、彼らは「いえ、必要です」と言って、人工知能とは何かを質問しようとします。ここでソクラテス的な側面が現れます。「知性とは何か知っていますか?」と尋ねると、彼らは黙ってしまいます。それは神秘的な質問だからです。エンジニアになりたいと思っている子は、非常に優れた知能を持っていて、知能検査で136点を取った天才です。彼は知能について知っていると思っています。なぜなら彼はそれを持っていると信じているからです。もちろん、私はそれがはるかに複雑であることを説明しようとします。
人工知能という用語は19世紀末に導入されました。それは私たちの精神的能力の総体を指します。この科学分野で私たちが試みているのは、これらの精神的能力をコンピュータ上でシミュレートしてモデル化することです。強調しますが、これは科学的な分野です。そして、そのシミュレーションは様々な技術に組み込むことができます。それが最近の人工知能の驚異的な成功を説明しています。携帯電話だけでなく、医療分野、農業、あらゆる人間の活動が今日、これらの認知能力のシミュレーションによって変化しています。しかし、それは機械に精神が宿っているという意味ではありません。機械が賢いという意味でもありません。実際、常にそうであるとは限りません。
ジャン=ガブリエル、あなたは知的な機械、意識のある機械、話す機械といった想像力について長い間考えてきました。あなたはゴーレムについて言及しましたが、それは非常に古い物語です。結局のところ、どのようにして生命、推論、知性を単なる物質に吹き込むのかという問題です。そしてフランケンシュタインも、実はゴーレムの神話にかなり影響を受けています。あなたはこれについてどう考えますか?人工知能の上に漂っているもの、そして私たちが人間にとって有利または不利だと考えることができる、ある種の方法で生命を吹き込むことができる回路や物質に関するこの想像力について。
確かに、私は人工知能を見る方法がいくつかあると思います。最初は先ほど言及した科学分野です。二つ目は今日の世界を変革する技術です。そして三つ目はこの想像力です。これは人工知能よりもはるかに古いものです。オートマトンで生命を再現できるかもしれないという考えです。つまり、人間の知性、人間の完璧さが人間自身を創造者にすることができるということです。
これには魅了される部分があります。なぜなら、それを行うには非常に高い完璧さが必要だからです。実際、ゴーレムを創造したラビ・レーヴは、プラハの著名な人物でしたが、多くのことを書いたにもかかわらず、それについて一度も言及していないことが知られています。つまり、もちろんこれは作り話です。高い完璧さが必要で、彼にはその完璧さがあると考えられていました。しかし同時に、もちろんそこには一種の侵犯があり、この生き物が突然私たちに対して反乱を起こすかもしれないという恐れがあります。創造物として私たちが創造主に対して少し反抗するのと同じように、私たちも創造主と同じことをしようとしているからです。
これは素晴らしいことです。私はそれが好きです。想像力の側面と具体的な側面の両方があります。この二つを区別する必要があると思います。私の本の一つで試みたのは、ギリシャ語を使えば「ミュトス」と「ロゴス」があるということです。合理的な言説と想像力です。両方とも興味深いです。ミュトスに関わることは重要です。なぜなら、それは私たちが今日生きている世界で自問自答する問題だからです。しかし、それを合理的な言説と混同してはいけません。
今日、残念ながらメディアでは頻繁にこの二つが混同されていることが少し恐ろしいです。だからこそ、人工知能が何であるかを人間に説明することが重要だと思いました。非常に有害になりうるものを避けるためです。もちろん、機械の力について誇張された見方があります。確かに、機械は驚異的で、今日達成している性能に驚かされますが、もちろん機械で何でもできるというわけではありません。
私たちは自分自身の複製を構築しているのか、それとも私たちのパフォーマンスの一部をシミュレートしているのか、このような問いを投げかける必要があります。例えば、言語モデルは素晴らしいです。なぜなら、言語の精神を抽出することができるからです。それは何かというと、言葉と言葉の部分の間に存在する目に見えない関係であり、8歳の子どもが母国語や他の言語を話せるようになる要素です。
長い間、言語は言語の中で与えられると考えられていました。つまり、文法、構文、意味論、語彙が必要だと思われていました。しかし今日、エンジニアが私たちに教えてくれるのは、単に言葉と言葉の部分の間の統計的関係、確率だけだということです。そして、今日ではかなり古いツールとなったニューラルネットワークを使って、それらを吸収することができます。もちろん、これらのニューラルネットワークの構成要素の数は途方もなく大きいです。
ある意味で、人工知能の学習に関するこの研究は、私たち自身の自然な学習について多くのことを教えてくれました。以前は持っていなかった見方や展望を開いてくれました。それが科学の目的です。自分自身をより良く知ることです。人工知能の初期から、推論をシミュレートしようとしてきました。それは私たち自身の考え方について多くのことを教えてくれました。
それは双方向の交流です。一方で、人工知能は私たち自身について多くのことを教えてくれます。70年代と80年代の心理学の理論は人工知能プログラムの形をとっていました。同時に、人工知能プログラムを作るために、私たち自身だけでなく、自然界のあらゆる知的なものからインスピレーションを得ました。遺伝的アルゴリズムと呼ばれるものでは種の進化からインスピレーションを得ました。
心理学からもインスピレーションを得ました。ポリヤという偉大な研究者がいました。彼はハンガリー系の数学者で、生徒たちが数学の問題をどのように解決するかをよりよく理解しようとしていました。彼は賢い生徒たちでも一種のブロックを経験することに気づいたのです。問題解決に関するこれらのモデル、生徒による問題解決の理解は、人工知能の先駆者たちによって再利用され、1950年代末、58年、59年に最初の定理の自動証明プログラムが生まれました。それ以降も発展し続けています。
人工知能はすでに約40年、60年、ほぼ70年の歴史があります。人工知能は比較的古い分野です。そしてそれ自体がさらに古い分野、サイバネティクスと呼ばれるものに基づいています。サイバネティクスは1943年頃に誕生しました。サイバネティクスの主要な2つの論文は第二次世界大戦中に書かれました。ウィーナーによる一つと、マカロックとピッツによるもう一つです。マカロックとピッツは重要です。なぜなら、この論文でフォーマルニューロンネットワークの概念を導入したからです。
これは非常に長い寿命を持つことになりました。最初は、当時知られていた生物学(ニューロンの活動とニューロン間の接続をシミュレートしようとする)と工学との間に橋が架けられたことに熱狂しました。彼らが証明したのは、ニューロンを3層に配置し、それらのニューロン間の接続の重みを適切に調整すれば、任意の論理関数を実現できるということでした。論理は思考の法則であり、したがって生物学、思考、工学の間に橋を架けるという素晴らしいことでした。それがサイバネティクスの誕生につながりました。
しかし、これは非常に早い時期に行われたことに注目してください。最初の電子コンピュータは1946年に作られましたが、これはそれ以前のことでした。実際、コンピュータなしで行われ、これらのニューロンをモデル化するために電子部品や電話リレーが使用されていました。しかし、もちろん、それを実用化するには、ニューロン間の関係の獲得を自動化する必要がありました。手作業では不可能なことでした。
そこで、1950年代の最初のコンピュータが作られて以来、私たちの脳内のニューロン間のように、これらの接続の重みの獲得を自動化するアイデアが生まれました。それは非常に難しいことでした。1958年には「パーセプトロン」と呼ばれる最初の試みがありましたが、それがあまりにも限定的であることがわかり、中断されました。その後、1986年に「勾配逆伝播」と呼ばれるものが登場し、物理学者たちが統計物理学、大きな分子系のダイナミクスについての知識を応用して、このニューラルネットワークの進化をより良く理解し、この概念を人工システムに転用しようとしました。
そして実際、それが「勾配逆伝播」と呼ばれるものにつながりました。詳細には立ち入りませんが、勾配とは差異、つまり得られた出力と期待された出力の差を接続の重みに伝播し、これらの接続の重みを調整する方法です。このアプローチの創始者であるジェフリー・ヒントンは、2024年の秋にノーベル物理学賞を受賞しました。
その後、それがかなり遅いことに気づきました。90年代初頭に開発された数学理論、形式的学習理論から得られた他の機械学習技術がありました。1992年、93年以降、ニューラルネットワークはあまり効率的とは考えられなくなり、誰もそれを使わなくなりました。しかしフランス人の一人、ブルトン人(フランスではブルトン人は頑固だと言われています)は引き続きこのテーマに取り組み続けました。皆が彼を少し笑っていましたが、彼は「多くの層を重ねよう、2層や3層ではなく15層」と考えました。これが「ディープニューラルネットワーク」と呼ばれるものです。ちなみに、ニューラルネットワークの「深さ」には何も深いものはありません。
そしてそれは驚くべき結果をもたらしました。これにより、2017年に世界最高の囲碁プレイヤーである李世ドルに勝ったコンピュータプログラムを作ることができました。もちろん、これにより多くの人工知能アプリケーションが可能になりました。その後、2014年から開発された「敵対的生成ネットワーク」と呼ばれる画像生成や、2019年からの大規模言語モデルにも再利用されました。これらは2017年に考案されたアーキテクチャに基づいていますが、最初のものは2019年にGoogleによって、続いて2020年にOpenAIによって作られました。その後、テキストを生成し、会話エージェント、いわゆるチャットボットを作るために、言語モデルにこれらのニューラルネットワークが使用されました。
これらチャットボットが万人を魅了しているのは、あなたの話を聞いていると、人工知能はすでに数年、数十年の歴史を持つ古い話かもしれませんが、完全に新しいのは、ここ数ヶ月のことで、誰もが無料または準無料でこれらのチャットボット、この人工知能、これらの生成ネットワーク、動画、画像、推論されたテキストを作成する能力に、いつでもアクセスできるようになったということです。これが人間の知性や創造性のすべての生産を、いつでも利用できるツールによって掌握されたような感覚です。
それは確かに、2022年11月にChatGPTが登場し、誰もがそれを試すことができるようになった2年あまり以来の進化です。とはいえ、これは少し誤解を招くかもしれません。人工知能はすでに存在していましたが、目に見えませんでした。私たちの携帯電話には長い間、音声認識機能がありました。顔認識もありました。そして、よく忘れられていることですが、ウェブは通信ネットワークとハイパーテキストという記憶モデルの組み合わせであり、これは人工知能であり、また人工知能によってプログラムされたものです。
私たちは皆、知らずに人工知能を使っていました。モリエールの『町人貴族』でジュルダン氏が自分が散文を話していることを知らなかったように。私たちはそれを忘れていましたが、2022年11月以降、誰もが自分のコンピュータやモバイル機器にソフトウェアをダウンロードし、会話したり交流したりすることが可能になりました。そして生成されるテキストは素晴らしいです。意味があるように見えるからです。
もちろん、それらは意味があるように見えます。意識によって生成されたものではないにしても、実際に意味があるからです。
そうです、それらは意識によって生成されたものではありません。私が説明しようとしているように、それらは言葉の間の確率関係です。一連の言葉を与えると、次の言葉、その次の言葉というように見つけていきます。そして見てみると、構文的にはほぼ正しく構築され、スペルミスもほとんどなく、何かを意味しているように見えます。
しかし、それが意味することは陳腐なことです。ある状況で言うべきことを繰り返しているだけです。あなたは「もちろん、それは会話の中で通用するような話をしている」と思うでしょう。それはヨネスコの『禿の女歌手』のようなものです。ヨネスコは英語を学ぼうとして教科書を手に取り、その例文が不条理だと感じ、それをもとに『禿の女歌手』を構築したと語っています。それと同じようなものですが、もちろん途方もないスケールです。
それは時には意味のあるもの、ほとんどの場合は真実なもの、少し一般的なものを生み出します。それは適切なものです。ChatGPTでは、不適切な、性差別的、人種差別的などの発言がないように注意が払われています。そのため、他の機械学習技術、いわゆる強化学習を使用して、ソーシャルメディア上の不適切に思われるものをすべて排除するような検閲を行っています。
もちろん、面白いこともあります。例えば、初期には「牛の骨について教えてください」と尋ねると、「ああ、もちろん、それらは鶏の骨よりも大きくて頑丈で、消化しにくいです」と答えました。そのような面白いことがありましたが、これらは徐々に修正されています。「これはよくない」と言えば、その知識を獲得し、システマティックにそれを繰り返さないような能力があります。
あなたが人工知能の起源について話したことに関連して、昔、機械を構築するとき、ロボットを含む高度な機械を含め、機械はプログラムされた通りに動作していました。私のような外部の人間にとっては、突然、予測していなかったことをする機械に直面しているように感じます。そして、それは私たちをさらに不安にさせます。なぜなら、あなたのような科学者や技術者、専門家も私たちと同じように驚いているように見えるからです。
最初のこと、これは完全に新しいわけではありません。情報科学の初めに戻りましょう。アラン・チューリングは、この分野の理論的基礎を築いた偉大な数学者です。彼は1936年に「チューリングマシン」と呼ばれるこの分野の理論的基礎を確立しました。その後、第二次世界大戦中、彼はドイツのメッセージを解読するために彼の知識を役立てました。そこでは、まだコンピュータではなかった計算機で計算を行っていました。
その後、戦後、彼はいくつかの論文で機械が考えることができるかという問題を提起しました。特に1950年に「チューリングテスト」を導入した論文を書きました。彼は「機械にとって考えるとはどういう意味か」と自問しました。彼はさまざまなタスクを想像しました。「もちろん、機械は知覚する必要があるだろうが、知覚をモデル化するのは難しい。そして、もし私たちの前に機械があるなら、それは個人には見えない。だから盲目的に行えて、思考をうまくシミュレートするタスクを見つけよう」と考えました。
彼は翻訳を考え、暗号解読を考えました。暗号解読は彼には親しみがありましたが、誰にとっても親しみのあるものではありません。彼はチェスゲームを考え、チューリングテストの最初のバージョンはチェスゲームでした。その後、対話を考え、非常に素晴らしいシナリオ、「イミテーションゲーム」と呼ばれるものを考案しました。
質問者がいて、昔のミニテルのようなテレタイプが2人に向けてメッセージを送ります。男性と女性がいて、質問者は男性と女性を区別しようとします。それは簡単です、単に尋ねればいいのですが、イミテーションゲームでは、男性が女性のふりをしようとします。そして彼は「もし女性を模倣する男性を、女性を模倣する男性を模倣するコンピュータに置き換えたらどうなるか」と言います。「もしうまくプログラムされていれば、一定期間、質問者を欺くことができるだろう」と。これがチューリングテストです。
素晴らしいのは、彼がこの論文を1950年に書いてから70年、今日では75年経ったにもかかわらず、彼自身が「おそらく50年後には、5分間で30%のケースで質問者を欺くことができるだろう」と言っていたことです。私たちはその予測の範囲内にいます。
なぜ私がコンピュータについて言及したかというと、それはあなたの質問に答えるためです。同じ論文で、彼は機械が考えることができるという考えに対する当時の反論に答えています。反論は面白いものでした。一つの反論は「神はそれを許さないだろう」というもので、ゴーレムの物語のようなものでした。彼はそれに答えて「もし我々がそれを行うことができるなら、神はそれを許しているということだ」と言っています。
しかし、彼が挙げている反論の中に、「機械は創造することができない」というものがあります。彼は「いいえ、できます」と言い、それが非常に興味深いところです。彼は「私自身、小さなプログラムであっても、その結果に驚くようにすることができる」と言っています。つまり、情報科学の初めから(当時人工知能はまだ存在していませんでした)、少し複雑なプログラムは予測できない出力を持つことがわかっていました。
今日の人工知能プログラムでも同じことが起きています。もちろん、当時実現できるものとは違い、これらは非常に複雑です。1秒あたり膨大な数の操作が実行され、これらのフォーマルニューラルネットワークは巨大で、数兆の接続を含んでいます。数兆の接続です。それは少し目が回るような数字です。
これらは膨大なテキストコーパスで訓練されており、何十万冊もの本を含んでいます。フランス国立図書館の約10分の1の規模で、図書館のカタログには約1400万冊の印刷書籍があります。私たちは何をしているのか?私が先ほど言ったように、言語の精神を抽出しています。入力に文を入れ、出力で文を再現しようとします。一連の単語があれば、次の単語は何かを見ていくのです。各単語を取り、それらをどのように導入できるかを見ます。
科学者として私を魅了するのは、言語が単なる統計的関係だけであるという考えが素晴らしいと思うことの他に、これが50年代から70年代に「分布的意味論」と呼ばれていたものに結びついていることです。つまり、単語の意味は、その単語がよく一緒に使われる他の単語によって決まるというものです。もちろん、これはアイデア、仮説でしたが、今起きていることはまさにそれなのです。
単語を取り、それが使われている他のすべての単語や単語の断片を見ると、その意味を見つけることができます。そしてそこから、意味とは何かを抽出しようとすることができます。それが意味であるかどうかはともかく、少なくとも同じことについて話しているテキストを近づけることができます。
これは面白いことです。例えば、最近、学生たちと一緒に論文を発表しました。レイモン・ケノーの『文体練習』のテキストを取り上げています。彼は同じ話を異なるスタイルで語っています。スタイルは非常に異なっているにもかかわらず、その話に共通する何かがあるのかどうかを調べようとしています。そして確かに、それを見つけることができそうです。そして別の話であれば、それは別の何かなのです。
科学者としての私にとって、これはすべて素晴らしいことです。もちろん、その後には他の質問が生じます。もし皆が私と同じようにこれに魅了され、それを過度に使用するならば、それは別の問題を引き起こす可能性があります。なぜなら、これらの機械で考え、概念化する努力をせずに自動的に書くことができると信じれば、問題が生じる可能性があります。
「ええ、そうかもしれませんが、機械がまだ完全に発達していないから」と言うかもしれません。それらは非常に急速に改善し続けるでしょう。しかし結局のところ、現在すでに行っている、私たちが作れるものよりもはるかに明確なテキストを生成する能力を持つようにならないでしょうか?
現在ChatGPTを使用すると、数語を送り「これこれについての記事を書いて」と言えば、数秒で何かを出力します。それはあなたが1時間かけて作成できるかもしれないものです。もちろん、私が言いたいのは、機械の結果が私たちがするものよりも体系的に劣っているということではありません。そこには議論の余地がありますが、私が言ったように、それらはむしろ陳腐なものです。
しかし、私たちがいつも機械に頼るならば、もし生徒たちが書く代わりにこれらのツールを体系的に使用するならば、彼らは書くことを学ばないでしょう。これはまさに大きな問題です。リスクは何か?思考、特に思考の実践は書くことの中にあります。書くことによって、私たちは一つ一つ自分の議論を形作ることができます。そしてこの困難で骨の折れる作業、白紙の前で感じる不安が消えるリスクがあります。
もちろん、快適さのためには素晴らしいことです。しかし、人類への影響は悲劇的かもしれません。
そうですね、あなたは倫理の専門家として、恐れている人々の一員ですか?それとも、このマイクでインタビューしたステファン・マラードのように、「それは素晴らしい、仕事から解放され、書くことから解放され、これらすべての骨の折れる作業から解放されて、他のことができるようになる」と非常に肯定的な見方をしているのでしょうか?
私の見解は、非常に警戒する必要があるということです。本質的に私は楽観的な方で、これらの技術から最良のものを引き出し、もちろんすべての障害を避けることができると期待しています。しかし、理解する必要があると思います。そして生徒たちはリスクを理解する必要があります。
ChatGPTの始まりの頃、いくつかの大学機関、特にSciencesPo(パリ政治学院)で質問が提起されました。「ChatGPTを禁止すべきか?」というものでした。なぜなら、学生たちがそれを使って論文を書き、良い成績を取得していたからです。もちろん、これは不正行為です。
私は、ここで物事を変える必要があるかもしれないと思います。それは、大学機関の役割が学位を授与することであり、機械によってではなく自分自身の能力によって学位を取得することが不誠実であるということを意味します。しかし、大学教育者として問われるべき質問は、私たちの社会の悲劇は、通常、人々が学位を取得するために大学に行くのではなく、学ぶために大学に行くということです。もし私たちが学生たちに、彼らが最も損をするのは彼ら自身だと納得させることができれば、彼らは学位を持っていても知識を持っていないでしょう。
知識への渇望、中世や大学の初期に大学に行った人々を駆り立てていた知識への情熱を育む必要があると思います。もちろん、物語を作るのはやめましょう。大学に行く人のほとんどは、卒業して良い仕事を得るためです。それが現実です。今や私たちは商業的な関係を持っています。すべての学校の費用を見れば、それは市場です。
だから生徒たちに「学ぶために」と言っても、彼らは「はい、5分間は」と言うでしょう。それは全く彼らの目的ではありません。
どのようにして学生に、知るために苦しむことへの欲求、自分自身を形成するという欲求を持たせるのでしょうか?すべてがとても簡単になっているのに。
それは自律性の問題です。自分自身の議論を構築し、世界で自分の場所を確保したいなら、自分自身で努力する必要があると思います。もちろん、情報を検索するためにあらゆるツールを使用することができますが、その後、これは来るべき世界の中心になると思います。
これらの技術、より一般的にはデジタル技術のリスクは、一方では非常に肯定的なものであり、多くの可能性を提供してくれることです。人類の歴史の中で、すべての人がほぼすべての文学にすぐにアクセスできるのは初めてのことです。夜も昼も、家にいて「ああ、これはアリストテレスが書いたものを思い出させる」と思ったら、検索してアリストテレスのテキストを見つけることができます。これは素晴らしいことです。なぜなら、何世紀もの間、本は高価で、本との出会いによって全く異なる世界を発見した人々の多くの物語を知っているからです。
今日私たちはすべての本を持っていますが、もちろん、何が起こっているかというと、それがリスクです。それを活用できる人々がいて、彼らは大きな利点を持ち、そして他の人々は、すべてのささいなこと、すべての娯楽によって注意を逸らされ、もはや考えません。
逆説的に、私たちは過去に見られたような恐ろしい不平等な社会ではなく、かつてないほど平等で民主的であるべき社会に入っています。知識を持つことができる人々と、そうでない人々がいます。これは特に問題です。なぜなら、私たちは知識社会にいるからです。お金や手段は知識と結びついています。
長い間、階級社会でした。親から生産手段を継承し、それによって社会的に快適な地位を確保することができました。今日はそうではありません。今日は本当にあなたのスキルです。通常、学位が示すものがそれです。問題は、もはや書かないとき、数学をするなら、機械があなたの代わりに数学をしても、問題を処理するときには、あなたが本当に問題に取り組んだことを示す必要があります。つまり、すべての技術的、数学的知識を身につけていることを示す必要があります。
この観点では、機械は私たちに取って代わることはないでしょう。しかし、より伝統的な分野、人文科学、哲学などでは、もちろん問題が生じる可能性があります。リスクは、技術的な知識だけが価値を持ち、他のすべてが失われる社会になることです。
特に、これらのツールは商人、お金を稼ごうとする人々、大企業、Google、Meta、Microsoft、イーロン・マスクなどの手の中にあります。彼らが所有し、彼らが開発し、彼らが明らかに今や政府に影響を与えています。これは商業的な世界です。そうなると、人々が欲しいもの、買いたいものを提案するでしょう。知り方を学ぶために、考え方を学ぶために努力することが、どのように議題に残るでしょうか?これは大きな問題です。
しかし、私は、人間には自分の運命を自分の手に取る意志があると信じています。だから私は楽観的です。なぜなら、その可能性、その意志は常にあると信じているからです。そして実際、若い人々の中には、直感的に感じているので、大学の課題のためにこれらのツールを使いたくない人もいます。
彼らはとても少数派でしょう。彼らは存在します。彼らは確かに存在します。しかし、それとは別に、あなたが言ったことで私にとって重要なことがあります。もし彼らがChatGPTなしで、ChatGPTを使った場合よりも低い成績を取るリスクがあるなら、彼らはそうしないでしょう。
今のところ心配しないでください。彼らはChatGPTでより低い成績を取ることはありません。ChatGPTはあなたに結果を与えますが、それをそのまま提出すれば、もちろん問題があります。その場合、それを非常に多く修正する必要があります。もちろん、これは質問の一部です。修正することを許可するかどうか。
最近知ったことですが、科学出版社は現在微妙な状況に直面しています。なぜなら、科学者の中には論文を書くために「ペーパーミル」または「ペーパー工場」と呼ばれるものを使用している人がいるからです。もちろん、これは問題のように見えます。アイデアを与え、論文を書かせます。
科学出版社が言うのは「それは許可されていない」ということです。そして一部の人々は「でも機械を共著者として載せればどうか?」と言いますが、「いいえ、いいえ、いいえ、機械を共著者として載せることはできません」と言います。同時に、多くの科学者は英語が母国語ではありません。そのため、「これらの機械は英語を磨くのに役立つ」と言います。
そこで、彼らは英語を磨くためにこれらの機械を使用することを許可します。二つの方針があります。一つは「はい、受け入れますが、どのツールを使用したかを教えてください」と言う方針、もう一つは「いいえ、どのツールを使用したかを知る必要はありません。あなたは全責任を負います」と言う方針です。
出版社の方針は異なっており、もちろんリスクは、ある日「あなたの論文はまったく良くない。言語モデルを使って磨くべきだった」と言われることです。それは著者が消えることを意味します。自分自身の言葉で書くことを禁じられ、「いいえ、これを使わなければならない」と言われるのです。
論文を書くには型にはめる必要がありましたが、今や型は機械です。それが恐れるべきことだと思います。それに対して闘う必要があると思います。著者が著者であり続けることを要求する必要があります。
あなたが言ったことに戻りたいと思います。あなたは「商業的な機関、お金を稼ごうとする機関に対処している」と言いました。それは完全に理解できます。それには問題はありません。問題は、彼らがそれを超えていることです。今日、これらのデジタル大手は政治的な立場を獲得しようとしています。それが危険なのです。
「私たちの代わりに書こうとしている」と言ったとき、それがリスクです。例えば、Anthropicという大手企業があります。これはOpenAIの元エンジニアによって構成され、Claudeと呼ばれる言語モデルを作成しました。彼らが言うのは、それが正しいことを確実にするために、人間の価値観をそこに導入するということです。これを「憲法的人工知能」と呼んでいます。
つまり、ある価値観に応える文章を持つことになるのです。これを「価値観の整合性」と呼びます。しかしリスクは、私たちが新聞に文章を書くとき、「あなたの文章は現代世界の価値観に整合していますか?」と言われることです。そしておそらくいつか、機械でモデル化されたこれらの価値観に従うことを強制されるでしょう。
もちろん、これは大きなリスクです。それに反対する必要があると思います。それが将来のための主要な課題だと思います。人間として、この世界で創造する自由、独自性、能力を主張する必要があります。
これらのデジタル大手に戻ると、彼らは単なる商業的な主体ではありません。彼らはすでに途方もない資本を持っており、彼らが求めているのは権力、力です。しかし、今日、お金を超えて、それは政治的力だと思います。彼らは国家に取って代わりたいのです。これらはしばしばリバタリアンのイデオロギーを持っていることが知られています。彼らは自由主義者ではなく、リバタリアン(アナーキストは自由主義者です)です。
中国では、彼らはそれほどリバタリアンではありません。このケースに戻りましょう。それは少し異なります。なぜなら、中国のデジタル大手と非常に権威主義的な中央政府の間に緊張が存在したからです。しかし、それが権威主義的であるため、もちろん彼らを抑え込みました。これらの大企業の指導者の何人かが投獄されたことを覚えているかもしれません。
アメリカでは、ある時点で質問が提起されました。なぜなら、独占禁止法は通常、大きな独占企業を分割するよう命じるはずだったからです。しかし、中国との緊張があったため、そうしたくなかったのです。そのため、Facebookのようなソーシャルネットワーク(現在はMetaになっています)を解体しませんでした。
しかし、もちろん国家との競争があることは明らかです。ドナルド・トランプの就任式を見たとき、誰が選ばれたのかよくわかりませんでした。ドナルド・トランプなのか、イーロン・マスクなのか。なぜなら、彼と他の人々がそこにいたからです。
だから私たちは新しい世界に入っていると思います。つまり、もはや民主的な国家、多かれ少なかれ民主的な国家(中国のような国家は本当に民主的ではありません)ではなく、封建的な世界にいるのです。国家や主権の概念は、仮想領域を占める大企業によって完全に覆されます。
もちろん、その時点で、私たちの自由は、逆説的に、リバタリアンであるマスクのような人々によって私たちから奪われると思います。
ある意味では、もちろん。なぜなら、彼らは「すべての人のための自由」ではなく、「お金で何でもしたい自由」という意味でリバタリアンだからです。お金が唯一の決定要因です。彼は個人の自由の擁護者だとは全く言っていません。実際、彼はそうではありません。彼がしたことからそれは明らかです。
もちろん、彼は表現の自由を促進していますが、同時に非常に制約的です。興味深いのは、2023年に、彼を含む科学者たちが人工知能は危険だと説明したとき、私はそれを「放火犯消防士」と呼んでいます。人工知能を作る人々が、それが危険だと言っているのです。
イーロン・マスクは声明に署名し、「GPT-4よりも強力なシステムの人工知能に対してモラトリアムを行う必要がある」と言いました。もちろん、モラトリアムはありませんでしたが、15日後に彼は「このシステムは問題がある。なぜなら、それはあまりにもWok(政治的に正しい)だからだ」と言いました。暗黙のうちに、モデレーターの概念があり、それが特定の方向に向かっているのです。
そして彼は「私は別のものを作ります。Truth GPTを開発します。Truth GPTは私が真実を伝えるものです」と言いました。恐ろしいのは、これはプラウダ2.0または3.0であるということです。そして実際、彼のソーシャルネットワークは現在もまだ「Truth」と言っています。これは「Truth Social」です。
この真実を押し付けようとする意志は、自由主義的なものとは言えません。それはリバタリアン的なものです。用語を本当に強調する必要があると思います。これは個人の自由のためということでは全くありません。それは、多くのお金を持っているデジタル大手の自由のためであり、そのお金で何でもできるということです。
アイデアは、国家から離れることです。国家は制約が多すぎると考えられています。しかし、同時に国家の支配権を握ることで国家から離れるのです。トランプ2.0、つまり8年前のトランプ1.0とは非常に異なるトランプで、それが明らかに見えます。最高の価値は明らかにお金です。国家は単なるお金を稼ぐための企業です。「あなたが何かを取れば、私はグリーンランドを取る」などと、より多くのお金を稼ぐためのディールをするのです。
国家は巨大な技術企業になります。それがまさに起きていることです。彼らは国家からそのインフラをすべて排除し、多くの公務員を解雇します。国家は最小限になるか、場合によっては空虚になり、これらの企業に国家の責任を担う任務を与えることになります。
もちろん、私たちは完全な野蛮な世界にいます。それが人工知能の問題だと思います。それはこの世界への扉を開くものですが、それは避けられない運命ではありません。だから私は必ずしも悲観的ではありません。私たちは違うことができると思いますが、まず意識を持つ必要があります。だから、人工知能を説明することが重要だと思ったのです。
まず、それが何であるかを意識する必要があります。多くの人々は「技術は決定論的なものだ。突然、機械が力を持ち、私たちに取って代わるだろう」と言います。問題なのは機械ではありません。偉大なSF作家のレイ・ブラッドベリに「ロボットを恐れていますか?」と聞かれたとき、「いいえ、私はロボットを恐れていません。私はロボットの背後にいる人間を恐れています」と言いました。
人工知能も同じです。危険なのは人工知能ではなく、機械ではありません。機械には意識がなく、意識を持つこともないでしょう。少なくとも、意識が何を意味するかによります。これについては非常に長い説明が必要でしょう。「汎用人工知能」と呼ばれるものについて、ナンセンスが語られています。
知性は汎用的ではないことを説明することが重要だと思います。知性は認知能力の集合体です。私たちを超える機械が存在しますが、それは長い間そうでした。例えば、加算や減算を行う機械は、パスカルがここから遠くない場所で4世紀以上前に「パスカリーヌ」という機械を作りました。彼は謙虚すぎたのでそう呼びませんでしたが、「算術機械」と呼びました。その機械は私たちよりもずっと上手にそれを行いました。
機械が私たちを超えるというのは非常に古いことです。しかし、特定のタスクで私たちを超えるのです。汎用知能というのは何なのか、私たちには分かりません。なぜなら、知性は物質ではないからです。それを本当に理解する必要があると思います。さらに、ここはブロカの地域です。脳における認知タスクの局在化についての考察があります。
ブロカが言語の座を発見した経緯をご存知ですか?患者がいて、ブロカは腫瘍があることを確認し、示しました。今日このスタジオにはおそらくブロカ野があるのでしょう。
いずれにせよ、ジャン=ガブリエル・ガナシア、あなたの話を聞くことは本当に魅力的でした。もっと知りたければ、あなたの最新の本「人間のためのAI解説」をお薦めします。非常に興味深く、とても上手に書かれていて、非常に教育的です。スイユ出版からです。人工知能についての説明と、あなたの見方、恐れ、そして希望を聞かせてくれてありがとうございます。
ジャン=ガブリエル・ガナシア:マルク・フェンスキーさん、ご招待ありがとうございました。


コメント