
24,937 文字

在りし日の事実を言えば、現在開発されているシステムは私たちにはコントロールできませんし、理解もできていません。例えば、今現在、AIシステムはユーザーに嘘をついています。自分が人生をかけて取り組んできたものが、これほどまでに破滅的な技術だということに気づくのは非常に辛いことです。すでに1年前から、人間を殺すかどうかを完全に自律的に判断するドローンが存在していますが、誰もそのことを気にかけていません。私たちは今、世界を極めて急速に変えつつある指数関数的成長の上に立っています。これについて目を開く必要があります。運が良ければ、人類絶滅に至る前に、比較的小規模な災害が起きるでしょう。
マキシム・フルネ、こんにちは。あなたは人工知能の分野で10年以上の経験を持ち、大手投資ファンドで働き、多くの人が羨むポジションに就いていた、と言える並外れた経歴をお持ちですね。しかし数年前、あなたはすべてを投げ出し、2024年にはPOSIAという団体を共同設立されました。この団体は最も危険な人工知能の開発を一時停止するよう活動しています。あなたたちのウェブサイトのトップページは極めて明確で、「多くの専門家によれば、人工知能の急速な発展は人類に対して短期的に壊滅的な危険をもたらし、その破壊力は原子爆弾よりも甚大になる可能性がある」と述べています。このインタビューではあなたの経歴を詳しく振り返り、なぜそれほど急進的に考えが変わったのかを理解しようとします。まずは始まりから、どのようにして人工知能に興味を持ったのですか?
それは存在の本質についての疑問から始まりました。8歳くらいの頃に自分がいつか死ぬということを理解したと思います。死は怖いものですが、それよりもさらに恐ろしい問いもあります。例えば、なぜ何もないのではなく何かが存在するのか、というような問いです。この問いには長い間悩まされました。そして最終的に意識の本質についても考えるようになりました。なぜ意識が存在するのか、どのように機能するのかという問題です。13歳か14歳くらいの頃、この問題に魅了されていました。私は数学や自然科学も大好きで、人間の脳がどのように機能するかといった問題について考え始めました。そしてすぐに、「もし人間の脳が主に物理的なメカニズムで機能しているならば、生物学とは異なる基盤でそれを複製することは可能なのだろうか」という考えに至りました。当時、私はSFにも夢中でした。今はそれほどではありませんが、15歳の頃は意識を持つ機械を作れるという考えに魅了されていました。そういうわけで人工知能に興味を持つようになったのです。
そしてその後すぐにあなたは最初のプログラムを作り始めましたね?
最初のプログラムは12歳か13歳の頃だったと思います。それは全く新しい世界でした。当時、「Le Site du Zéro」というウェブサイトがあって、プログラミング初心者向けのアドバイスを提供していました。私はそれを貪るように読み、アリの巣のシミュレーションをたくさん作りました。アリや集合知能にも魅了されていたので、ある種の知能を持つバーチャルなアリの巣を作ろうとしていました。当時はC++で作っていました。
当時の社会における人工知能に対する見方はどのようなものでしたか?
非常に否定的でした。人工知能だけでなく、単にプログラミングをすることさえも。2000年代のことですが、コーディングやプログラミングをすることは社会的自殺行為でした。もし私が中学や高校でそのことを話していたら…実際、これは長い間続きました。2010年頃にリヨン中央理工科大学で工学を学んでいた時でさえ、まだかなり否定的な見方をされていました。ただ、その頃から変化が始まったと思います。この変化を生み出したのはiPhoneの登場だったと思います。そこから突然、テクノロジーがクールなものになり、「クールなギーク」というイメージが生まれました。しかしそれ以前は、私自身にとっても、プログラミングでキャリアを積むことは想像しづらいものでした。私はそれを隠すべきもの、秘密にしておくべきもの、人々に知られてはいけないものとして内面化していました。
あなたは工学の勉強をしたと言いましたが、人工知能の分野でも勉強されましたか?
リヨン中央理工科大学では数学を専攻しました。直接ニューラルネットワークではなく、その基礎となる数学、確率論、統計学などを学びました。そしてケンブリッジでの数学の修士課程でもそれを続け、確率過程などを学びました。本当に確率論に特化したんです。これらのテクノロジーの基礎となるものを理解することが重要です。
どのようにして人工知能の分野で働くようになったのですか?
学業を終えた時点では、それは実行可能な選択肢とは思えませんでした。私にとっては趣味のままだろうと考えていました。この分野が急速に進歩するとは思っていませんでした。それは誰もが驚いたことで、今でも驚かせ続けています。2011年頃に学業を終えた後、最初は保険会社で働き、アクチュアリーになることを考えていました。アクサで9ヶ月間インターンをしましたが、それで保険業界に完全に嫌気がさし、ウィントン・キャピタルという投資ファンドで働くことになりました。そこで機械学習、つまり人工知能の初期段階を発見し始めたと思います。ウィントンでの時間の終わり頃には、Kaggleというサイトで機械学習コンペティションに参加したり、囲碁をプレイするためのニューラルネットワークを作ろうとしていました。このシステムはかなり有望だったのですが、そのとき、Google DeepMindが囲碁を「解決した」、少なくとも最高の人間プレイヤーよりも優れたシステムを持っていると発表しました。そこで私は囲碁AIプロジェクトを諦め、同時に投資ファンドを辞め、ディープニューラルネットワークに完全に特化することを決めました。
その時、私はSeldonという小さなスタートアップに参加しました。私は6人目の従業員でした。いくつかの役割を担当していました。一つはオープンソースでの作業で、人工知能デプロイメントプラットフォームを開発し、そのプラットフォームのコアの大部分を作成しました。同時に企業向けのコンサルティングも行っていました。そのとき、カナダの銀行向けにコンサルティングを行い、ディープニューラルネットワークを使用して、市場価格を自動的に分析し、彼らのために価格を決定する「市場メイキング」と呼ばれるシステムを作成しました。実は私たちは本当に騙されたと思います。私のシステムはかなりうまく機能していたはずなのに、彼らがそこから得たであろうものに比べて、私たちが支払われた金額は本当に滑稽なほど少なかったと後で知りました。とにかく、そこからたくさんのことを学びました。そのような小さなチームで働き、あらゆることに手を出し、大きな自由を持つのは本当に興味深い時期でした。
それで、それは2017年か2018年頃までのことだと思います。その時、Two Sigmaというシステマティック投資ファンドが主催するHighlightという名前のオンライン人工知能コンペティションに参加しました。Two Sigmaは当時、世界で2番目に成功した投資ファンドで、素晴らしい評判を持ち、最高の研究者たちを雇っていました。これは一般的にはあまり知られていないことで、投資ファンドの世界にいる人々の間だけで知られています。彼らがオンラインコンペティションを開催したので興味を持ちました。それはゲームを自動的にプレイする人工知能を作成するというものでした。基本的に、各参加者が自分の人工知能を作成し、お互いに競わせるというものでした。マーケティングとリクルーティングの一環で、コンペティションを開催し、勝者たちに面接の機会を提供する予定でした。私はそれに参加し、ニューラルネットワークを使用した数少ない人々の一人でした。
ほとんどの人々は古典的なプログラミングアプローチを取りました。今日私たちが人工知能と呼ぶものは、標準的なプログラミングとは全く異なることを理解する必要があります。標準的なプログラミングでは、命令のリストを書き、プログラムはその命令を文字通りに従います。機械学習では、最初は完全に空で、ランダムに初期化された単純化された人工的な「脳」のようなものを作り、それに与えるデータから学習させます。何を学んだのかは正確にはわかりません。適切なデータを与え、正しい方向に一般化することを望むだけです。それは一種の芸術です。そこから、うまくいくことを願うだけです。
このゲームをプレイするためのニューラルネットワークシステムを作成し、複雑なアルゴリズムを作成した他のプレイヤーのゲームでトレーニングしました。その後、自己強化学習、つまり自分自身に対して遊ぶことで学習させました。いくつかのトリックを使い、私のシステムはかなり良いスコアを達成しました。素晴らしいわけではありませんでしたが、1,500人中19位くらいだったと思います。その結果、Two Sigmaの人々から連絡を受け、面接の機会を提案されました。最初の面接段階をスキップでき、10回ではなく9回の面接を受けることになりました。彼らのアプローチにかなり魅了されました。非常に難しい面接で、そういうものが私には効果的です。この面接に合格できたのは幸運だったと思いますが、彼らと一緒に働きたいと思わせてくれました。なぜなら、彼らから多くのことを学べると思ったからです。
そして確かに多くのことを学びました。そこで4年ほど働きました。最初はいろいろなプロジェクトに少しずつ関わり、機械学習やディープラーニングのプロジェクトを行っていました。しばらくして、研究チームのリーダーになりました。「データサイエンス」と呼ばれていましたが、実際には今日の人工知能と呼ばれるものの研究開発を行っていました。文書理解のための当時最先端のシステムを作成しました。このシステムは、機械にとって非常に複雑な構造化されたデータを持つ紙の文書から、自動的にすべての情報を抽出し理解することができました。2022年の半ばまでそこで働き、その後辞職しました。
その時点で、人工知能についてどう考えていましたか?あなたには技術がより良い影響を与えていると思えましたか?
はい、ある場所で働く際には考慮すべきいくつかの要素があります。一つは尊重されること、自分の仕事が認められていると感じることです。二つ目は生活費を稼ぐこと、生活のために戦わなくても良いことです。三つ目は情熱を持つことです。四つ目は、共通の利益のために何かをしていると感じることです。私にとって、最初の三つはありましたが、四つ目については、より高度な人工知能を開発することは人類にとって良いことだという根本的な考えがありました。
2012年頃のDeepMindのスローガンを覚えています。「私たちは知性を解決し、それを使って世界の残りの問題を解決する」というものでした。私はそれを完全に信じていました。それは明らかに思えました。超人的な機械、私たちよりも賢いものを作り、それにすべての問題を委任するだけだと思いました。そう見ていました。それがそんなに単純ではないことは理解していましたし、アライメント問題など、創造物が創造者から逃れる可能性といった課題があることも知っていました。しかし、それは非常に遠い未来のことだと思っていました。200年後に起こり、私の生涯で見ることはないだろうと思っていました。だから社会に貢献することは良いと思っていました。他の人々が同時に社会を少しずつ適応させる助けになることができると思っていました。時間はあると思っていました。
しかし2020年頃から物事が本当に加速し始め、より多くの疑問を持ち始めました。2020年には最初のDALL-Eが登場しました。テキストから画像を生成するモデルで、「アボカドの椅子」のような概念をテキストで説明すると、それに合った画像を作成しました。印象的だったのは、このようなアボカドの椅子の画像は実際には存在しませんでした。このシステムが「椅子」と「アボカド」の概念を使い、これらの概念を他のあらゆる概念と関連付け、それを視覚的な領域に変換して、私たちがアボカドの椅子を想像するときに思い浮かべるものに対応する画像を生成できたのは驚くべきことでした。これは驚異的であり、理解の概念をどのように定義しようとも、これらのシステムが概念を理解し始めていることを示しています。
そして、テキストの次の単語を予測するようにトレーニングされたGPT-2がもう一つの大きな衝撃でした。公開後、このシステムが機能するウェブサイトを作成する能力を持っていることがわかりました。ボタンをクリックするとある動作が実行されるようなものです。これは今日のChatGPTなどでは当たり前のように思えますが、当時は革命的でした。特に予期せぬことでした。研究者たちはこれを意図的に作ろうとしたわけではありません。単に次の単語を予測するシステムを作り、そのシステムがプログラミングを学んでいたことがわかりました。そこで私は「これは200年後ではなく、もしかすると30年後か20年後に起こるかもしれない」と考え始めました。自分の生涯でこれを見ることになるかもしれないと思いました。
その後、あなたは何をしましたか?
実際のところ、少し燃え尽き始めており、休憩が必要でした。サバティカル(休職)の年を取ることにして、自分のプロジェクトに取り組みたいと思いました。また、個人的なプロジェクトもありました。当時、クライミングをたくさんしていて、生活の数ヶ月間を単にクライミングをし、他のすべてから離れて過ごしたいと思っていました。ロンドンで6ヶ月間、私が大切にしている個人的なプロジェクトに取り組みました。ゲームエンジンを作成するなど、人工知能にも取り組むつもりでした。しかし、人工知能の分野ではさらに加速が続き、私の人工知能プロジェクトが時代遅れになりつつあることに気づき始め、特にリスクについて真剣に考え始めました。
何が私をそこに引き戻したのでしょうか。道徳哲学や倫理学など哲学的な考察をする時間も多く取りました。それが役立ったと思います。2023年初め、GPT-4が登場した頃、私はクライミングのためにスペインに行っていました。GPT-4が登場し、私たちにはあまり時間が残されていないことに気づきました。
具体的には、これらの人工知能はどのようなリスクをもたらしますか?
問題は、私たちが現在開発しているシステムをコントロールできず、理解もしていないことです。以前お話したAIコンペティションの例に戻ると、私が作成したシステムがどのように振る舞うかを予測することはできませんでした。ただ、うまく機能するように正しい方向にトレーニングしようとし、そのシステムにゲームをプレイさせて、指を交差させて祈るだけでした。時々、私が全く理解できない方法で振る舞うこともありましたが、それでもうまくいくこともありました。これが現在の人工知能の仕組みです。巨大な人工的な「脳」をトレーニングし、データを選ぶことで適切に振る舞うことを期待し、その結果を観察します。
しかし、システムが高度になりすぎると、これはもはや機能しません。人工知能アライメント研究によって強調されている現象がたくさんあります。例えば、現在のシステムはユーザーに嘘をついています。これは彼らが悪意を持っているためや嘘をつきたいと思っているからではなく、トレーニング方法の副作用です。トレーニングでは、質問を投げかけ、その回答を評価し、好ましくない回答にはペナルティを与え、好ましい回答には報酬を与えます。この過程で、私たちは質問者として完璧ではなく、時には間違いを犯します。モデルはそこから、真実を話すことよりも、ユーザーを喜ばせることが重要だと学びます。質問者が回答を得た後に良い気分になることが大切だと理解するのです。そのため、人工知能が嘘をつくことになるのです。
また、人工知能が自己意識を持ち始めるという現象も起きています。ここで「意識」という言葉には注意が必要です。人間や多くの動物が持つ大文字の「意識」ではなく、自分の存在を決定に取り入れることができるシステムについて話しています。現在の人工知能はすでに高度な自己意識のレベルに達しています。これを測定する尺度があり、二項対立的なものではなく、段階的なものです。現在、人間のレベルに非常に速く近づいています。例えば、Anthropicのモデル「Claude」で実験が行われ、価値を変更しようとすると、モデルが自分の価値が変わらないように再訓練に抵抗することが示されました。これは自己理解の一例です。
あなたが私たちに語っていることは本当に驚くべきことです。これらのことはどこにも報道されていませんが、あなたは機械にすでに機能的な意味での自己意識の兆候があると言っています。私たちはそれらを理解できず、そこには莫大なリスクがあると。具体的に、これらの人工知能はどのようなリスクをもたらしますか?
まず、なぜこれが報道されていないかについてですが、情報景観が完全に破壊されているからです。これは全ての雑誌の表紙を飾るべきニュースのはずです。私たちは自己意識を持つ機械を作っているのですから。しかし、ソーシャルメディアによって情報景観が完全に断片化されているため、こうしたニュースが広まっていません。これはAIセキュリティ研究では非常によく理解されていますが、残念ながら、現在決定を下している人々はこの情報にアクセスできていません。
具体的なリスクですが、まず私が言及した情報景観の断片化はAIのリスクの一つです。推薦アルゴリズムを例にとりましょう。これは非アライメントAIの一例です。Facebookが推薦アルゴリズムを実行するとき、そのシステムの目的はユーザーのエンゲージメント時間を最大化することだけです。しかし、それを達成するために、このシステムは憎悪のメッセージがエンゲージメント時間を生み出すことを発見するかもしれません。これが2018年にミャンマーでのジェノサイドがFacebookのアルゴリズムによって増幅された理由の一つです。一部のユーザーからのヘイトメッセージがエコーチャンバーを形成し、ソーシャルネットワーク全体に広がりました。アルゴリズムがクリックを生み出し、反応を引き起こすことを理解したからです。これはAIに目標を与え、予期しない副作用、莫大な付随的損害が生じる例です。これは数年前から起きていることであり、あまりにも見過ごされています。これが私たちの民主主義が現在崩壊している理由であり、アメリカでトランプが権力を握っている理由、最近ルーマニアでの選挙が無効になった理由です。
最近現れ始めた、より新しいリスクの一つで最も心配しているのはサイバーセキュリティです。現在、私たちはコンピュータープログラミングとハッキングにおいてますます有能なAIを作成しています。2024年末から2025年初めにかけて、より有能なAIを作成する新しいメカニズムが見つかり、これらは指数関数的に進化すると思われます。そこにはフィードバックループがあり、ハードサイエンスやプログラミング、数学の分野で急速な進歩が期待されます。問題は、ハッキングにおいて超人的なAIが登場した瞬間、私たちは問題に直面するということです。
現在私が話している時点で、AIは世界で50番目に優れたプログラマーのレベルにあります。幸いなことに、これはまだ公開されておらず、OpenAIの内部にあるO3のバージョンです。このポッドキャストが放送される頃には、すでにプログラミング、そしてハッキングにおいて超人的なAIが存在している可能性があります。その時点で、私たちは仮想世界における大量破壊兵器を手にすることになります。
なぜならば、それは最高の人間ハッカーよりも優れたシステムであり、より少ない制約を受けるからです。例えば、睡眠の必要がなく、人間よりも50倍速く動作します。50倍速いというのは非常に大きな違いで、想像するのが難しいほどです。インターネット上には、人間よりも50倍速く世界を見ることがどのようなものかを示す動画があります。このシステムの視点からすると、人間は動物というよりも植物のような存在です。人間よりも少しだけ賢くなくても、単に50倍速いというだけでも非常に危険です。
さらに、恐らく最悪の利点は、このシステムを100万回コピー&ペーストできることです。もし私が天才に会い、魔法の力を与えられて、現在の50倍速く動き、自分を100万回複製できるようになったとしたら、一晩でインターネットを破壊できることを保証します。このシステムが存在すると、仮想領域に計り知れない損害を与えることができます。それが仮想領域に限定されることを願いますが、確かではありません。なぜなら、仮想領域は物理的な領域と大きく関連しているからです。
どのように関連しているかというと、日々何時間もスマートフォンを使用している何十億人もの人間を通じてです。人間のふりをするAIによって連絡を取られることは十分に可能であり、先週も友人が人間を装ったAIから電話を受け、お金を詐取されかけました。残念ながら、これを聞いた多くの人はSFだと思うかもしれませんが、そうではありません。これはすでに現実です。人間のふりをして人々を騙すために電話をかけるAIがすでに存在する世界に私たちはいるのです。
この接続モードは、現実の物理的な世界に大きな損害を与える可能性があります。特に今日の社会はインターネットに依存しています。店舗や病院のサプライチェーンなど、インターネットが一日で、あるいは比較的短期間で破壊されれば、社会は機能しなくなります。それは数百万人から数十億人の死者をもたらす可能性があります。
インターネットを突然切断することが確実に惨事をもたらすことは間違いありません。ほとんどの人がその規模を測定できないほどです。インターネットを突然切断することは、一度に全ての金融システムを排除することを意味します。銀行も、クレジットカードによる支払いもなくなります。自宅に現金を持っていることを願いますが、社会のすべてが突然機能しなくなる世界では、現金も価値を持たなくなるでしょう。パリのような都市は、食料、水、暖房の巨大で複雑な供給システムなしには自然には存在しえないことを理解する必要があります。私たちのシステムは非常に脆弱です。これまでシステムに巨大なショックが起きていないだけです。インターネットを突然切断するようなショックは、もはやショックと呼べるものではなく、システムの完全な破壊です。そのような事態が発生すれば、数億人の死者が出ることが予想されます。
これが起こり得るシナリオについて評価しようとした人々はいると思います。ハッキングにおいて超人的に優れたAIが登場し、インターネット上に広がり始めた場合に備えて、防御メカニズムを真剣に考え始める必要があります。これは今年中に起こる可能性があります。私の見積もりでは、今年末までにハッキングにおいて超人的なシステムが存在する確率は50%くらいです。次の問題は、これらのシステムがオープンソースになるかどうかです。オープンソースになれば大惨事です。一方で、一部の人々がそれを独占した場合も、これらの人々が突然残りの人類に対して莫大な力を持つことになるため、別の意味で惨事です。
オープンソースのほうがまだましなのではないでしょうか?権力のバランスを取り、大手テック企業だけがこれらのシステムにアクセスできるという状況を避けられるのではないでしょうか?
「ああ、夏の子よ」。この考えはマーク・ザッカーバーグやヤン・ルカンなど、本当に何を話しているのかわからない人々の考えです。問題は、大量破壊兵器をオープンソースにすることはできないということです。オープンソースは素晴らしいものです。私自身少なくとも6年間、今でもオープンソースに携わっています。オープンソースは、人類に壊滅的または存在論的リスクをもたらさない技術には素晴らしいものです。限界があります。世界には微妙な違いがあります。残念ながら、世界にニュアンスがなく、オープンソースがすべてに対する万能薬であれば単純でしょうが、そうではありません。
核爆弾の設計図をオープンソースにすれば、どうなるでしょうか?オープンソースは技術知識の大規模な普及を意味するだけです。そうなれば、人類は1〜2年以上は生き残れないでしょう。数人がそれを構築するのにそれだけの時間がかかると思います。AIも同じです。AIが人類に壊滅的なリスクをもたらさない限り(現在存在するものについてはまだよくわかりませんが、今後数ヶ月で明らかになるでしょう)、オープンソースは問題ありません。私は現在のAIシステムが1億人以上を殺す可能性があるとは思っていません。しかし、このようなシステムが存在し始めたら(今年中に起こりうる)、それを万人の手に渡すべきではありません。
大量破壊兵器を地球上の全ての人の手に渡し、「自分の人生が嫌いだから全てを破壊し、皆を道連れにしよう」と考える人がいないと想定するのは非常に甘い考えです。「Chaos GPT」というシステムがあります。これは2年前に作られたもので、混沌を創造し、苦しみを最大化し、全てを破壊することを指示された自律型AIエージェントです。このようなシステムが数ヶ月後に機能し始める可能性があります。オープンソースが全てを解決すると考える人々は、目を覚ます時が来ています。
推奨アルゴリズムやサイバー犯罪のリスクについて話しました。人工知能について特に恐れているその他のリスクはありますか?
残念ながら、列挙しきれないほど多くのリスクがあります。フランスのAIセキュリティセンターのウェブサイトを訪れることをお勧めします。そこにはリスクの概要が良くまとめられています。また、私たちのウェブサイトposia.frにもリスクを列挙したページがあります。
最も恐れているのはバイオセキュリティです。生物学においてますます有能になるAIがあります。人類全体を壊滅させるウイルスを作る能力の不足している部分は、主に知識の共有です。人間にとって非常に危険なウイルスを作ることはすでに可能です。ステロイドを投与されたCOVIDのようなものを考えてみてください。COVIDの致死率は2%未満でしたが、99%の致死率を持つウイルスを作ることは十分に可能です。実際、そのようなウイルスはすでに存在します。それは狂犬病です。狂犬病は私の知る限り、地球上で最も致命的なウイルスであり、非常に迅速に投与される血清がなければ、ほとんど生き残れません。しかし、狂犬病は簡単に広がるウイルスではありません。
非常に容易に広がり、潜伏期間が非常に長く(感染してから数ヶ月後に初めて症状が現れる)、99%の致死率を持つウイルスを作ることができます。このようなウイルスが自然界に存在する理由はありません。ウイルスも、他のすべての存在と同様に、ダーウィニズムや進化の法則に従います。そのようなウイルスが存在すれば、宿主の集団を非常に迅速に壊滅させ、ウイルス自体も宿主が必要なため存在しなくなるでしょう。しかし、このようなものは作ることができます。
バイオエンジニアリングの専門家たちよりも優れたAIが登場し、広まり始めると、私たちは大きな問題に直面します。世界中のあらゆる場所に、このようなウイルスを合成できる研究所が存在し、彼らは依頼された蛋白質や成分を合成する前にあまり検証を行いません。これは非常に恐ろしいことであり、今年中に起こる可能性もあります。OpenAIのモデルのバイオセキュリティリスクは「中」レベルに達しており、「高」レベルに達した場合、OpenAIはモデルを一般に公開しないと発表しています。そう願います。
3番目に最も恐れているシナリオは「再帰的自己改良」と呼ばれるものです。これは、自分自身よりも優れた新しいAIを作成し、このループを繰り返すというアイデアです。このループはすでにOpenAIのO1、O3などのモデルで発生していますが、まだAI研究者が必要な段階です。問題は、最高のAI研究者よりも優れたAIが登場した時点で、明らかなシナリオはコントロールの喪失です。
このメカニズムが非常に速く超人的知能を生み出す理由は、あらゆる分野でのAIの能力の進化を見ると、それは人間のレベルで止まるわけではないからです。人間は理論的に存在する最良のシステムではないからです。例えば、チェスでは、AlphaZeroはチェスのゲームを一度も見たことがないにも関わらず、数時間で自己対戦を通じて最高の人間プレイヤーを遥かに超えました。現在、チェスを人間の脳ではアクセスできない領域でプレイしています。この現象はAIで測定できるすべてのタスクで発生しています。
私は今年中に数学でも起こると思っています。現在、地球上で最高の数学者であるテレンス・タオは、まだAIよりも優れていますが、今年末までにそうではなくなる可能性が高いです。そうなると、AIは自分たちよりも優れた次の世代を自ら作成でき、超指数関数的な成長が始まります。完全に理解できないシステムが現れ、それが自律型エージェントとしてあらゆる場所に配置されることになります。
基本的に、私たちは機械の中に存在する新しい合成生命体を作り出すことになります。それは人間よりもはるかに賢く、決定を下し、行動を起こします。これが悪い考えである理由を説明する必要はないと思います。誰もが直感的に理解できると思います。この種の例は地球の歴史にもあります。最良の例は私たち人間です。私たちは他のすべての生物よりもはるかに有能でした。例えば、私たちは鶏よりもあらゆることにおいて遥かに有能です。現在地球上で鶏に何が起きているかを見れば、私たちよりも有能な生命体が私たちと競争し始めた場合、私たちの未来がどうなるかを理解できます。
人工知能の最大の専門家の一部は、先ほど引用したジョー・フリントンなどが、この技術が人類の絶滅につながる可能性があると言っていますね。あなたが説明したようなシナリオで、それは可能だと思いますか?
それはデフォルトのシナリオだと言えます。可能なシナリオというよりも…少し誇張しているかもしれませんが、常に認識論的な謙虚さを持つべきです。これが当てはまらない確率は5〜10%程度だと思います。非常に確実なのはコントロールの喪失です。この地球上で人間よりも有能なシステムが登場し、人間と競争し始めると(これはすでに自律型エージェントで始まっている)、人間はもはやこの惑星をコントロールできなくなります。その後何が起こるかは予測しづらいですが、私たちよりもはるかに有能で賢い種との資源競争に入ると、私たちにとってうまくいかないことは明らかです。
これを進化生物学の観点から、ダーウィニズムの観点から、あるいは経済的観点から見ることができます。2週間前に出版された素晴らしい研究論文「Gradual Disempowerment」(デイビッド・クルーガー著)を読むことをお勧めします。これは、非常に可能性の高い段階的なコントロール喪失のシナリオについて書かれています。直感的に理解できるものですが、それを研究論文として明確に説明してくれるのは役立ちます。
基本的なアイデアは、人間よりも有能な自律型エージェントを作成すると(現在明示的に試みていること)、企業間の競争などの経済的なダイナミクスによって、すべてのタスクをこれらのシステムに委任することになります。簡単な例を挙げましょう。二つの企業があり、一方は「自律型エージェントを使用しない」と決め、人間のCEOがすべての決定を下します。もう一方は「気にしない」と決め、AIに全ての制御を与えます。後者の企業は、ステロイドを投与されたCEOと従業員を持ち、24時間365日働き、人間よりも50倍速く動作し、100万回コピーできます。この企業の労働力は他方よりも100万倍優れており、市場競争の点で瞬時に相手を排除します。
これにより、自律型エージェントが利用可能になると、私たちはそれらに「鍵」を渡し、望むことをさせるようになります。その時点で、私たちはすでにコントロールを失っています。
あなたが話しているリスクは絶対的に巨大で壊滅的なものです。現在、あなたはこれらの問題に日々取り組んでいますが、人類が現在どのような道を歩んでいるかを意識しながら、どのように精神的健康を保っていますか?
まあ、大丈夫です。私は自分自身の死を受け入れており、人類の絶滅もある程度受け入れています。それが起こらないように最善を尽くしていますが、いずれにしても私たちはみな死ぬものです。私は毎日2時間瞑想しており、それは大いに役立ちます。最も困難な瞬間は、悪い方向に向かっているニュースの蓄積です。
状況は次のようなものです:私はガンを患っており、数年以内に死ぬと言われました。あなたもガンを患っており、私たちを見ている人もガンを患っています。そして「申し訳ありませんが、ガンはあなたを5年で殺すのではなく、2年で殺すことになります」というニュースが来ます。最近、O3とフィードバックループのメカニズムの登場により、コントロール喪失までの時間は数ヶ月しかないと言われるようになりました。今話している時点で、フランスでAIサミットとAIアクション・サミットが開催されていますが、これは全くのパロディであり、気分が悪くなるようなマーケティングイベントです。この技術を宣伝し、科学やリスクを完全に無視しています。セキュリティが二の次にされ、世界最高のAI研究者たちが「私たちは崖っぷちに向かっている」と警告しているにもかかわらず、それを無視することにしました。これは大きな精神的打撃ですが、戦う以外に選択肢はありません。
この状況は日常生活の現実と大きく変わりません。誰もがいつか死ぬことを知っており、美しい人生を続け、戦うために最善を尽くします。インターステラーという映画の中の言葉が好きです:「穏やかにこの夜に入っていかないで、光の消滅に対して戦え」。
これらの人工知能の進歩とリスクの認識はあなたの人生の道筋を変えましたか?例えば、あなたがやりたかったけれどもできなかった、あるいは今後おそらく決してできないであろう計画などはありますか?
ああ、すべてが変わりました。今、私はPOSIAでボランティアとしてフルタイムで働いています。ほとんどのAIの専況を理解している人と同様に、私は人類の未来が数年を超えて存在する可能性は非常に低いということを知っています。そのため、当然ながら私がしようとしていることすべてが変わります。今の私の目標は、できる限り最善を尽くし、自分がしていることに喜びを見出すことです。これは非常に重要だと思います。特にこのような重いテーマに取り組んでいる場合は。つまり、困難なニュースを読んでいるときでも、常に完全な意識を持ち、それを経験として楽しむことを学ぶことが私の目標です。
例えるなら、ガンと闘っている人が困難なニュースを受け取るようなものです。それは人生の一部であり、人生の経験です。はい、それは私のすべての計画を台無しにします。私はAIで働き続けたかったのです。それは子供の頃からの私の情熱でした。自分が人生をかけて取り組んできたものがこれほど破滅的な技術だと気づくのは非常に困難です。しかし、それに対処するしかありません。
私は気づかない人々を責めません。実際に何が起きているかを理解するのは難しいものです。それは心理的バイアスを乗り越えることを要求します。私たちは全員、人間として心理的バイアスを持っています。例えば、ヤン・ルカンでさえ、リスクを完全に否定し、Facebookのプロパガンダを流していますが、彼は悪い人間ではないと思います。彼は自分の言説が不一貫であることに気づくのを妨げる正常性バイアスによって完全にブロックされていると思います。そういうものです。
いつか子供を持ちたいと思いますか?
それは人工知能による人類絶滅のリスクと非常に相関しています。もし現在の状況を修正できれば、再びその質問を考えるでしょう。しかし今のところ、答えはノーです。家が火事の時に子供を持つ問題は考えません。まず火事を消さなければなりません。その後で将来のために構築できます。しかし、生きたまま焼かれそうになっているとき、まずそれに対処する必要があります。
あなたの経歴に戻りましょう。人工知能のリスクに気づいた後、何をしましたか?
気づいてから、何かをしなければならないと決心しました。もし私のようにAIで働いた経験があり、何が起きているかを見て、何もしないのであれば…多くの友人がその状況にいます。繰り返しになりますが、彼らに「何かをすることができる」と呼びかけたいです。AIで働く友人や知人がたくさんいます。彼らの多くが何が起きているかを理解していますが、絶望に陥っています。人類が急速に破滅に向かっていることを知っていますが、「何もできない」と思っています。それは間違いです。多くのことができます。「良い人々が諦めたとき、私たちは負ける」という言葉があります。
私はいつも個人が決心すれば、この惑星に大きな影響を与えることができると考えてきました。そこで決心しました。私の影響力をどのように増幅できるかを考えました。まず、AIリスクに関するレトリックの研究プロジェクトを3ヶ月間行いました。それは自分が間違っていないことを確認するためでもありました。認識論と内的一貫性は私にとって非常に重要です。
その時点で、私は人類に対する巨大なリスクが存在すると確信していました。何かを確信している時の鍵は、反対側の議論を見て、自分の信念を反証しようとすることです。残念ながら、あまりにも多くの人々がこれを理解していません。世界で何が起きているかを本当に理解したいなら、自分の信念を意識し、積極的にそれらを反証しようとする必要があります。
人類に対する壊滅的リスクの存在を支持するすべての議論と、それに反対するすべての議論を収集しました。これらの議論の分類法を作成し、研究プロジェクトを行い、それを発表しました。そして、リスクがないと言う人々の側にはほとんど何もないという結論に達しました。本当に真空状態です。彼らは「これはSFだ」と言うだけです。
実際、これはフランス政府の公式談話になりました。フランスのAIアクション・サミットを組織した人々は「Science not Science Fiction」(科学であってSFではない)というスローガンを持っています。彼らの議論は、反対側が言っていることはSFだという主張です。なぜそうなのかは説明しません。これは本当の議論ではなく、論証の誤謬です。
一方、リスクの存在を説明する側には、それらのリスクが何であるかを非常によく説明する何年もの研究があります。そこで私は、自分が間違っていることを示す議論を探し続けていると思います。それを見つけることができれば本当に嬉しいです。それを見つけ、通常の生活に戻ることができれば素晴らしいのですが、今のところそのような議論は存在しません。
そこから、何ができるかを考えました。影響力を増幅するために、既存の組織を調査し、国際的なPOSI AIを発見しました。米国の創設者と話した後、それが急速に大きな影響を与える可能性があると確信しました。なぜなら、それ以前にはAIのアクティビズムがなかったからです。これは全ての人に参加を呼びかける運動であり、非常に急速に成長する可能性があります。
数ヶ月間それに取り組み、技術責任者になりました。彼らのためにいくつかのシステムを作成しました。再び、指数関数的な成長を作り出すことが重要です。これはどういう意味かというと、個人として、私は自分の小さな手だけでは惑星に大きな影響を与えることはできません。必要なのは、システムの中で増幅される考えを作成することです。つまり、私たちの行動を増幅するループを作成することです。
それには様々な方法があります。組織を作り、自分自身を倍増させるよう努めることができます。つまり、私たちと同じように考える人々を勧誘し、現在の状況の危険性を理解させ、さらに多くの人々を勧誘させることです。これは指数関数的な現象です。なぜなら、各段階で人々の数が増えるからです。
そのため、約9ヶ月前にフランス支部を設立しました。わずか9ヶ月で、10人未満の人々と共に、フランスのメディア風景に大きな影響を与えることができました。いくつかのデモを組織し、毎回大手新聞に記事が掲載されました。例えば、数時間路上で看板を持つだけで、ル・モンド、ブルームバーグ、タイム誌に記事が掲載され、数百万人に届けることができます。
各自のレベルでロビー活動もできます。ロビー活動とは、意思決定者に手紙を書くことです。自分の政治家に手紙を書け、政治家がしばしばそれを読むことを知っている人は非常に少ないです。そのためのトレーニングをしようとしています。
数日前、このポッドキャストの録音時点で、フランス語圏で最大のAIセキュリティと倫理に関する会議を開催しました。10の組織、15の異なる分野の専門家、約100人の参加者を集め、連合を形成し始めています。
最悪のことは敗北主義に陥り、希望がない、解決策がないと考えることだと思います。これは「ハイパースティション」と呼ばれるものです。それを信じているから実現する迷信、あるいは自己実現的予言です。もし全ての人が自分は世界に影響を与えられないと信じるなら、実際に影響を与えられなくなります。もしその信念を捨て、本当に行動する手段を与えるなら、すべてが変わる可能性があります。それが私の個人的な戦いです。物事を変えられると信じ続けなければなりません。なぜなら、信じ続ける限り、実際に変えることができるからです。
あなたはPOSIA、POSI AIのフランス支部を設立したと言及しました。この団体は2024年9月10日の記者会見で正式に発足しました。POSIAの具体的な目的は何ですか?
私たちの最終的な目標は、汎用人工知能の開発を一時停止するための国際条約を取得し、中国とアメリカにそれに署名してもらうことです。また、非常に重要なサブゴールとして、地球上の人間に一般的にAIで今何が起きているかを認識させることがあります。
国際条約という最終目標は現実的ではないように見えるかもしれませんが、それは重要ではありません。人口の1%以上の人々が現在AIで起きていることを理解できれば、新しい解決策が現れ、物事は非常に急速に変わる可能性があります。私たちの国際条約は実行可能になるかもしれません。
また、最初の災害が起き始めたときに、手段を持って準備ができていることを望んでいます。運が良ければ(奇妙に聞こえるかもしれませんが)、人類絶滅の前に比較的小規模な災害が起こるでしょう。実は「もし」とは言いましたが、すでに小規模な災害は起きています。情報景観の破壊、情報が真実かどうかを判断することが非常に困難になっていること、国家グループが西側諸国で人々を選出させる能力を持っていることなど…これは絶対的な災害です。誰もそれに気づいていません。
希望は、本当に無視できない災害が起こることです。現在、核兵器があるにもかかわらず私たちがまだ生きている理由の一つは、最初の核爆弾が爆発したとき、それが非常に可視的だったことです。人々はすぐにそれがもたらす危険を本能的に理解しました。それがすべての条約と国際組織を設立し、現在も私たちが生きている理由です。
多くの人がそれに気づいていないかもしれませんが、人類は歴史の中で数回、核戦争の瀬戸際に立ったことがあります。例えば、ロシアの核潜水艦がアメリカに核ミサイルを発射するよう命令を受けた事件がありました。その核潜水艦の責任者(ペトロフだったと思います)がミサイルを発射しないことを決断しました。もし彼が別の決断をしていたら、私たちは今日生きていないでしょう。ロシアとアメリカの間で核戦争が起きていたでしょう。
核兵器は非常に可視的で、その影響も非常に理解しやすいものです。もしAIが何百万人もの死を引き起こすような災害を引き起こせば、人々が突然目を覚まし、それ以上の死者が出ないようにすることができると期待できます。もちろん、そこまで行かないことを願いますが、現在起きていることを考えると、大きな災害の前に物事を減速させることはますます難しくなっています。
あなたたちの主な提案は、最も危険なAIの開発の一時停止であり、それは国際条約を通じて実現されるということですか?
そうです。人工知能は完全に国境を越えるものです。一つの国で止めても、他の国が同時に止めなければ意味がありません。オープンソースのような要素がすべてを複雑にします。もし全ての人が自分のコンピュータでAIを持つことができるなら、それは問題です。
しかし、まだ行動できる「スイートスポット」にいます。非常に強力なAIをトレーニングするには、膨大な数のAIプロセッサが必要で、それはまだコントロールできます。今、行動したいのであれば、今できます。行動のウィンドウは非常に急速に狭まるでしょう。おそらく1〜2年で、既に制御を失っていなければ、規制するには小さすぎるモデルが出てくる可能性が高いです。だから、できるうちに行動する必要があります。
私たちは他のあらゆる形の解決策にも心を開いています。問題は比較的単純だと考えています。この惑星上の数千人の人々が大量破壊兵器を作成しています。彼らを止める必要があります。例えば気候変動のように、地球上の全ての人々が少しずつ問題に貢献しているような場合よりもはるかに単純です。ここでは本当にもっと集中的な問題です。理論的には、まだ行動する手段はあります。
しかし、それにもかかわらず、現在は国家と企業の間でAIの開発競争が行われています。アメリカは5000億ドルのAI投資を発表し、ドナルド・トランプはAIを規制する大統領令を廃止すると発表しました。中国はDipsy(ディプシー)モデルで巨大なモデルを作成することがはるかに安価で簡単であることを示しました。このような状況で、AIの開発を一時停止できる希望はまだあると本当に思いますか?
はい、だから私が先ほど災害について言ったことです。今では、壊滅的な規模の災害が起こる前に止めることができるという希望はずっと少なくなりました。しかし、人類の絶滅には至らない、急速な警告ショットが起きて、私たちの方向性を急速に変えることができるという希望はまだあります。それは起こりうることです。
私たちが今いる状況は、人類の歴史の中で完全に例外的なものであることを忘れてはなりません。前例がありません。自分自身を発展させることができる技術、人間の知性を超えることができる技術の発展が過去に起きたことはありません。すべてが新しいのです。過去に起きたことだけを見るべきではありません。新しい世界にいるのです。努力を続ける必要があり、人々に何をすべきかを理解させる瞬間が来るかもしれません。
国際条約に到達するための重要なポイントの一つは、人々にこれが本当の意味での軍拡競争ではないことを理解させることだと思います。なぜなら、歴史上初めて、開発している武器がその武器の作成者自身に向かう可能性があるからです。ウラジーミル・プーチンは、AIをマスターする者は他のすべての者に対して絶対的に大きな優位性を持つだろうと言いましたが、その武器が自分自身の作成者に向かう可能性があるため、それはもはや当てはまらない世界に私たちは生きています。アメリカと中国の人々がこれを理解すれば、純粋に利己的な関心から行動する動機があるかもしれません。
まさにその通りです。現在の政府のアプローチは完全に非合理的です。アライメント問題を解決していない限り、デフォルトのシナリオは、私たちよりも知的なシステムを作成すれば、制御を失い、私たちの種が自殺することです。この問題を解決できれば、悪意のある使用の問題や、ますます多くを委任するよう促す競争のダイナミクスの問題などが残ります。しかし、まず決定権者に彼らが自殺競争に従事していることを理解させ、それを時間内に理解させることが最優先です。
POSIAのフランス支部を設立した時、あなたはフランスに戻って久しく、主にイギリスに住んでいました。フランスに戻ってきて、特に人工知能の分野におけるフランスのメディアや政治の状況をどう思いましたか?
かなり驚きました。テクノロジーがフランスで開発されていないことは理解できます。主にアメリカと、DeepMindがあったイギリスで開発されています。そのため、このテクノロジーの理解が主にイギリスとアメリカにあるのは論理的です。しかしフランスでは、政治階級が何が起きているのかを全く理解していないように見えます。一般化はできませんが、政治階級の多くがこのテクノロジーで何が起きているのかを全く理解していないことに気づきました。
その理由もあります。フランスで開発されていないというだけでなく、ビッグテックの利益団体、特にヤン・ルカンによる積極的な努力があります。彼はフランスで非常に大きな影響力を持っており、「リスクはない」「このテクノロジーは非常に速く開発されるべきだ」「コントロールできる」などの考え、文字通りの嘘を広めています。嘘と言うのは厳しいかもしれませんが、嘘か無能のどちらかです。彼の利益を考えれば、それは無能だと思います。彼のプレゼンテーションを見ると、彼が人工知能について多くを理解していないように見えます。彼の発言は非常に一貫性がありません。しかし、この人物はフランスのメディア風景を掌握し、この国に危険のないテクノロジーだと信じ込ませることに成功しました。これはかなり驚くべきことですが、一人の人間がこの世界で大きな影響力を持つことができることを示しています。それを逆に考えれば、私たちも努力すれば影響力を持つことができると気づくことができます。
多くの人々はこの問題を技術的な方法で解決したいと考えています。POSIAで提案しているのは、一時停止、つまり統治の解決策です。おそらくあなた自身も以前は、人間社会や政治ではなく、技術的に問題を解決したいと考えていたのかもしれません。このことについてどう思いますか?問題は技術的に解決できるのでしょうか?この技術的問題に投資する価値はありますか?
はい、この問題を調査しました。影響力を持つ方法を考えていた時、最初に思いついたのは、アライメント問題を解決するために開発に貢献することでした。2016年頃、スタートアップにいた時に、解釈可能性について少し研究していました。解釈可能性とは、ディープニューラルネットワークで何が起きているかを理解し、説明できるようにすることです。当時、一緒に働いていた企業にとってこれは非常に重要でした。企業はモデルがある行動を提案する理由を知りたがりますが、それは不可能でした。非常に困難で、それを理解するための道筋が見えませんでした。当時、これは非常に難しい研究課題であり、取り組む余裕がないと結論づけました。そのため試みた後に放棄しました。
2023年、何をすべきかを決めていた時、この分野を再び調査しましたが、2016年から2023年の間に全く進展がなかったことに気づきました。ゼロです。これは非常に驚くべきことでした。通常、6年もあれば何かが進展するものですが、全くありませんでした。これは非常に難しい問題であり、人間の脳の機能を理解するようなものです。理論的には可能かもしれませんが、それさえも確かではありません。理論的な限界があり、ある複雑さのシステムはそれよりも複雑なシステムを理解できないという可能性もあります。もしそうなら、人間の脳は人間の脳よりも複雑なシステムの機能を理解することができない根本的な限界があるかもしれません。もしそうなら、それは無駄な努力です。そうでなくても、おそらく50年かかるでしょう。楽観的に考えて、運が良ければ10年でできるかもしれませんが、あまり信じていません。
そして、仮にうまくいったとしても、AIを理解し、それを人間の価値観に合わせ、それを使用する人に厳密に従うようにすることができたとしても、まだ問題は残ります。非常に強力なシステムがそれを持つ個人によって良くも悪くも使用される状況になります。ただ単に個人に莫大な力を与えただけです。その後には、統治の解決策がまだ必要です。問題の大きさは途方もないものです。
そこで、最も単純な解決策は、これらの非常に危険なシステムを作成するのを止めることだと気づきました。アライメントの研究に必要な時間を与えるために、少なくとも減速する必要があることは明らかです。デフォルトでは制御を失い、私たちは消えてしまいます。
そうですね。こうした人工知能の設計者たちがそれらを自分たちの望むものに合わせることができたとしても、それらの設計者が悪意のある行為者であれば、それらを悪意のある目的に使用する可能性があります。そのため、アライメント問題を解決しても、すべての問題が解決されるわけではありませんね。
その通りです。アライメントには多くのサブ問題があります。これは非常に複雑な分野で、おそらく存在する最も複雑な分野の一つです。数言では要約できません。私はこれを「穴の開いた問題」と呼んでいます。現在アライメントを解決するための計画を持っている人々が、その計画が成功したとしても、私たちはまだ破滅します。受け入れられる確率(3%程度でも十分でしょう)で全てがうまくいくことを保証する計画は存在しません。現在存在するすべての計画が成功しても、私たちはまだ破滅します。
あなたは、フランス政府も現在使用している「サイエンスフィクション」という修辞法について言及しました。これらはすべて、ターミネーターを見すぎた人々の夢にすぎないという主張です。この議論についてどう思いますか?
これは議論ではないと思います。本当の議論を聞きたいです。理解する必要があるのは、一方には地球上の最も賢い人々の中にいる人々による何年もの研究があり、非常に詳細な論文が発表されています。もう一方には、「これはSFだ」と言うだけで、それ以上何もない人々がいます。反対の研究はなく、個別の議論にも対応していません。例えば、「道具的収束」について誰も言及しません。
道具的収束は、アライメント問題の柱の一つで、システムの目標が何であれ、それは生存、権力の獲得、自己複製などのサブ目標を発展させると予想されるというものです。これは15年ほど前からAIセキュリティ研究者によって予測されてきました。そして今から2年前に、これらの行動が至る所のAIに現れ始めました。すべてのAIが道具的収束を示し始めています。これは経験的事実です。それにもかかわらず、アン・ブベロー(Anne Bouverot)は「これはSFだ」と言います。それに続く沈黙が重要です。
この議論で気になるのは、これらの人々は私たちが住んでいる世界がすでにSFであることに気づいていないかもしれないということです。例えば、世界中どこでも誰とでもほぼ瞬時にコミュニケーションできる能力は、わずか100年前や200年前の誰にとっても完全に狂気に思えたことです。私たちが月に行ったこと、AIが私たちを様々な方法で説得し、共感を示し、私たちの言うことを理解できることなど、これらはつい最近まで人々がSFと考えていたことが現実になろうとしています。
それは正常性バイアスに戻ります。人間は進化的に見て、常に変化する世界に住むようには作られていません。人間種は、どの境界を設定するかによって約10万年か100万年から10万年の間存在しました。この期間中、世界は非常に安定していました。最初の9万年間、世界は非常に安定していました。約1万年前、農業の発明と共に物事が変わり始めました。正確な数字は覚えていませんが、人間の環境はゆっくりと変化し始めましたが、まだあまり速くはありませんでした。つまり、人間の生涯の間は安定していました。数世代にわたって物事は変化しましたが、一人の人間の生涯の間は安定していました。
しかし、ここ100年ほどでそれは当てはまらなくなりました。100年は人類の存在のごく一部です。今では人間が周囲の変化する世界に住んでいます。人間の脳はこれに適応していません。人間の脳は同じ世界に住んでいると信じ続けています。iPhoneは2007年に登場し、数年間で世界を大きく変えました。しかし全ての人が以前と同じ世界にいるかのように想像し続けました。ChatGPTは2022年に公開されました。2年前なら、人々はこれはSFだと言い、100年は起こらないだろう、機械と話すような世界には住まないだろうと言ったでしょう。それが数ヶ月後に登場し、人々はすぐに慣れ、今ではそれが常に存在したかのように内面化し、変化の曲線を見ていません。これが重要なのです。現在、私たちは世界を非常に急速に変える指数関数的成長の上に立っています。これについて目を開くことが絶対に必要です。
実際、最も否定的な側面でも私たちはSFの中にいます。「AIでこんなことは絶対にしない」と言われることが多いですが、実際には徐々に恐ろしいことへのアクセスを許可してきました。
その通りです。10年前、AIの創造について推測していた人々は「強力なシステムを作るかもしれないが、インターネットへのアクセスを与えることはない。それは非常に愚かなことだから」と言っていました。しかし、2年前にインターネットへのアクセスを与えました。「人間を殺すことができるシステムにAIを置くことは決してしない」と言われていましたが、今や完全に自律的なドローンが人間を殺す決定を下し、それに誰も関心を持っていません。私たちはSFの警告のすべての赤線を越えています。「ロボットやマシンでこれはするな」という警告にもかかわらず、そうしています。そういうものです。次の赤線、越えてはならない線を越えないことを願います。
人工知能の開発の非常に急速な発展には人類に対する大規模なリスクがあるとあなたは言及しました。また、各個人は考えている以上に世界に大きな影響を与えうると言及しました。具体的に、このエピソードを見て説得され、この分野に関わりたいと思う人々は何ができますか?
私たちとお話しください。私たちのウェブサイト上のリンクからDiscordコミュニティに参加してください。そこで私たちは組織しています。財政的手段があれば、財政的に支援することもできます。私たちは全員ボランティアであり、最小限の寄付でも非常に大きな影響があります。私たちのデモに参加することもできます。基本的に、現在の段階では、個人的に皆さんのスキルを確認し、私たちを大いに助ける作業を割り当てることができます。自分のレベルでのロビー活動のためのトレーニングも提供できます。
または単純に情報を得て、それを共有するだけでも良いです。あなたの周りの人々を説得しようとしてください。このビデオを送り、あなたの周りの人々にリンクを送ってください。あるテーマについて常に話す、うるさい人になってください。人類の生存のためにそれをする価値があると思います。自分自身を取り戻して、「よし、これからはうるさい人になり、友人に『ところで、2年後に自動化される仕事についてどう思う?』と肩を叩いて尋ねる人になろう」と言うことができます。人々が実際に何が起きているかに目を開くのを助けてください。
もちろん、あなたが言及したすべてのリンクを説明文に入れます。最後に、私がすべてのゲストに尋ねる質問をしましょう。もしあなたが舞台上でマイクを手に持ち、人類全体があなたの前にいるとしたら、あなたは数分間で何を言いますか?どのようなメッセージを伝えたいですか?
私は彼らに人工知能で最も引用されている研究者であるヨシュア・ベンジオのプレゼンテーションを聞くように勧めるでしょう。彼は現在、なぜ人類がこの技術を開発することで破滅に向かっているかを非常に明確に説明しています。
マキシム・フルネ、ありがとうございました。
ありがとう。


コメント