2025年2月、サンフランシスコのイベント会場でSam Altmanが突如ステージ上で召喚状を手渡される衝撃的な事件が発生した。実行したのは「Stop AI」という組織で、彼らはASI(人工超知能)の開発永久禁止を求めて2024年4月から活動を続けている。OpenAI本社前での抗議活動や道路封鎖を繰り返し、逮捕も辞さない姿勢を貫く彼らは、AGI/ASIが人類絶滅の脅威となると訴え、法廷で「必要性の抗弁」を主張する予定である。一方でOpenAIは安全性よりも競争を優先しているとの批判が相次ぎ、元従業員や研究者からも懸念の声が上がっている。ノーベル賞受賞者を含む著名人たちも超知能開発の停止を求める公開書簡に署名し、AI反対運動は世界的な広がりを見せている。創造的分野での人間の仕事を奪い、著作権侵害や環境破壊を引き起こすとして、一般市民の間でもAIへの反感が高まっており、今後さらに大きな社会運動へと発展する可能性がある。

Sam Altmanがステージ上で召喚状を受け取る衝撃の瞬間
皆さんがこれから目にするのは、Sam Altmanがステージ上で召喚状を手渡そうとする人物に不意を突かれた瞬間です。これは本当にクレイジーな話なので、詳しく見ていきましょう。
今皆さんがステージ上で見ているのは、文字通りほんの数時間前に起きた出来事です。この事件は月曜日の夜に発生しました。そして映像が公開されたのはつい最近のことです。だからこそ、今みんながこの映像を見ることができるようになったのです。実際に何が言われているのか聞けるように、音声付きの映像を皆さんにお見せします。この瞬間がどれほどクレイジーなものか、よく分かるでしょう。Sam Altman自身も困惑した様子で、実際何が起きているのか理解できていないようです。当時は誰も理解できなかったと思います。
ああ、すみません。失礼します。どうぞ。ステージから降ろしてもらえますか?
わあ、もうドラマチックな始まりですね。さて、この動画は今バイラルになっています。もちろん、かなりドラマチックですからね。
先ほど言ったように、これはサンフランシスコのシドニー・ゴールドスタイン劇場で起きました。彼はステージ上でSteve KerrとモデレーターのManny Yukatelと会話をしていたのです。
この男性はイベントの早い段階でステージに歩いて上がり、書類を掲げながらSam Altmanへの召喚状を持っていると主張しているようでした。召喚状が何か分からない方のために説明すると、基本的にはあなたが法的に法廷に出廷しなければならないという書類です。
もちろん、まず実際に何が起きたのかをお話しします。モデレーターまたは司会者が介入し、そしてセキュリティが実際にこの男性をステージから連れ出すことに成功したのが分かります。これはかなりクレイジーだったと思います。なぜなら、このような状況に関して、私たちがどのレベルにいるのかを示しているからです。
ほとんどの人は、この人物が誰で実際に何が起きたのか理解していません。それこそが私がこれから掘り下げていく内容です。なぜなら、この状況は皆さんが思っているよりもはるかに大きく、AIに関する懸念の高まりを示しているからです。
Stop AI組織の使命と活動
では、実際に何が起きているのでしょうか? なぜこの男性はステージに上がってSamに召喚状を渡そうとしたのでしょうか?
基本的には、この団体によるものです。これは「Stop AI」と呼ばれる団体で、彼らの使命全体は基本的にASIまたはASIを永久に禁止することです。彼らは2024年4月からこの活動を続けています。そして彼らは基本的にそれを完全に停止させたいと考えているのです。
基本的に彼らが試みたのは、召喚状を使ってSam Altmanを法廷に出廷させ、証言をさせるか特定の書類を提出させる方法です。そして彼らは実際にこれが自分たちのやりたいことだと述べています。
ここに書かれているのは「私たちの公的弁護人はSam Altmanに召喚状を送ることに成功しました。彼は私たちの裁判に出廷することになります。私たちは複数の機会にOpenAIの正面玄関を非暴力で封鎖し、彼らのオフィス前の道路を封鎖したことで裁判にかけられます」
OpenAIに対する私たちの非暴力的な行動すべて、そして驚くべきことに、それらはOpenAIが地球上のすべての人とすべての生き物を殺害しようとする試みを遅らせるための試みでした。この裁判は人類史上初めて、普通の人々による陪審員がAIが人類にもたらす絶滅の脅威について問われる機会となります。
ほとんどの人はこの声明を見逃しています。ほとんどの人は単にSam Altmanが召喚状を受け取っている場面を見て、おそらく何か標準的なOpenAIの法的トラブルだろうと思ったでしょう。しかし違います。これは長い間、本当に本当に世間の注目を集めようとしてきた組織によるものなのです。そしてついに、彼らはその点で突破口を開きつつあるように見えます。
なぜなら、ほとんどの人が理解していないのは、これは企業ではありませんが、非常に長い間これを続けてきた組織だということです。皆さんが以前知らなかったとしても、彼らはあまり注目されていませんでした。しかし、彼らは実際にOpenAI本社でかなりの騒ぎを起こしてきたのです。
これは2024年10月23日のものです。Stop AIのバナーがそこにあり、彼らは基本的にOpenAIのゲートの周りに鎖を巻き付けました。彼らはそこに座って抗議していました。彼らは道路で車が前に進むのを阻止してきました。彼らは意識を高めるために多くのことをしてきたのです。
彼らはTwitterで回答しています。誰かが言いました「この裁判が人類史上初めて普通の人々の陪審員がAIが人類にもたらす絶滅の脅威について問われることになる、というところまでは賛成だった。君たちは何よりも自分たちの名を残そうとして、タイトルを追求しているように見える」
そして彼らは「私たちは名声や人気に興味はありません。私たちがやりたいのは、私たちが直面している脅威について人類に知らせることだけです。私たちは人工超知能の開発に対する永久的な世界的禁止を求めています」と答えました。そしてそれが達成されれば、私たちは喜んで無名の存在に戻ります。
これがこの組織の目標です。そして覚えておいてください、彼らは非常に長い間これに取り組んできました。非常に長い間と言いましたが、実際には約1年と数ヶ月です。しかしAIの世界では、それは非常に長い時間なのです。
そして先ほど言ったように、彼らは注目を集めようとしてきました。なぜなら、これは非常に、非常に差し迫った問題だからです。さて、私はいくつかの詳細を掘り下げて、彼らが実際に自分たちの立場をより詳しく説明するインタビューをしていたことに気づきました。
Sam Kchnerの覚悟と必要性の抗弁
基本的にここでの中心人物はSam Kchnerで、彼は何度も逮捕されてきました。おそらくそれらは単なる軽犯罪だったと思いますが、理解しなければならないのは、彼らは逮捕されるという些細なことや、たとえ刑務所に入ることになっても気にしていないということです。なぜなら、彼らは自分たちがしていることが大義のためだと信じているからです。
この短いインタビュークリップで、彼らはこの状況が自分たち自身よりも大きなものであると語っています。彼らは自分たちが注目に値する存在だとは思っていません。彼らはただAGI/ASIが実際に何をするのかについての認識を高めようとしているだけなのです。
もしこれらの軽犯罪の罪状が積み重なったら、何が起こりますか? 次のステップは何ですか? あなたは現在、裁判の日程が決まっていますね?
そうです。裁判の日程です。10月15日の午前9時と10月24日の午前9時に1つずつありました。
それでSam、最悪のシナリオで裁判の日に行った場合、1年の懲役の可能性はありますか? 1年未満でなければならないですよね? おそらく数週間、数ヶ月とか。最悪のシナリオは何ですか?
各犯罪について予備的な調査をしただけですが、1年以上になる可能性があると思います。でも私はここでの結果がどうなろうと本当に気にしていません。たとえ必要性の抗弁を主張することがうまくいかなくてもです。なぜなら、人々は今私たちがやっていることをしなければならないと思うからです。
私たちは非常に間もなくAGIを構築する可能性に直面しています。そしてそれを構築したら、あなたはコントロールを手放すことになります。その時点で、あなたは将来の絶滅を確実にするか、全員の仕事が奪われるかです。
つまり、私たちがやっていることをしない人々は墓に入ることになると思います。問題は、私たちは今これを止めなければならないということです。そして入り口を封鎖することがしなければならないことなら、それが私たちがすることです。たとえそれが私たちが負けることになっても、私は負けないことを願っていますし、必要性の抗弁に勝って、基本的にそれを続けることが許されることを願っています。
それが起こるかどうか、誰かが何かをしなければなりません。誰かが今何かをしなければなりません。
このクリップで彼が主張しているのは、基本的に、これが良いことか悪いことか、この問題がどう展開するかについて議論している時間はない、ということです。人々は今行動する必要があります。
彼は基本的にこう言っているのです。もし誰も何もしないなら、私たちが立ち上がって何かをするつもりだと。もちろん、この男性には裁判の日程があります。なぜなら、彼らが道路を封鎖し、OpenAIの本社を封鎖したのは何度もあったからです。
そして彼らが話しているのは、必要性の抗弁を主張することです。私は弁護士ではありませんが、それが何であるかを簡単に説明します。
必要性の抗弁は、状況の強制とも呼ばれます。そしてそれは基本的に、より大きな害が発生するのを防ぐために違法な行為が行われたと主張する法的原則です。それは極端な状況で適用されます。つまり、深刻な傷害などのより大きな悪を避けるために他に合理的な選択肢がなかったため、人が法律を破ることを余儀なくされた場合です。
このケースで彼らが試みているのは、こう言うことだと思います。私たちには彼らの本社に行って、バリケードを張るわけではありませんが、交通を止めて迷惑をかける以外に選択肢がありません。なぜなら、AGI/ASIはそれほど悪いものになるからです。彼らがこれに勝つかどうかは分かりません。私は弁護士ではありません。本当に言えませんが、それが彼らが法廷に行ってこれらの罪状に直面するときに勝とうとしていることの要点です。
彼らがこの立場で進んでいることは非常に興味深いと思いますが、この話はさらにどんどん面白くなっていくのが分かるでしょう。
なぜこの戦術を選んだのか
そして、もしあなたがAGIについての認識を高めようとしているなら、これを行うにはいくつかの方法があるのではないかと疑問に思っている方々のために、確かに10億通りの異なる方法があります。しかし、インタビューの後半で、彼らはなぜこの特定の方法を選んだのか、そしてなぜそれがより重要だと信じているのかについても語っています。
Romel Ellenが、なぜ彼らが注目を集めるためにこの特定の道を選んだのかについて語っている様子を見てみましょう。
AI従業員、私はさまざまな戦術のために、より多くのOpenAI従業員に働きかけたいと思っています。これがステップ1です。もう1つのステップは、これを通じて他の人々が参加するよう励ますことです。逮捕されない人もいるでしょう。逮捕される人もいます。逮捕されるハードコアな人々は、一種の例として機能します。私は人生で何かを犠牲にする覚悟があります。私はこれをするために逮捕される覚悟があります。
それで、ここで2つのことが起きています。1つはメディアがこれに注目することです。メディアはこれを共有し始め、「ちょっと待って、この人たちに何が起きているの?」と言い始めます。私たちにインタビューし始めます。私たちは自分たちの懸念についてもっと話し始めることができます。私たちはこれらのAI企業に何を制限してほしいか、政府に何をしてほしいか、これらのAI企業を制限するために他の市民グループとどう協力できるかという点で要求を設定し始めることができます。
もう1つは、そうです、Samは実際に裁判に行き、必要性の抗弁を主張できるということです。そしてそれは、私たちには理由があってこれをやっているんだと言う全体的な戦略の一部です。
Samが述べたように、私たちは1週間前にバックアッププランを持っていました。もしこれが実際に認識を高め始める方法ではないなら、私たちは古典的な市民的不服従の戦術を試してみようと言いました。つまり、道路を封鎖することです。そして私たちが迷惑をかけることになることを知っています。それは不人気になるでしょう。私たちはそれで迷惑をかける人々に申し訳なく思っています。
しかしリスクを考えると、関係する賭け金を考えると、私たちは本当にこれをもっと真剣に受け止める必要があります。そして私たちはそれを真剣に受け止めていることを示しており、人々がこれに注目し始めるようにしています。
そうですね、それは全体の要点を完璧にカプセル化しています。もちろん、それを聞くともっと意味が分かると思います。なぜなら、AGIの賭け金は確かに高いからです。
EA Globalイベントでの抗議活動
さて、私はさらに調査をして、先ほど言ったように、これが唯一の時ではなかったことを発見しました。彼らは2025年2月にオークランドで開催されたEA Globalイベントにも乗り込みました。この抗議活動、音声を今すぐ追加しますが、人類絶滅やその他の問題のリスクのために、人工超知能の開発を永久に禁止するという彼らのキャンペーンの一部でした。
問題のイベントは、正式にはEA Globalイベントと題され、2月21日から23日に開催されました。この会議はAIやその他の世界的な壊滅的リスクからのリスクに特に焦点を当てていました。これが彼らが長い間本当にやってきたことなのです。
このクリップで興味深いのは、そして私がそう言うのは、このクリップで彼らは実際にAnthropicについて話しているからです。これは大規模に人工知能を創造しているもう1つのフロンティアラボです。
今、最初に戻るので、皆さんは彼らが主張しているポイントを正確に見聞きできるでしょう。
この男性、Neil Buddy Shawは、私が愛するすべての人、そしてあなたが愛するすべての人の死に資金を提供しています。彼はAnthropicに資金を提供しています。AnthropicはASIとAGIを構築しようとしている主要企業の1つです。
あなた方の多くは、それが人類の絶滅につながる可能性があることを知っています。彼はこれに資金を提供しています。彼は私が愛する人々の死に資金を提供しています。この部屋にいる多くの方々はAI安全性コミュニティの一員です。あなたたちはAGIの開発を止めるために何かをする必要があります。
それには、AnthropicとOpenAI、そして汎用人工知能を構築しようとしている誰であれ、その入り口を封鎖する非暴力的な市民的不服従のために逮捕される必要があります。
それは許されることではありません。Geoffrey Hinton、AIでの研究でノーベル賞を受賞した男性は、人工超知能を構築することが人類の絶滅につながる可能性が50%あると言っています。それは許されません。私たち全員よりも賢い何かが永遠に安全であり続けるという証明を持つことはできません。それは不可能です。
超知能を構築しようとすることは、正当なビジネス慣行ではありません。AnthropicとOpenAIは存在すべきではありません。私はOpenAIの正面に自分を鎖でつなぎました。昨日OpenAIの正面ドアに自分たちを鎖でつないだ3人の友人が今刑務所にいます。
お願いです、もしあなたが超知能が人類の絶滅を引き起こす可能性があると思うなら、何かしてください。オンラインでおしゃべりするだけではいけません。何かしてください。
ここにいる人々に尋ねたいのですが、もしそれがあなたの絶滅を引き起こす可能性があると思うなら、あなたが愛する人々の死を防ぐために逮捕される覚悟がありますか? 挙手をお願いします。素晴らしい、立ち上がってください。もしあなたがそれらの人々の死を防ぎたいなら、今何かしてください。
そうでなければ、あなたたちは…
さて、少し、つまり、そこには少し罵倒がありましたが、彼はただこれが深刻な、深刻な問題であるというポイントを強調しようとしていたのだと思います。
AnthropicのAI安全性への取り組み
さて、個人的には、なぜ彼らがAnthropicに言及することを選んだのか、かなり困惑しました。確かに彼らは大手AIラボですが、理解しなければならないのは、今AI安全性に焦点を当てている企業があるとすれば、それがAnthropicがしていることだということを理解しなければならないということです。
タイム誌のこの記事では、Anthropicが基本的にAI安全性の面で針を本当に本当に前に進めていることについて語っています。
安全性は基本的に彼らの戦略であり、彼らは責任あるスケーリングポリシーを持っており、安全対策が追いつくまでより高度なAIのリリースを遅らせることを約束しています。これは2024年のようなことでした。
そしてこれについてクレイジーなのは、Anthropicのミッションステートメントを見ると、彼らのウェブサイトに載っているのですが、彼らは信頼性が高く、解釈可能で、制御可能なフロンティアAIシステムを構築することを目指していると述べています。
私たちはフロンティア研究を実施し、さまざまな安全技術を開発して適用し、一連のパートナーシップと製品を通じて結果として得られるシステムを展開します。
そして彼らはまた、安全性を体系的な科学として見ており、研究を実施し、それを製品に適用し、それらの洞察を研究にフィードバックし、その過程で学んだことを定期的に世界と共有していると言っています。
そしてそれは真実です。彼らは実際にこれを頻繁に行っています。多くの場合、Anthropicがモデルが内部でどのように機能するかを示す解釈可能性研究を投稿しているのを目にするでしょう。そして彼らは一貫してそのフロンティアを推し進めています。
Anthropicはいつも、たとえそれがAI競争に負けることを意味しても、AI安全性に焦点を当てると言ってきました。
ですから、私が彼らがAnthropicがXYZだと言っているのを聞いたとき、私はそれを本当に理解できませんでした。
OpenAIの安全性に関する懸念
さて、製品を早期にリリースする点でOpenAIが安全でないことについて話したいのなら、それは人々が100%喜んで聞く会話だと思います。なぜなら、OpenAIは何度も、AI安全性に十分に焦点を当てていない、または十分に迅速に焦点を当てていないことで批判されてきたからです。
つまり、安全性への明言されたコミットメントにもかかわらず、多くの批評家はその会社の行動がその目標に一致していないと主張してきました。彼らはそれに一致していないのです。
さて、OpenAIに関してなぜ彼のポイントが成り立つのかを示すために、いくつかの例をお見せします。OpenAIのプロセスに詳しい複数の人々によると、OpenAIは安全対策を縮小し、リスク評価により少ないリソースと時間を捧げ、同時に迅速に動こうとしました。
この記事を見てください。OpenAIは、それほど重要でなかった時により徹底的な安全テストを行っていたと述べています。FTレポートは彼らの情報源の1人を引用して、OpenAIがo3モデルをテストしていた時のことを述べています。
これはクレイジーです。これはOpenAIが言っていることです。これに加えて、OpenAIはまた2025年4月に、もしライバルが同等の安全対策なしに高リスクモデルを出荷した場合、OpenAIは遅れを取らないように自社の安全要件を調整または弱める可能性があると安全ポリシーを更新したと述べました。
これはBusiness Insiderからで、批評家はこれをOpenAIが競争圧力が高すぎる場合に安全基準を緩和する余地を自らに与えていると解釈しています。これはOpenAIがそれを行っているもう1つの例です。
繰り返しますが、皆さんのほとんどはこれを覚えていないでしょうが、私は覚えています。なぜなら私はそれについてビデオを作ったからです。超知能AIのリスクを軽減する責任を文字通り負っているOpenAIのチームは、メンバーのほぼ半分を失い、チームは解散したようなものです。
クレイジーなことに、AGIの安全性と準備に主に焦点を当てていた人々が、周縁化されて去っていったのです。彼らは実際に去ってAnthropicに行きました。OpenAIのほとんどのAI安全研究者は実際にAnthropicに行きました。Jan Leikeもその1人だったと思います。そして彼は文字通り、OpenAIが安全でないことについてTwitterに投稿していました。Twitter全体のスレッドがありました。かなりクレイジーでした。
それから内部告発者もいて、彼らは基本的に公開書簡を作成しました。元OpenAI従業員からの現在の書簡があり、彼らの習慣を批判し、会社が倫理的配慮や適切な安全対策よりも急速な成長を優先していると述べています。そして彼らは会社の意思決定プロセスにおける透明性の欠如を強調しています。これはかなりクレイジーです。
もちろん外部からは見えにくいですが、会社を去る人々がいて、この会社は必要なことをしていないと述べている人々がいて、それから元政策責任者が会社がAI安全の歴史を書き換えていると批判したとき、パターンに気づき始めなければなりません。
なぜなら、これは何度も何度も起きているからです。元OpenAI政策研究者のMiles Brundageは、OpenAIがAI安全哲学に関する新しい文書で歴史を書き換えているとして公然と批判しました。
理解しなければならないのは、私たちが進んでいるAI開発サイクルと、フロンティア、フロンティア、フロンティアと推し進めることについて、彼が指摘していることは、もちろん大きな懸念があるということです。なぜなら、OpenAIが安全に行動していないと出てきて言ったのは1人だけではないからです。
複数の異なる機会に、多くの異なるOpenAI従業員によって述べられてきました。
囚人のジレンマと中国との競争
さて、組織、会社ではなく組織は、この爆発と怒り、ステージに上がることなどに対応しました。これは興味深い質問でした。なぜなら、ほとんどの人はAI安全性を議論する際にこれを考慮しないからです。
この質問は囚人のジレンマで、選択肢1は協力することです。なぜなら、その人は基本的にこう言っているからです。中国があって、中国のAIを止めるつもりですか? なぜなら、もしアメリカのAIの開発を止めたら、私たちはただ遅くなり、中国がいずれにしても先に急いでいくからです。
そして彼らは言いました。私たちは人工超知能の開発に対する永久的な世界的禁止、キーワード、世界的禁止を求めています。誰もそれを構築すべきではありません。私たちは中国市民とスピーカーと喜んで協力します。
しかし囚人のジレンマは、両方の企業または両方の国が減速することをどのように確実にするかということです。なぜなら、もしあなたが国としてAI研究を遅らせることを決定し、もう一方の国がそうしなければ、あなたは彼らに膝を屈しなければならないとは言いませんが、彼らはあなたに対して途方もない優位性を持つことになる状況になるからです。それは単純な生の知性という点でのことで、それは他の国が彼らに持ってほしくないものです。
だから唯一の良い良いシナリオは、両方が協力する場合です。しかし今、私たちは最悪のシナリオにいます。それは両国がただ先を急いでいるということです。なぜなら、彼らは最初になりたいからです。そして彼らが最初であれば、彼らは巨大な優位性を得ます。そしてその巨大な優位性はおそらく永遠に続くでしょう。
もちろん、誰かが別の質問をしたのが分かります。それでは中国にそれを最初に開発させるつもりですか? そうしたら私たちはみんな終わりです。
米国はすべての主要な開発が行われている場所です。だから私たちはまずここでそれを止めなければなりません。ここでそれを止めたら、私たちは中国の人々がそれを止めるのを助けるために私たちの力でできることすべてをするつもりです。
つまり、それはかなりかなり難しいです。不可能ではないとは言いませんが、かなりかなり難しいです。
億万長者たちもAI安全を訴える
さて、これにも追加するのを忘れていたことを理解しなければなりません。これらの人々がAI安全性を求めている唯一の人々ではないということです。実際にAI安全性を求めている億万長者がいるのはクレイジーです。
さて、これについて近々ビデオを出します。AI安全性を求めている億万長者と億万長者、数百万ドルの富裕層についてのビデオです。今、その記事を掲載します。このビデオに追加するのを忘れていたので、急いで寄り道します。
しかし、ほんの数日前にもう1つの公開書簡がありました。時間がなくなってきています。新しい公開書簡が超知能AI開発の禁止を求めています。
クレイジーなのは、5人のノーベル賞受賞者、いわゆるAIのゴッドファーザーたち、Steve Wozniak、Steve Bannon、トランプ大統領の側近、Paolo Benanti、教皇の顧問など、深刻な人々のリストがいることです。これらの開発の停止を求めています。
公開コンセンサスは基本的に、それが安全に、制御可能に行われるという広範な科学的コンセンサスが必要であり、また強力な国民の賛同も必要だと述べています。
この書簡は、Future of Life Instituteによって調整され、公開されました。これは2023年に強力なAIシステムの開発を6ヶ月間一時停止することを求める公開書簡も発表した非営利団体です。
この書簡は広く流通したことを覚えておいてください。この書簡はその目標を達成しませんでした。
覚えておかなければならないのは、これは開発の停止を求めているAIに取り憑かれた人々だけではないということです。これは徐々に勢いを増している世界的な運動のようなものです。億万長者、数百万ドルの富裕層がこれを求めています。
彼らは2023年に始まりました。彼らはずっと前に6ヶ月の一時停止を求めました。約2週間前、1週間前の新しい公開書簡もまた出され、彼らは再び完全な減速を求めました。
そして今、もちろん、この組織が減速を求めて前進しています。クレイジーです。なぜなら、転換点が何になるのか疑問に思うからです。
一般市民の間で高まるAI反対の声
このすべてについてクレイジーなのは、個人的に私は彼らがますます多くの支持を得るだろうと信じているということです。もしあなたが人工知能を取り巻くソーシャルメディア上の感情に注意を払っていないなら、あなたはバブルの中にいるかもしれません。
そしてAI株式市場のバブルではなく、人々のAIに対する意見が実際にどうであるかのバブルです。AI領域の外のほとんどの人々は人工知能が好きではありません。なぜなら、それは彼らの最善の利益に役立たないからです。
私はこのいわゆるAIバブル、このようなビデオを見る種類の人々の中にいない人々と話しましたが、彼らは本当にAIを嫌っています。
そして理解しなければならないのは、Stop AIのような組織は時間の経過とともにフォロワーを獲得するだけだということです。なぜなら、ほとんどの人々はAIに本当に不満を持っているからです。
例えば、これがあります。このユーザーが言っているのを見ることができます。「私は情熱を持ってAIを嫌っています。それは規制されていない、考慮されていない人間の創意工夫を破壊する資源を吸い上げる、気候を破壊する、盗難マシンであり、短絡的で貪欲な個人によって推進されており、人々と地球よりも製品と利益を優先しています。
しかし、私はそれをもっと嫌うことができることが分かりました。このような投稿を見るたびに」彼らは大量の、大量の支持を得ています。人々はみんな同じことを言っています。
さて、人々がそれを嫌っているからといってAIが来ないという意味ではありません。私はただ、圧倒的な国民感情、もし圧倒的な国民感情が嫌悪の1つであるなら、おそらくいくつかの分野でAIは私たちが思うほど人気がないかもしれないと言っているだけです。
AIへの反発が示す具体的な問題点
そして最終的には、多くのユースケースを理解しなければならないと思います。もちろん、迅速に区別することが重要だと思います。なぜなら、AIを嫌っていると言っているほとんどの人々は、もちろん、ルートを最適化するアルゴリズムや、お気に入りの製品などを提供するアルゴリズムについて話しているわけではないからです。
彼らはもちろん、主に生成AIについて話しています。なぜなら、それは多くの異なるレベルで人間を置き換えているからです。
ここで誰かが言っているのを見ることができます。あなたがAIを嫌うのはそれがあなたを置き換えるからだ。実際には、私がAIを嫌うのは、それが盗まれたデータで構築されているからです。これはちょっと本当です。それは著作権法を破ります。ちょっと本当です。地球と黒人コミュニティを毒しています。ちょっと本当です。
私たちの電気代を上げ、情報を広め、人々を訴えています。つまり、これらのすべては本当です。そして私はこれらすべてのことについて研究してきました。
だから、人々がAIに対して持っている不満は本当です。それは本当です。人々がただ、AIはこれやあれで悪いと言っているだけではありません。正直に言って、AIに多く携わっている者として、彼らが主張するポイントの多くは、もし広範な研究をすれば、それは妥当だと分かるでしょう。これらのポイントは妥当です。
そして、AIが現時点で非常に普及しているので、基本的に今のところすべてのものに入っているので、それがどうなるか、企業が今後これをどのように管理していくのかを見るのは興味深いでしょう。
そして私たちが見続けているものの1つは、人々がAI安全性を求めており、人々がほとんどどの企業にもAIがあることに気づいたときにAIを嫌い始めているということです。企業がAI導入を続けるのかどうか。
ここで、Vogueの8月号がAIモデルの使用を始めたとあります。この人は言いました。AIよ、くそくらえ。私はそれが嫌いだ。どんな創造的分野のAIも、Google、これらの人々は大量の支持を得ています。
そして私はまた、どちらの会社も好きではありませんが、これはCoca-ColaがAI広告を生成したことで受け取る可能性のある最大の侮辱です。それが何を指しているのかよく分からない場合、Coca-Colaは基本的にクリスマスの広告をリリースしましたが、それは主にAIによって制作されました。その広告は非常に多くの反発を受けています。絶対にクレイジーです。
ですから、私が描こうとしている全体像を皆さんは理解できると思います。あなたには、AIはかなりかなり危険で、理論的には地球上のすべての人を殺す可能性があるという事実について認識を高めようとしている人々がいます。それは本当に本当の現実的なシナリオです。
つまり、AIのゴッドファーザーからのクリップがあるかもしれません。
AIのゴッドファーザーの警告
OpenAIは安全性を大いに重視して設立されました。その主な目的は汎用人工知能を開発し、それが安全であることを確実にすることでした。私の元学生の1人であるIlyaがチーフサイエンティストでした。
しかし時間が経つにつれて、Sam Altmanは安全性よりも利益にはるかに関心が薄いことが判明しました。そして私はそれが残念だと思います。
しかし理解しなければならないのは、これは私にとっては、時間の経過とともにますます勢いを増していく運動になるように見えるということです。第一に、あなたにはAIが自分たちを置き換え、多くの創造的分野を台無しにし、ほとんどの人が予見できない方法で経済を変えるので、AIを嫌う人々がいます。
そして反対側には、もしAGIが起こったら、本当の実存的リスクがあることに気づいている人々がいます。そしてSam Altman自身も実際にAGIは実存的リスクであると言い、彼は今日でもこの点に立っています。
だからクレイジーです。私はこれは本当にクレイジーだと思います。私はこれは本当に興味深いと思います。これについて皆さんがどう思うか教えてください。なぜなら、これは最も興味深い会話の1つだと思うからです。
個人が暴動を起こし始め、人々がAIを禁止したい、AIを一時停止したいと言い始めるようなケースがもっと多くあると思います。それはかなりクレイジーになると思います。でも皆さんがどう思うか教えてください。


コメント