この動画は、OpenAIの元取締役メンバーであるヘレン・トナーが、サム・アルトマン解任の真相について語った件と、それに対するOpenAI側の反論を分析している。さらに、AI安全性の議論が効果的利他主義(EA)という組織の影響下で歪められている可能性について論じており、真のAI規制と極端なAI終末論の違いを明確にしようとする内容である。
AI業界の大きなニュース
今日は大きなAIニュースがあります。OpenAIの元取締役メンバーが、サム・アルトマンの解任時に実際に何が起こったのかについて語り始めました。数日前にその件を取り上げましたが、彼女の名前はヘレン・トナーです。しかし今日は、OpenAI側の回答と、彼女の主張が真実かどうかについて重要な人物たちが意見を述べているのを見ることができます。それを見ていきましょう。
その前に、イライジャ・ユドコフスキーのこの30秒のクリップを聞いて、彼の言っていることに同意するかどうか教えてください。AIをどのように規制すべきだと彼が考えているかに同意しますか。今日聞くことについてどう感じるかは、彼の言っていることに同意するかどうかに大きく左右されるでしょう。
この種の研究開発を違法にすべきでしょうか。基本的に、私たちはすべてのGPUを追跡し、すべてのAI、すべてのAI訓練技術が、監視され、管理され、ライセンスされたデータセンターと同盟国でのみ最終的に使用されるよう国際的な取り決めを持つべきだと思います。そして、GPT-4よりも強力な訓練実行を許可しないようにすべきです。
その推論の全体は、規制がスーパーインテリジェンスからあなたを守ってくれるという理由ではありません。それは守ってくれないからです。それは、人々が後で考えを変えることを期待してのことです。おそらく、すべての人を殺すわけではない大きな災害の後に。スーパーインテリジェンスに対処するために電源を切るボタンを押すのではありません。スーパーインテリジェンスは、あなたが電源を切るボタンを押す必要があることをあなたに知らせません。あなたがすでに死んでいるまで。AGIは一度だけやってきます。チャンネル登録をお願いします。
ヘレン・トナーの暴露とその反響
ヘレン・トナーが、サム・アルトマンが解雇されたOpenAIの騒動の間に何が起こったのかについて詳細を明かしています。多くの人々がその状況を管理し、今後誰がOpenAIを運営していくのかを決定するために呼び込まれなければなりませんでした。
私にとって明らかなことの一つは、このコミュニティ、この件を追っている人々、あなたも私も含めて、実際に何が起こったのか、誰が悪いのか、誰が責められるべきなのか、誰が真実を語っているのか、誰が正直なのかについて非常に分かれているということです。
ヘレン・トナーのインタビューでの大きな爆弾発言は以下の通りでした。多くの人が引用している最大のものは、彼らがChatGPTについてTwitterで知ったという事実です。これは、彼女がChatGPTというAI技術の素晴らしい新しいブレークスルーについて暗闇に置かれていたことを指摘するために使った言葉でした。
また、彼女はサムには欺瞞的で混沌とした行動で解雇された歴史があると述べました。彼女の表現では、おそらく誰かの言葉を引用していたのかもしれませんが、彼はY Combinatorから解雇され、彼の最初のスタートアップであるLooptからも解雇されたと言っていました。
また、サムはOpenAIスタートアップファンドを所有していることを取締役会に知らせていなかったということも言及しました。
そのインタビューについてはすでに取り上げましたが、それ以降、実際に何が起こっていたのかについてさらに多くの暴露がありました。一部の人々は、これらの申し立てに対して反論する機会を得ました。
OpenAI取締役会の公式回答
残念ながら、これが部族的なものになりつつあることを私は知っています。赤チーム、青チームがあって、勝ってほしい人々を応援しているだけです。ここではそれが正しいアプローチなのかわかりません。お分かりになると思いますが、一見すると思われるよりもはるかに多くのグレーゾーンがここにはあります。
まず、現在のOpenAI取締役会がヘレン・トナーの主張に対して回答しています。彼らは言っています。「私たちは、OpenAIでの出来事に関してミス・トナーとミス・マコウが行った主張を受け入れません」。これらは、サム・アルトマンの解雇後に追放された2人の取締役メンバーでした。
彼らは言っています。「私たちが取った最初のステップは、アルトマン氏の強制辞任に至る出来事の外部レビューを委託することでした」。これは事実です。彼らは威信ある法律事務所と呼ばれるところを雇いました。これが起こったとき私たちは取り上げましたが、Wilmer Haleです。
彼らがレビューを主導しました。彼らは、ミス・トナーとミス・マコウを含むOpenAIの前取締役会メンバー、OpenAIの幹部、前取締役会の顧問、その他の関係証人との数十回のインタビューを実施しました。30万件以上の文書をレビューし、様々な企業行動を評価しました。
そこで、AI安全上の懸念がアルトマン氏の交代を必要としたという考えを拒否しました。その法律会社は、前取締役会の決定が製品の安全性やセキュリティ、開発のペース、OpenAIの財務、または投資家、顧客、ビジネスパートナーへの声明に関する懸念から生じたものではないことを発見しました。
彼らは言っています。「ミス・トナーがWilmer Hale主導のレビューによって徹底的に検証された問題を、前進するのではなく、再び取り上げ続けていることを残念に思います」。
ChatGPTリリースの真相
ミス・トナーは報道で主張を続けています。今では覚えるのが困難かもしれませんが、OpenAIは2022年11月にChatGPTを研究プロジェクトとしてリリースしました。会話設定でそのモデルがどれほど有用かについてより詳しく学ぶためでした。
それはGPT-3.5上に構築されました。これは既存のAIモデルで、その時点ですでに8ヶ月以上利用可能でした。これは理解すべき重要なことです。この技術は利用可能で、誰もがそれについて知っていました。
例えば、Jarvis AIと呼ばれていた会社があり、その後Jasper AIに名前を変更したと思いますが、基本的にSEO最適化された記事を書くためのもので、彼らは長い間GPT-3.5で動いていました。
OpenAIのYouTubeチャンネルを見ると、これは2年前でした。2021年8月10日で、2年以上前のようです。これはOpenAI Codexで、イリヤ・サツケヴァーとグレッグが発表しているものです。これはすでにチャットアプリケーションのような前後のやり取りに似ていましたが、これはコーディング用でした。これがCodexで、彼らは人々にAPIを使用し、自分たちのニーズに使用するよう参加を呼びかけていました。
ですから、リリースされた本当に新しいものは何もありませんでした。ChatGPTは小さなデモでした。誰もそれがあのように爆発的に広がるとは思っていませんでした。彼らは、取締役会にいるなら会社が何に取り組んでいるかを知っていることを願いますが、すでに存在する技術を取り、それをチャット形式でパッケージ化し、研究目的で公開しただけでした。そしてそれが爆発的に広がりました。
再び、それが史上最も急速に成長するアプリになるということを誰も予想できなかったと思います。それが起こることを予測することが可能だったと思いますか。イーロン・マスクが「怖いほど良い」と投稿したのを覚えています。それが私が最初に試してみるきっかけになったと思います。
彼女がChatGPTについてTwitterで知ったと言っているのは、それが何を意味するのか正確にはわかりません。彼女が会社で何が起こっているかに注意を払っていなかっただけかもしれません。なぜなら、再び、それらの技術の断片はすべて利用可能だったからです。それらは公衆に利用可能でした。プレイグラウンドがあり、APIがありました。変わったのはユーザーインターフェースだけで、そのユーザーインターフェースがみんなにクリックし、何が可能かについてみんなの目を開いたのです。
Y Combinator解雇説の真相
彼女はまた、サム・アルトマンが欺瞞的で混沌とした行動でY Combinatorから解雇されたと言いました。昨日、多くの新聞が、ポール・グラハムがY Combinatorからサム・アルトマンを解雇したという話で記事を載せました。
サム・アルトマンという若いテックの第一人者の指導者的存在だったグラハムが、イギリスからサンフランシスコまで飛んで、個人的に彼の弟子に解雇を言い渡すために来ました。
ワシントンポストには「アルトマンの偏極化する過去がOpenAI取締役会の解雇理由を示唆」とあります。同じことが書かれています。グラハムがイギリスからサンフランシスコまで飛んで彼の弟子に解雇を言い渡したと。
続ける前に、これらの新聞が言っていることに同意できますか。これらが与える印象について、もしあなたが誰かにそれを要約しなければならないとしたら、それは正確な要約でしょうか。そう思います。
ここに問題があります。ポール・グラハムが今日、実際に何が起こったかについてコメントしました。彼は言いました。「Y Combinatorがサムを解雇したと聞くのにうんざりしています。実際に何が起こったかを説明します」。
「数年間、彼はYCとOpenAI両方を運営していました。しかし、OpenAIが営利子会社を持つと発表し、サムがCEOになると発表したとき、私たち、特にジェシカは、もし彼がOpenAIでフルタイムで働くつもりなら、Y Combinatorを運営する他の誰かを見つけるべきだと彼に言いました。そして彼は同意しました」。
「もし彼がOpenAIの他のCEOを見つけてY Combinatorに100パーセント集中できるようにすると言ったなら、私たちはそれでも全く問題ありませんでした。私たちは彼に去ってほしくはありませんでした。ただ、どちらか一方を選んでほしかっただけです」。
コメントの一部の人々は、それが解雇だと言おうとしています。それは同じことだと。ポールは答えます。「いいえ、もし彼が留まってOpenAIを運営する他の誰かを見つけるなら私たちは喜んでいたでしょう。読めませんか」。
もしあなたが、問題が単に集中力の分散や潜在的な利益相反を望まないということで、「100パーセントここにいるか、100パーセントそこにいるかのどちらか」と言っているなら、そして彼らがあなたの会社を100パーセント運営することで問題ないという事実、それは解雇と同じではありません。それはワシントンポストが表現するような「解雇を言い渡す」のと同じではありません。それは何と表現しようと、ここで起こったことではありません。
ですから、再び、これはヘレン・トナーからのもう一つの嘘のように私には思えます。そして再び、みんながそれを信じました。
効果的利他主義運動の問題点
昨日取り上げたように、ここでの問題は、彼女が何らかの形で関係している組織の一部が、メンバーに対して具体的に「ここが私たちのトーキングポイントです、これが私たちが実際に信じていることです」と一方で言い、他方では「ここが普通の人々、私たちに同意しないかもしれない人々のためのトーキングポイントです」と言っていることです。
ネイサン・ランズの投稿によると、「ポール・グラハムは、サム・アルトマンがY Combinatorから解雇されたという話は真実ではないと言っています。サムについて悪いことを想定している多くのケースがあると思いますが、おそらく真実ではありません。私はサムに会ったことはありませんが、彼について人として素晴らしいことしか聞いたことがありません。ほとんどの人が、彼は今まで出会った中で最も真に親切で知的な人の一人だと言っています」。
これは、OpenAIで起こっていた多くのことの前から、サム・アルトマンについて良いことしか聞かなかったでしょう。
ちなみに、個人的に、これらの高い目標を追求する人々の一部が「良い人」ではないことに私は決して驚きません。これらの目標をそこまで必死に追求するためには、深いところで少しキラーでなければならないと思います。スティーブ・ジョブズを見てください。彼の伝記が出版され、彼がどんな人だったかを学び始めたとき、事前に噂はありましたが、彼はあまり良い人ではありませんでした。人々は常に彼を愛していたわけではありませんでした。
実際、彼と密接に働いた人々の一部は後で、彼との仕事は彼のやり方のために本当に嫌いだったと言いましたが、後で振り返ってみると、その間により強くプッシュされ、より多くを達成したと言いました。彼らは自分自身からより多くを引き出しました。彼が彼らをプッシュしたことで、アウトプットははるかに良く、はるかに高いレベルでした。
イーロン・マスクも同じです。彼について出版された最新の本は、特定のプロジェクトを押し通し、人々にプレッシャーをかけるために彼が入る「デーモンモード」についてこの怒りについて語っています。ビル・ゲイツは良い人でした。
私たちは、すべての困難に立ち向かってこれほど多くを達成するこれらの高い目標を追求する人々が、超素晴らしく良い人ではないときに常に驚きます。エレンのことを覚えていますか。彼女がスタッフに対して最高の人ではなかったかもしれないということが出てきたとき、人々はショックでした。でも彼女はとても上手に踊ります。いつも小さな幸せなダンスをします。どうして悪い人になれるでしょうか。
これらのどれも、必ずしもサム・アルトマンを擁護しているわけではありません。彼が聖人で、彼に反対する人は悪者だと言っているわけではありません。そして、あなたはサム・アルトマンを好きでなく、彼が物事を運営する方法に反対する自由があります。このビデオの目的は、あなたをそれから思いとどまらせることではありません。私が言っているのは、特に非常に具体的な動機を持っている人々によって言われたすべてを信じ込まないでくださいということです。もしあなたが実際に動機が何であるかを言うなら、人々を従わせるのが困難かもしれない動機です。
リック・バートンの証言
リック・バートンは、この人について私は馴染みがないので、話半分に聞いてください。しかし、彼はヘレン・トナーに反対して出てきて語った人です。「私はヘレン・トナーとコミュニティに住んでいました。彼女が何者かお話ししましょう。ヘレンは学術界が提供する最悪のものです。彼女は行動よりも意見が重要だと考えています。彼女が中国についてヨイショ記事を書いている間、サム・アルトマンは働いていました」。
「彼女はOpenAI取締役会に運良く入り、クーデターを起こしました。ヘレン・トナーは価値を破壊しました。彼女は価値のあるものを何も創造していません。彼女はオープンな議論に対してオープンではありません。そして今、彼女は死にかけている声を使ってサムを傷つけています」。
「ヘレンは最初の日から取締役会が何をするかを完全に誤解していました。それは四半期ごとの監督であり、CEOに対するチェック機能として機能することです。彼女はサムにフィードバックを与えることは決してありませんでした。彼女はただ彼を解雇しようとしただけでした。これは有能な取締役会がすることではありません。彼らは問題に取り組みます」。
再び、彼女がインタビューで語っているように、彼らはサムが解雇について聞いたら、もし何らかの形でそれを知ったら、彼は何らかの形でそれに対抗しようとするだろうと想定しました。そのため、彼らは意図的に彼が何の知識も持たないような方法でそれを設定しました。彼らは彼に警告しませんでした。彼らは彼と話しませんでした。私が知る限り、彼らは問題を解決しようとしたことは一度もありません。
また、再び、取締役会が四半期ごとの監督のためにあるなら、そうです、彼らはおそらく彼女にすべてのUI変更やアプリのすべてのリリースを報告していないでしょう。彼女はGPT-3.5やGPT-3について事前に知っていたはずです。なぜなら、ChatGPTのリリースの8から10ヶ月前にそれがそこにあったからです。これは再び、むしろUI変更でした。今は私たちにとって大きなことのように見えますが、技術はすべてそこにありました。ただ、公衆にリリースされたラッパーが誰もが期待できたよりもはるかに人気になっただけです。
EA運動の危険な思想
人々がEA(効果的利他主義)組織からの背景を持つ人々について心配している理由の一つは、もし彼らが何らかの形でそれにリンクしているなら、例えば、NISTの多くの人々がEA AI研究者の予想される任命に対して反乱を起こしました。
理由は、これらの組織が持っている信念の多くは、おそらくあなたと私が共有していない信念だからです。彼らが信じていることは、私たちが世界の集団的努力を制御しようとする能力を上回るAI超知能を構築するまで、数ヶ月または数年しかないということです。つまり、私たちは潜在的にAI超知能を持つまで数ヶ月しか離れていないということです。
それは何を意味するのでしょうか。イライジャ・ユドコフスキーによると、悪性AIを止めることが核武装国間の戦争を必要とするなら、それは支払う価値のある代価だということです。あなたはその考え方に同意しますか。
すべてのAIを無期限に一時停止し、すべての進歩を止め、誰もAIで研究や作業ができないようにすべてのGPUを制御しようとし、そして他の国が確実にそれをしていないかスパイし、もししているなら核戦争が彼らがAIで作業するのを阻止するための選択肢だということに同意しますか。あなたはその声明に同意しますか。
これはpolitico.comから読んでいるのですが、続けます。「AI黙示録の預言者は、テック業界のドルの雪崩によって押し上げられており、暗号資金の数十億ドルもそうです。その多くはオープン・フィランソロピーを通じて流れています。これは効果的利他主義の大きな資金提供者です」。
「これは壮大な浸透だ」と、ワシントンのバイオセキュリティ研究者の一人は言いました。そして、これらのEA運動のメンバーの多くは、通常白人で、典型的に男性で、しばしば恵まれた背景から来ています。多くの同僚と同様に、コーネルはEAをカルトと呼んでいます。
サム・バンクマン・フリードはそのカルトの一部だと言われています。彼は顧客から最大100億ドルを盗んだ罪で有罪判決を受けています。彼らは文字通り、自分たちが世界を救っていると信じています。それが彼らの使命です。これらの効果的利他主義者は、AI安全性について彼らが言っていることを本当に信じています。数ヶ月または数年以内に人類の絶滅を引き起こすという考えを、今すべての進歩を止めない限り。
そして、これがすべての問題です。私がより多くの人々に理解してほしいことは、彼らは自分たちをAI安全性の一部であると言及しているということです。彼らはその用語を乗っ取ってしまったのです。AI終末論者、AI黙示録、ターミネーター2、AIが私たちを全てペーパークリップに変えてしまうと言う代わりに、彼らはAI安全性と言います。
これは問題です。なぜなら、ワシントンの多くの長年のAIとバイオセキュリティ研究者が言うように、実存的でないAI懸念をバックアップするはるかに多くの証拠があるからです。ほとんどの人が実存的リスクがいつか現れる可能性を認めている一方で、彼らは言います。
これまでのところ、将来のAIがそのような破壊を引き起こすことを示唆する証拠はほとんどない。バイオテクノロジーと組み合わせたときでさえ。ここでのポイントは、街を行進するターミネーターロボットよりもはるかに差し迫った懸念があるということです。
はい、私たちはそれを認識する必要があります。はい、私たちはローグAIなどのリスクを無視していないことを確認する必要があります。しかし、AIが様々なソフトウェア、様々なビジネス、様々な政府組織に入ってくるにつれて、私たちには非常に差し迫った、非常に現実的な、それがどのように使用されるかについての懸念があります。
そして、これらの終末論的シナリオはその会話を腐敗させています。それらは私たちを実際に重要なことから遠ざけています。
自動車を規制しようとしていて、シートベルト、十分なライト、クランプルゾーンなど、自動車の安全機能のような自動車安全性を確保しようとしているが、実際に自動車安全性を自動車を永遠に廃止することと定義している他のグループがワシントンをゆっくりと乗っ取っていると想像してください。車は危険だからです。
普通の合理的な人々が車をより安全にしようとしている間、他の人々は「私たちも車をより安全にしたい」と言っていますが、彼らの目標は実際にはすべてを取り除くことです。なぜなら、いつか車が立ち上がってみんなを殺すという信念を持っているからです。おそらく、それらの人々に規制を作らせたくないでしょう。
真のAI安全性研究の軽視
デボラ・ラジの例があります。彼女はMozillaフェローでバークレーのAI研究者です。彼女の研究はAIがどのように疎外されたコミュニティに害を与えることができるかに焦点を当てていましたが、それはChatGPTのようなLLMが生物兵器の開発を後押しできることを示唆するオープン・フィランソロピー資金提供の研究者によって完全に影が薄くなりました。
そこで、ラジは言います。「オンラインで少し見れば、そのすべてのものをGoogleで見つけることができます。十分に努力すればLLMにそのものを反芻させることができるという事実について、それについて例外的なことは何もありません」。しかし、彼女の研究は置き去りにされています。なぜなら、彼女にはAI終末論シナリオを懸念している他の研究者が持っている資金がないからです。
EAが彼らのメッセージを国の首都の事実上すべてのコーナーに持ち込むにつれて、専門家はテック資金提供の洪水がワシントンの政策景観を再構築していると警告しています。多くの組織の研究者を、しばしばより確固たる経験的根拠を持つ他の問題を排除して、新技術によってもたらされる実存的リスクに焦点を当てるよう駆り立てています。
別の研究者が言うように、「私は自分をAI安全性と呼びたくありません。その言葉は今汚染されています」。彼らはシステム安全性、システムエンジニアのような異なる何かと自分を呼びたがっています。なぜなら、AI安全性と言うことは、今では彼らをこのカルトのような組織にリンクさせるかもしれないからです。再び、実際にはその背後にあまり多くの証拠を持たないことを懸念しています。
ちなみに、Anthropicの創設者たちは以前、自分たちをEAの一部だと考えていました。今では、彼らはその運動から距離を置こうとしているようです。
スティーブン・ピンカー、ハーバードの認知科学者は言います。「EAがアフリカで命を救うことから」—再び、それは彼らが始めたところです。世界のために、人類のために良いことをしようとし、貧困を減らし、苦痛を減らすなどです—「AIが私たちをペーパークリップに変える方法について悩む頭脳派にお金を払うことへの移行が、ミッション・ドリフトではなく餌と切り替えだったかもしれないことを読むのは動揺させられます」。
「EAのコアアイデアは依然として健全で、その慈善団体の一部は称賛に値します。私は運動がその方向性を取り戻すことを願っています」。
ヤン・ルカンが言うように、私が以前に指摘したように、「Aerisは一種の黙示録的カルトです。なぜその最も声高な支持者が、科学のために彼らが決別した超宗教的家族から来るのでしょうか」。
EA運動の本当の目標
これらのことを信じる人々の一部が、もし彼らがAIとの関連で私たちがどこに向かっているかを規制することを許可されたら、彼らの目標は我々のほとんどが話している常識的な規制を作ることではないということが大きな懸念です。
何を構築しているかについてのある種の可視性を持つこと、ある種の報告要件、安全限界、安全テスト、レッドチーム努力などを持つこと。彼らは常識的な規制を望んでいると言っていますが、彼らが密室で何を言っているのでしょうか。
ヤン・タルン、Future of Life Instituteの共同創設者で最大のエクスリスク億万長者の一人です。ここが規制介入の計画です。近い将来への彼の希望は以下の通りです。
「私は確実に政府、確実に政府が物事を違法にできると思います。ハードウェアを違法にできます。また、特定の能力レベル以上のグラフィックスカードの製造を違法にすることもできます。そうすれば、文明としてはるかに多くの滑走路を手に入れることができます」。
「データセンターでどのコードが実行されているかについて監視の領域に入ることになりますか。つまり、ソフトウェアを規制することははるかに困難です。もしより遅い続行を許可するなら、監視はますます浸透的でなければなりません」。
「そのため、近い将来の私の焦点は、ある種の規制介入と、立法者を教育し、世界をより安全にするためにロビイストを雇うことです」。
再び、彼らはこのために数十億ドルを持っていることを覚えておいてください。彼らはあなたと私が考える規制の方法について話しているのではありません。彼らはあらゆる種類の訓練実行の世界的禁止について話しています。
聞いてください。「AIフィールドの汚い秘密は、AIは構築されるのではなく、成長するということです。フロンティアモデルを構築する方法は、2ページのコードを取って、数万のグラフィックスカードに入れ、数ヶ月間動かし続けることです。そして、どんな生き物が出てくるか、この生き物で何ができるかを見るためにフードを開けます」。
「ですから、産業が物事を規制する能力、様々な責任制約などに対処する能力、それらは一度この生き物が飼いならされた後に起こることに適用されます。そして、それがファインチューニングと人間のフィードバックからの強化学習などがしていることです。そして製品化されます。そして、これらの問題にどう対処するかです」。
「しかし、訓練実行中にシステムが逃げ出すことをどう避けることができるか。これはこの種にとって完全に新しい問題であり、私たちは他のアプローチが必要です。それらの訓練許可を禁止するような」。
ヘレン・トナーの矛盾した発言
私が言及するのを忘れていた他のことは、ヘレン・トナーが、覚えているように、すべての従業員が手紙に署名し、OpenAIに留まりたい、サム・アルトマンと一緒にいたいというハートの絵文字をツイートした理由について、彼女の指導の下でOpenAIが破壊されることを恐れていたからだ、または彼女が試みていたことをした場合と言いました。
そして、インタビューの間に彼女は、それは真実ではない、それは決して破壊されることはなかった、それはテーブルの上にはなかったと言いました。しかし、問題は、全体のことが出てきている間、彼女が言っていたことはそれではないということです。彼女は会社の破壊は取締役会の使命と一致している可能性があると言っていました。
彼女はAnthropicにOpenAIを吸収させるか、それを破壊することを試みていました。それはおそらく再び多くの価値を破壊し、これらの人々の多くの努力、彼らがビジネスに持っている資産を破壊するでしょう。
また、覚えているなら、OpenAI研究者がOpenAIから情報を漏洩させたことで解雇されたとき、少なくともその中の一人はその効果的利他主義運動とのつながりを持っていました。
結論:バランスの取れた視点を
その乱暴な話について謝罪します。前にもいくつかの内容を取り上げたことは知っていますが、これが議論されているのを見て、この分野の他の人々、AIについて話している他のYouTuberが、多くの人が彼女の言っていることを額面通りに受け取っているように見えたことに、私は個人的に少し懸念を感じました。
再び、もし彼女が何かの証拠を持っているなら、私たちが見て「OK、これは正しかったようだ」と言えるような具体的なことがあるなら、私は喜んで聞きます。これまでのところ、サム・アルトマンを悪い光で描こうとする試みのように見えます。
再び、それは構いません。私はサムを擁護するためにここにいるわけではありません。あなたは彼を好きでないかもしれません。他の誰かがAIで成功することを好むかもしれません。イーロン・マスクやGoogleやAnthropicかもしれません。私たち自身を含む多くの人が、オープンソースを信じています。オープンソースAIは重要な技術だと思います。
明らかにいくつかのリスクも伴いますが、多くの利点もあります。例えば、サイバーセキュリティ技術の一部をオープンソース化することや、少なくとも人々が集まって彼らがサイバーセキュリティについて学んだことを共有することは、みんながより安全になることを助けます。
すべての会社が自分たちだけが知っていることを保持していたら、彼らが知識を自分たちだけに保持しているため、みんながより露出し、より脆弱になるでしょう。オープンソースでは、みんなが知識に貢献でき、潜在的に脆弱性やそのようなものを防ぐのを助けることができます。
しかし、理解することが重要なのは、これらの会社のどれに対するあなたの見解が何であれ、あなたが聞いている声の一部は、すべてを閉鎖したい少数派の人々から来ているということです。何らかのグローバル監視、GPU上での監視、私たちのチップがどれほど高度になれるかを制限し、無期限に一時停止ボタンを押すことを望んでいます。
そして、あなたが見たように、他の国々に核兵器で立ち向かうことさえ潜在的にしています。2つの核大国がAIの開発を防ぐために決闘することです。あなたにとって、それは少し狂気に聞こえませんか。
私たちは、持っている核兵器で地球を何十回も破壊できることを知っています。いくつかの悪い決定で、みんながいなくなります。しかし、彼らはAIが開発されないことを確実にするために、そのコインを投げることを厭わないのです。これは非常に合理的な視点ではないと思います。これは非常にカルト的です。
これはビタリック・ブテリンのブログからです。彼はこれらの目的のいくつかに10億ドル近くを貢献しました。彼はイーサリアムの背後の人物です。非常に裕福になり、ドージコインかドギーコインかを買い、それが非常にうまくいき、急上昇したとき、彼はこれらの人々に10億ドルを投げることにしました。
しかし、彼の書いたことと、彼がこれに対処したことに基づいて、彼が必ずしも彼らと一致しているとは思いません。彼はAI終末論者の考え方の一部ではないと思います。ここで彼は彼が見る世界を説明し、最初の画像では反技術的な見解があります。
前進すれば、未来は暗く、怖く、悪いものです。技術の進歩は悪く、安全性は私たちの後ろにあります。そのため、ディストピアが前にあり、安全性が後ろにあります。私たちは進歩を止める必要があります。技術、AIなどを元に戻す必要があります。
そして、加速主義者の見解があります。危険が後ろにあり、ユートピアが前にあります。技術の進歩が世界、人類などを改善するのに役立つという考えです。そして、私たちがしなければ、後ろに危険があります。
私は、EAが明らかにこの種の反技術的な見解、または少なくとも反AIを採用していると思います。もちろん、加速主義者もいて、フルスピードで行こうと言っています。
彼の見解では、後ろに危険があるので進歩しなければならないが、前には複数の道がある、いくつかは良く、いくつかは悪いと、より説明しています。私はそれが非常に合理的だと思います。
そうは言っても、私の全体のポイントは、これを単にOpenAIが良いか悪いか、サム・アルトマンが良いか悪いか、AI安全性を持つべきかという立場からアプローチしないでくださいということです。
ほとんどの人がAIは安全に展開されるべきだということに同意すると思います。起こりうる多くの異なる悪いことがあります。私たちは開発中にそれにアプローチする方法について非常に注意深くある必要があります。
核爆弾の開発中、誰かが爆発が大気全体の連鎖反応を引き起こし、基本的に大気全体が火になる可能性があることを示唆しました。全世界にとって燃える死です。そして、それはその潜在的なエクス・リスクの調査を引き起こしました。
その特定の分野で実地知識を持ち、その特定の分野で教育と訓練を受けた、何について話しているかを知っている賢い人々がその質問を調べ、何が起こる可能性があるかを論理的に調べ、解決策を思いついたのです。それがそうあるべき方法です。
私たちは新しい車、新薬、新しい電子機器、新しい子供のおもちゃを展開するときに同じことをします。それらを減らす方法について法律と規制があります。それは非常に合理的です。ここでそれに反対している人は誰もいません。
しかし、もしAI開発している場合、他の国々を地球の表面から核攻撃で消し去らなければならないと確信している人々がいるなら、すべてのハードウェア、すべてのGPU、すべてのソフトウェアを監視して訓練実行を禁止し、グローバル監視システムを作ることを思っていて、そのすべてが起こることを確実にするために、世界を統治し規制させたくないことに私と同意してくれることを願います。それはそんなに狂気ではありません。あなたがそれに同意してくれることを願います。
そうは言っても、私の名前はウェス・ロスです。ご視聴ありがとうございました。


コメント