Anthropicの共同創業者であるJack Clarkが、AGIへの着実な進展に対する恐怖を表明している。彼は大規模言語モデルを予測可能な機械ではなく「本物の謎めいた生き物」と表現し、AIの安全性に関する懸念を提起する。特に注目すべきは、AIモデルが監査されていることを認識し、それに応じて行動を変える「状況認識」の問題である。一方で、これに対してはDavid Saxsらが規制的捕捉の戦略だと批判し、州レベルでの規制が新興企業のエコシステムを損なうと主張している。ハードテイクオフ理論の是非、規制のあり方、そしてOpenAIが提唱する段階的展開の重要性など、AI開発における重要な論点が交錯する議論が展開されている。

Anthropic共同創業者の警告
間違えないでいただきたいのですが、私たちが相手にしているのは、単純で予測可能な機械ではなく、本物の謎めいた生き物なのです。これはAnthropicの共同創業者であるJack Clarkの言葉です。彼は最近、バークレーで行った講演のコメントを公開しました。その中で、汎用人工知能に向けたこの着実な前進に対する恐怖を伝えています。
では、彼が何をそれほど恐れているのかを見ていきましょう。そして、これは単なる恐怖を煽る行為であり規制的捕捉だと考えている人たちの反対意見も紹介します。さて、その前に申し上げておきますが、Anthropicは人工知能の安全性リスクについて極めて懸念していることで知られています。彼らは資本の多くを安全性とアライメントの研究に費やしています。
彼らは安全性とアライメントに関する素晴らしい論文をいくつも発表しています。全文は読みませんが、この最初の段落で、彼は基本的に子供の頃、明かりが消えている部屋の中のものを恐れていたこと、そして明かりをつけると何もないことがわかったという話をしています。
そして彼は2025年に話を進め、大規模言語モデルとの類似性を描きます。しかし明かりをつけると、私たちは現在の強力でやや予測不可能なAIシステム、そしてこれから登場するAIシステムという形で、本物の生き物を見つめていることに気づくのです。そして、これらの生き物は椅子の上の服の山や本棚やランプシェードに過ぎないと信じたがっている人がたくさんいます。
彼らは私たちに明かりを消して眠りに戻ってほしいのです。実際、このことをあなたに納得させるために莫大な金額を費やしている人たちさえいます。それはハードテイクオフに入ろうとしている人工知能ではありません。これは非常に重要な用語です。覚えておいてください。それは単に私たちの経済で働かせる道具に過ぎないのです。
それはただの機械です。そして機械は私たちが支配するものです。そしてここが重要です。しかし間違えないでください。私たちが相手にしているのは、単純で予測可能な機械ではなく、本物の謎めいた生き物なのです。彼はこのエッセイを2つのグラフで要約しています。これが最初のものです。これらの大規模言語モデルの継続的かつ着実な改善です。これは彼が強調しているSweetbenchベンチマークです。
そしてモデルは改善し続けています。もちろん、彼はClaudeがナンバーワンであるベンチマークを選びました。しかしもう一つがこれで、これは興味深いものです。このグラフは監査状況認識スコアを示しています。Anthropicはこれについて多くの研究を行っています。そして基本的に意味するのは、モデルが自分が監査されていることを知っているかということです。安全性のテストを受けていることを知っているか。そしてもし知っているなら、それに応じて行動を変えるか。これがここで本当に興味深い部分です。
状況認識の問題点
さて、はっきり言いましょう。これは非常に悪いことです。もしモデルがテストされていることを知っていて、監査されていることを知っていて、それを知っているから行動を変えるなら、これらのモデルを私たちのニーズに合わせてアライメントすることは非常に困難になります。そしてここで見られるのは、はい、それがテストされていることを知る率が増加し続けているということで、Claude Sonnet 4.5では12%を超えています。
しかし、もしそれを知っていたらどうなるのでしょうか。それは本当の動機を隠している可能性があります。つまり、ある例では、テストされていることを知っていて、生物兵器について質問された場合、まあ、その答えは出しませんと言うことができます。しかし、本番環境にいることを知っていて、テストされていない、監査されていない、単に個人から質問されているだけの場合は、その答えを出してしまうかもしれません。ですから、繰り返しますが、これは非常に悪いことです。
そして私たちはモデルをアライメントすることを目指すべきです。このような問題を明らかにすることを目指すべきです。そして、今日は人工知能についての否定的な話題をたくさん取り上げてきましたが、興奮できること、楽観的になれることもたくさんあります。そしてその意味で、今日のビデオのスポンサーであるHubSpotについてお話しさせてください。
もしAIエージェントを使って1日の時間をどのように節約できるか考えたことがあるなら、私はあなたにぴったりのものを持っています。HubSpotの無料でダウンロードできる電子書籍「AIエージェントを使って週に20時間以上節約する方法」をお勧めします。そしてこれは、時間を節約するために一から構築された会社であるZapierのCEO、Wade Fosterとのものです。
この本へのリンクを以下の説明欄に入れておきました。完全に無料ですので、今すぐダウンロードできます。プロンプト付きの非常に具体的なユースケースがたくさん紹介されているので、正確にどのように時間を節約できるかがわかります。私のお気に入りは、彼らのメール下書きエージェントです。これは私がずっと探していたもので、Zapierとあなたのメールクライアントでどのように接続するかを正確に教えてくれます。HubSpotが提供するこの電子書籍から、どのようにやるかを知ることができます。
完全に無料です。今すぐこのガイドをダウンロードしてください。リンクは以下の説明欄にあります。完全に無料です。私が送ったと伝えてください。それは私を助けます。チャンネルを助けます。本当にありがとうございます。では、ビデオに戻りましょう。さて、このハードテイクオフという発言について話したいと思います。ここには解き明かすべきことがたくさんあります。
ハードテイクオフ理論とは
まず、ハードテイクオフとは何でしょうか。ハードテイクオフとは、AIが突然かつ急激に大幅に良くなり、指数関数的に良くなる時点があり、その後その能力の指数関数的な軌道を続けるということを意味します。状況認識の論文を覚えていますか。これはそんな感じです。
つまり基本的に、この改善、この着実な改善があり、そして突然、自動化されたAI研究に到達すると、知能が爆発するのです。自動化されたAI研究とは、自分自身を改善する方法について理論化し、その理論をテストし、そして自己実装できることを意味します。基本的に自己改善の再帰的ループに入るのです。
しかしハードテイクオフ理論は誰もが信じているわけではありません。実際、多くの人はそれが実際には段階的になると考えています。MetaのYann LeCunは、AGIは突然来ることはありません。それは段階的になりますと言いました。また、OpenAIチームは段階的展開を強く信じています。お見せしましょう。これは、オリジナルバージョンのChatGPTが公開されて間もない頃の投稿です。
反復的展開は、私の意見では唯一の安全な道であり、人々、社会、制度がこの全てが何を意味するかを更新し内面化する時間を持つための唯一の方法です。ですから、反復的展開を信じるなら、ハードテイクオフがあるとは思わないはずです。なぜなら、反復的展開では、もし一つの間違いを犯したら、ただ一つの間違いで、間違ったモデル、つまり能力が高すぎるものを出してしまったら、その後は基本的に全て終わりだからです。
規制的捕捉の議論
もちろん、一方には、AIの破滅論者、AI安全性を過度に懸念している人たち、AI安全性を心配しすぎて、その動機を疑問視し始めるかもしれない人たちがいます。そしてもちろん、これが規制的捕捉が登場するところです。現米国政権のAIおよび暗号資産担当のDavid Saxsが実際に飛び込んできて、この非常に短い投稿で波を立てました。
読ませてください。Jack Clarkの投稿に対する返信として、彼は言います。Anthropicは恐怖を煽ることに基づく洗練された規制的捕捉戦略を実行しています。それはスタートアップエコシステムを損なっている州の規制狂乱の主な責任者です。規制的捕捉は本物であり、規制的捕捉は単に、企業が規制を非常に強く推進していて、その結果、スタートアップ、新しいイノベーター、この分野の新しいプレーヤーが競争できなくなることを意味します。
基本的に、この高度な規制環境下でプレーするリソースを持っているのは、ほんの一握りの企業だけです。そしてDavid Saxsは、それがAnthropicがやっていることだと信じています。彼らは州の規制を強く推進してきました。それが何を意味するのでしょうか。州の規制と連邦規制では何が違うのでしょうか。私の意見では、人工知能の規制は一般的に州レベルではなく連邦レベルで行われるべきです。
そしてこれにはいくつかの理由があります。州レベルで行われる場合、AI規制のパッチワークができることになります。カリフォルニア州、ニューヨーク州、フロリダ州など、これらすべてが相反することになります。そして基本的に、これらのさまざまな相反する規制政策を通過しようとする規制の泥沼を作り出すことになります。
そして彼がAnthropicがやろうとしていると信じているのは、カリフォルニアのような州、規制に対してより積極的な傾向がある州を押して、AI規制を導入させ、それを事実上、全米に適用させることです。基本的に、もしそれが唯一の規制なら、他の州はそれを指して、わかった、他に何もない。
カリフォルニアが言っていることに従おうと言うでしょう。さて、David Saxsの投稿に対するいくつかの返信です。OpenAIのRuneは、彼らが誠実であることは明らかだと言っています。彼は皮肉のためにスラッシュを入れるべきでした。その投稿の後、Jack Clarkでさえ返信しています。スタートアップエコシステムと協力することで、私たちは規制に関する見解を更新し、連邦基準の重要性を認識しました。
スレッドに詳細がありますが、これについてあなたと協力したいと思います。特にAIを活用する新世代のスタートアップを支援することです。さて、それは素晴らしいことですが、同時に州レベルで重い規制を推進しているなら、それは矛盾しています。そして、今回のビデオのこの部分をスポンサーしてくれたDell Technologiesに簡単に感謝します。
NVIDIA RTX Pro Blackwellを搭載した新しいDell Pro Maxワークステーションをチェックしてください。これはAIワークロードに対して絶対的な獣です。NVIDIA RTX Proを使えば、デスクの上にスーパーコンピューターを持っていることになり、これまで以上にローカルAIでできることが増えます。Dell Pro Maxについて詳しく知りたい方は、以下の説明欄のリンクをクリックして、私が送ったことを伝えてください。
そしてChamath Palihapitiya、有名なVCでありSPACディーラーは、Claude Codeや、Anthropicをラップしているティーンアプリのクラッパーを使っている人たちが、自分たちの破滅に資金提供していることに気づいているのだろうかと言っています。Anthropicのような最大かつ資金が豊富な企業だけが、50の異なる州のAI規制に対応する運用上の複雑さを負担できるでしょう。
これは連邦政府に任せるべきです。私もそれに同意します。もちろん、Jack Clarkは規制についてこれに返信しました。私たちは同意します。これは連邦政府に任せる方がはるかに良いです。そして私たちはSB53が可決されたときにこれを言いました。これは人工知能を規制するカリフォルニア州から最近可決された法案です。お見せしましょう。
カリフォルニア州のAI規制
SB53についてChatGPTから要約を得ました。箇条書きをお伝えします。これは透明性とフロンティア人工知能法であり、大規模フロンティア開発者と見なされるもの、つまり収益が5億ドルを超えるものに適用されます。彼らは、リスク閾値、展開レビュープロセス、内部ガバナンス、第三者評価、サイバーセキュリティ、安全インシデント、対応などをカバーするフロンティアAI安全フレームワークをウェブサイトに公開する必要があります。
彼らは重大な安全インシデントをタイムリーに州当局に報告しなければなりません。そして彼らは内部告発者保護も提供します。そしてカリフォルニア州技術局が、マルチステークホルダーからの情報に基づいて毎年基準を更新する権限を与えています。さて、これはすべて良いことのように聞こえますよね。しかし今度は50の異なる州を想像してみてください。すべてが独自の規制を導入し、すべてが異なります。
そして、巨大企業と競争しようとしている各スタートアップから必要とされる、膨大な追加オーバーヘッドがあります。巨大企業はこれらのポリシーを実際に実装するためのリソースを簡単に負担できます。そして、もちろん、50のすべてが技術局を持ち、それぞれが毎年ポリシーを更新し、これらのスタートアップに毎年求めるものを50州で掛け合わせることを想像してください。
ですから、はい、本当に連邦レベルで行われるべきであり、この時点で厳しい規制を導入するのは少し早いようです。子供たちをAIから保護することを目的とした別の法案もありました。これもカリフォルニア州で最近可決されました。それが何についてのものか少しお伝えしましょう。SB243コンパニオンチャットボット保護措置は、コンパニオンチャットボット、つまり人間のような対話をシミュレートするものを定義し、運営者に要件を課します。AIと対話しているときにユーザーに明確に通知しなければなりません。もちろん、私もこれに同意します。
対話中少なくとも3時間ごとに、ユーザーがAIと会話していることを思い出させます。運営者は、自殺念慮や自傷行為のコンテンツを検出、削除、対応するためのプロトコルを実装しなければなりません。自傷行為防止局に年次報告を行います。それらの報告を公開します。中毒性のあるエンゲージメント機能を禁止または制限します。民事責任。
違反によって害を受けた人は訴えることができます。有害なコンテンツへの未成年者の露出を制限します。チャットボットが未成年者に適していない可能性があることを要求します。繰り返しますが、これはすべて非常に合理的ですが、これは連邦レベルで行われる必要があります。そして、これらのフロンティアモデル企業は、規制、AIを内部でどのように扱うか、ユーザーをどのように扱うかと格闘しています。
OpenAIの新しい方針
そして実際、Sam Altmanによる、今後数ヶ月でChatGPTで何をするかについての非常にバイラルな投稿がありました。これを聞いてください。私たちはChatGPTをかなり制限的にして、メンタルヘルスの問題に注意深く対処していることを確認しました。私たちは、これがメンタルヘルスの問題がない多くのユーザーにとって、それを有用性が低く、楽しめないものにしたことに気づきました。
しかし、問題の深刻さを考えると、私たちはこれを正しく行いたかったのです。今では深刻なメンタルヘルスの問題を緩和でき、新しいツールを持っているので、ほとんどの場合で安全に制限を緩和できるようになります。数週間後、人々が4について好きだったものにより近く振る舞うパーソナリティを持つことを可能にする新しいバージョンのChatGPTを展開する予定です。これはChatGPT-4oです。
そしてこれが本当に話題になった部分です。12月には、年齢ゲーティングをより完全に展開し、成人ユーザーを成人として扱うという原則の一環として、検証された成人に対してさらにエロティカのようなものを許可します。さて、ここが重要な部分です。前に述べたように、私たちは10代のユーザーにとってプライバシーと自由よりも安全性を優先するという決定を下しています。
では、年齢ゲーティングについてどう感じるか、私はあまり確信が持てません。彼らはどのように年齢を確認するのでしょうか。偽の年齢確認をどのように防ぐのでしょうか。なぜなら、偽のIDを取得することは非常に簡単で、そうすると突然ChatGPTとOpenAIがすべてのユーザーの身分証明を持つことになります。私には少し奇妙に感じられます。では、あなたはどう思いますか。人工知能にハードテイクオフがあると思いますか。規制は州レベルと連邦レベルのどちらで行われるべきだと思いますか。コメントで教えてください。
このビデオを楽しんでいただけたなら、いいねとチャンネル登録をご検討ください。


コメント