Claude Mythosは大半がマーケティング誇大宣伝である | Bruce Schneier

Anthropic・Claude・ダリオアモデイ
この記事は約18分で読めます。

AnthropicがClaude Mythosという新モデルを発表したが、そのセキュリティ能力に関する主張の多くはマーケティング戦略である可能性が高い。国際的に著名なセキュリティ研究者Bruce Schneierは、Mythosが発見した脆弱性は既存の旧型モデルでも再現可能であり、真の革新性には疑問符がつくと指摘する。AI技術は攻撃者と防御者の双方に利益をもたらすが、長期的には自動パッチ適用や自己修復ネットワークにより防御側が優位になると予測される。一方で、短期的には脆弱性発見が先行しパッチ適用が追いつかない期間が存在し、攻撃者が有利となる。また、テクノロジー企業の無規制な権力拡大に対する懸念が示され、EUのような規制強化の必要性が強調される。AI開発競争における誇大宣伝と実態の乖離、そして社会全体でこの技術をどう管理すべきかという根本的な問いが浮き彫りになっている。

Claude Mythos is mostly ‘marketing hype’ | Bruce Schneier
“They’re convincing a lot of people that Mythos is this amazing step change in capability when the evidence right now… i...

Claude Mythosの真の能力とは

Mythosを使わなくても、彼らが発見した脆弱性は見つけられるんです。これがAnthropicがやっているマーケティングの本質なんですよ。彼らは多くの人々に、Mythosが能力における驚異的な飛躍的進歩だと信じ込ませようとしています。しかし現時点での証拠、そして証拠はまだ予備的なものですが、どこにもあまり証拠がない状況で言えるのは、実際にはそうではないかもしれないということです。

もし自殺を扇動することなくAIチャットボットを作れないなら、おそらくビジネスをすべきではないでしょうし、できる人に道を譲るべきです。

本日のテック・レポートには、国際的に著名なセキュリティ研究者であり『Rewiring Democracy』の著者であるBruce Schneierさんをお迎えしています。ご出演ありがとうございます。

お招きいただきありがとうございます。

Anthropicが最新モデルClaude Mythosを発表しましたが、興味深いことにリリースはしていません。このモデルは、ファームウェアやソフトウェアにおける重大なセキュリティ欠陥の発見と悪用を容易にする能力があまりにも危険であるため、一般公開には適さないと主張しています。では早速本題に入りましょう。これはどの程度が誇大宣伝、つまりマーケティング戦略だと思われますか。そして実際に心配すべきことはどれくらいあるのでしょうか。

両方の側面があると思います。ここには確かに多くのマーケティング的な誇大宣伝があります。これから全部話していくことになると思いますが、このモデルが以前のモデルと比べてどれだけ優れているのかは不明確です。Anthropicが実際にどれだけのことを私たちに伝えているのかも不明確です。しかし同時に、Anthropicのモデルそのものとは別に、過去4、5ヶ月の開発動向を考えると、これらすべてのモデルがサイバーセキュリティに与える影響は重大です。

ただし同時に認識すべきなのは、この技術は攻撃者と防御者の両方に利益をもたらすということです。ですから、これが事態を悪化させるのか改善させるのかは実際のところ不明確なんです。さて、これはかなり多くの内容ですね。つまり膨大な量のことが進行中なわけです。順序を決めて一つずつ見ていきましょう。

ぜひその点、つまり誰が最も恩恵を受けるのか、攻撃側なのか防御側なのかについて掘り下げたいのですが、まず手短に、Mythosは報道によると正確に何ができるのでしょうか。

Mythosの実際の能力と他モデルとの比較

分からないんです。報道によればたくさんのことができるとされていますが、それはAnthropicのPRチームによる報道です。そしてこれが主にマーケティング戦略であることを認識する必要があります。これはAnthropicの新しいモデルをニュースに載せるためのものなんです。今朝、別の会社、Isleという会社についての記事を読んだのですが、その会社はAnthropicがモデルの優秀さを示すためにリリースした事例を取り上げて、多数の公開ドメインのオープンウェイトの古いモデルに同じ種類の調査を依頼したところ、基本的に同じ答えを得たというんです。

彼らの結論は、確かにAnthropicのモデルは印象的だが、すでに存在する他のモデルもすべて同様に印象的だということです。つまり、この新しいモデルがどれだけ飛躍的な変化をもたらしているのか、そしてどれだけがAnthropicが作業を行っただけで、実際には他の誰もが1ヶ月前、2ヶ月前に同じ作業を行えた可能性があるのか、私たちには分からないんです。

では詳しく見ていきましょう。Mythosは報道によると、OpenBSDにセキュリティ欠陥を発見したとのことです。それらは10年以上前からあったものです。OpenBSDというのは、ご存じない方のために説明すると、セキュリティで有名なオペレーティングシステムで、ITセキュリティサーバーやファイアウォールなどで広く使用されていると思います。しかし、サイバーセキュリティ専門家のDr. Heidi Kloffという方の分析を見たのですが、彼女の名前の発音が間違っているかもしれませんが、その分析では、オープンソースコードは実際には人々が期待するほど十分に監査されていないという指摘がありました。そして、Anthropicの発表には、あなたが先ほど触れたような従来のツールとの比較が完全に欠けているという点も指摘されていました。

その通りです。そして、それがどれだけ重要かは分かりません。11月、12月頃から、これらのツールはソフトウェア面で大幅に優れたものになってきました。多くのチャットアプリケーションでは停滞期に入っていたんですが、コードの記述、洗練されたコードの記述、脆弱性の発見、それらの悪用、そしてパッチ適用といった面で、ここ数ヶ月で本当に変化が起きたんです。

では、Anthropicを一旦脇に置いて考えてみましょう。私たちは今、これらのAIがソフトウェアの脆弱性を発見できる世界に移行しつつあります。それがBSDやOpenSSLのような古いものであろうと、OpenSSLは別のよく使われるソフトウェアですが、1ヶ月前に誰かが別のモデルを使って多数の古い脆弱性を発見しました。あるいは新たに書かれているソフトウェアでもです。これらのモデルは脆弱性を発見しているんです。

考えてみてください。これから2つの異なるグループが利益を得ます。攻撃者は脆弱性を発見してそれを悪用できるようになります。そして防御者は脆弱性を発見してそれを修正できるようになります。Anthropicはオープンソースソフトウェアの脆弱性を発見して修正する大規模なプログラムを開始しました。

これはAIを使ってオープンソースソフトウェアの脆弱性を発見し修正する最初のプログラムではありません。Googleはこれを何年も、2、3年やっていますよね。そしてこれらすべてがセキュリティをより良いものにしています。私たちは、これらのツールが標準的な開発プロセスの一部になる世界を想像できます。リリースされるソフトウェアはすべて、Anthropicの新しいモデルであろうと、Googleのモデル、OpenAIのモデル、あるいは同じ脆弱性を見つけるように見える他の小さなモデルであろうと、これらのモデルのいずれかで実行され、ソフトウェアプロセスの一部としてそれらが修正されるという世界です。

ただし、発見とパッチ適用は別物です。つまり、発見は得意でもパッチ適用は得意ではない可能性があります。その辺りはこれから見ていかないといけません。また、カスタムAI作成ソフトウェアが世の中にたくさんあります。私はこれをインスタントソフトウェアと呼んでいます。これらのチャットボットを何か洗練された用途に使っていて、ステータスウィンドウに注目していれば、常に小さなソフトウェアの断片を書いては使って、そして捨てているのが分かるでしょう。これは興味深い世界です。なぜなら、分析すべきものが何なのか、そしてもし分析すべきものがあったとしても、それは30秒後、10秒後には消えてしまうからです。

攻撃者にとっては余地がないんです。これは非常に異なる世界になるでしょうし、多くの未知の要素があります。脆弱性を発見する能力、悪用可能な脆弱性を見つける能力、パッチ適用の能力がどれだけ優れているか、ソフトウェアがどれだけの期間存在し続けるか、大規模組織がこの種の自動パッチ適用を許可するかどうか。

さて、私たちはノートパソコンやスマートフォンで、できれば自動更新をオンにしていますよね。そうすればパッチが自動的にダウンロードされます。すべての個人ユーザーはそうすべきです。しかし航空会社のような大規模ネットワークを運営している場合、そのようなやり方はしません。なぜなら、アップデートがシステムをダウンさせた場合、リスクが高すぎるからです。

攻撃者と防御者、どちらが有利になるのか

では、私たちはAIが並列テスト環境を持ち、そこで物事をテストしてから本番環境に移行し、すべてが非常に速く変化するような世界に住むことになるのでしょうか。私は10月にこれについて記事を書きましたが、基本的にもう時代遅れです。先週、2週間前だと思いますが、別の記事を書きましたが、それはAnthropicの発表には触れていません。それも2ヶ月後には時代遅れになるでしょう。しかし、これが攻撃者と防御者のどちらに有利かはまだ不明確です。

確かに短期的には攻撃者に有利です。しかし私たちは膨大な数の脆弱性がパッチされているのを目にしています。繰り返しますが、2週間前のAnthropicの件です。さまざまな組織が、膨大な数のバグレポートを受け取っていると発表しています。そして過去1ヶ月で品質が変わったと、セキュリティ脆弱性に関する高品質なバグレポートを受け取っていて、それらをすべて受け取り次第パッチしていると言っています。

これは防御者にとって良いことです。ですから多くの未知数はありますが、確かにAnthropicの発表は大きな出来事です。そして、Anthropicが言ったことを完全に鵜呑みにした記者もいて、彼らの記事はAnthropicのプレスリリースのようなものになっていました。New York Timesのコラムニストもいましたが、私は彼がそれにあまりにも多くの信頼性を与えすぎたと思いました。

アクセス権を持っている人々から聞いている話では、もっと複雑な状況だということです。そして、アクセス権を持たない人が公開された事例を取り上げて、より古く、より小さく、より洗練されていないモデルでそれらを再現したこの例も示唆的です。

ハッキングとサイバーセキュリティにおける攻撃側と防御側のどちらが最も恩恵を受けるかについてお話しされていますね。Anthropicのリリースには多くの欠落情報があります。特に、彼らが発見したポジティブな結果と一緒にどれだけの誤検知があったかについてはほとんど言及していません。10対1の比率である可能性もあります。それはそれに対処するための途方もない量の作業になります。それは一旦脇に置いておくとして、長期的にはこれが誰に有利になると予測されますか。

長期的には、防御者に有利になると思います。おっしゃる通り、Anthropicは誤検知については話しませんでしたが、このAnthropicの発表以前から他の人々は話していて、誤検知の量はここ数ヶ月で劇的に減少しています。その一部は、現在AIのチームが存在するようになったことです。あるチームが脆弱性を探し、別のAIチームがそれらを検証しています。

つまりAIのパイプライン全体があって、人間のところに届く頃には、これが本物であるという検証が行われていて、それが誤検知を大幅に削減しているんです。このAIのチーム、異なるタスクを実行する複数のAIが、誤検知を減らすのに効果的だと思われます。私の推測では、長期的にはこれは防御者に有利です。

攻撃者は脆弱性を見つけて、それを使ってシステムを悪用できます。防御者は脆弱性を見つけて、それがパッチされれば、今から時の終わりまで永遠に消え去ります。私たちはすでにコンピュータースピードで攻撃されています。コンピュータースピードで防御することは非常に重要です。

最近書いた記事で、私は自己修復ネットワークという概念を提唱しました。私たちは未来を想像できます、今日ではありませんが。AIがネットワーク内で常にレッドチーム活動を行い、脆弱性を発見し、それらを悪用し、自動的にパッチするという未来です。つまりネットワークが発見したものを自動的に修復していくんです。

ここでは経済性が重要です。攻撃者にとってより安価でしょうか。攻撃者は脆弱性を発見します。SolarWindsのようなケースを考えてみてください。ロシア人は脆弱性を見つけたわけではありません。彼らは意図的にそれをアップデートに挿入し、14,000のネットワークが感染しました。攻撃者にとっての規模の経済は莫大でした。

各防御者がそれを見つけて修正しなければならない場合、それは防御者にとって14,000倍の作業になります。しかし、これらが互いに通信し、脆弱性とパッチ情報を一元化して共有する、このような防御者に有利なメッシュを想像できます。

さて、これは長期的な話です。今年のことではありません。来年のことでもありません。おそらく5年後のことです。ですから、より興味深いのは、この過渡期だと思います。脆弱性が発見されてもパッチされない時期です。そこでは攻撃者の優位性が見られます。

Anthropicは携帯電話やコンピュータにあるライブラリを調査しましたが、モノのインターネット、ルーター、ウェブカメラといったものを考えてみてください。インターネットに接続されているこれらすべてのデバイスには、簡単にはパッチできないソフトウェアがあります。最近では冷蔵庫や車もそうです。そこで脆弱性が発見されても、パッチできない可能性があります。

そして現在、多くの家庭用ルーターでは、パッチを当てる方法は、それを捨てて新しいものを買うことです。これは良くありません。ですからそこでは、脆弱性は攻撃者に有利であり、防御者には不利です。

今、ネットワーク内、家庭内ネットワークでさえも、トラフィックを監視してそれらの攻撃をブロックするような防御システムを想定することができます。リアルタイム適応型IDSのようなものです。今思いついたばかりですが、企業は間違いなくこれを考えているでしょう。

RSAカンファレンスという大きなサイバーセキュリティカンファレンスが数週間前にありました。展示場には1,000社が出展していました。すべての企業がAI戦略を持っています。その多くはマーケティングですが、本物もあります。そこには本当に良いアイデアがいくつかあります。ですから、誰がこれから恩恵を受けるかを言うにはまだ早すぎます。確実に言えるのは、かなり混沌とした状況だということです。

現時点では短期的には攻撃者が恩恵を受けるとおっしゃいましたが、明らかにAnthropicはMythosをロックダウンしていて、11の他の大手テクノロジー企業とのみ共有しています。特にAnthropicの最近のコード流出の経緯を考えると、Mythosがダークウェブに到達したり、複製が作られたりするのを、それが可能だとして、どのくらいの期間防ぐことができると思いますか。

Mythosの機密性と実際の革新性

分かりません。かなり大きなモデルです。秘密を守れるかもしれません。しかし覚えておいてください、彼らが発見した脆弱性を見つけるのにMythosは必要ないんです。これがAnthropicがやっているマーケティングの部分なんです。

彼らは多くの人々に、Mythosが能力における驚異的な段階的変化だと説得しようとしています。しかし現時点での証拠、そして証拠は予備的なものです。どこにもあまり証拠はありません。実際にはそうではないかもしれないということです。分からないんです。これはソフトウェアを盗むようなものではありません。これらのモデルは巨大です。

おそらく、11社に提供されて、各社に何人の従業員がいるか、各社数千人としましょう。つまり、おそらく20,000人がアクセス権を持っています。それは秘密ではありません。秘密裏に保管されているものではありません。これは繰り返しますが、マーケティング戦略なんです。

そしてここでフラストレーションを感じるのは、私たちコミュニティが欲しいのは実際のデータだということです。そして何度も、何十年もの経験から学んだことは、何かを秘密にしておくことは役に立たないということです。悪者は何らかの方法でそれにアクセスします。どうやってかは分かりません。そして今、善良な人々はこれを評価できません。でも、Anthropicとマーケティングについて言えば、これは本当に良いマーケティングです。私たちはこれについてエピソード全体を費やしています。みんながこれについて話しています。

私が先週書いたエッセイは、今やアップデートが必要です。しかし本当に、物事は非常に速く変化しています。それがAIとコーディングで起きていることの真実です。過去数ヶ月でより洗練されたことができるようになっていて、それは3ヶ月前の研究がもはや正確ではないということを意味します。

そして確かにAIとサイバーセキュリティにおいては、2ヶ月前よりも脆弱性の発見がはるかに優れています。こう言うのはクレイジーですが、これはAnthropicだけの話ではありません。これは全体的な傾向です。その一部は、私たちがプロンプトをより上手く出せるようになったことです。複数のAIエージェントグループが協力するという概念です。そしてその一部はモデル自体が良くなっていることです。

マーケティング戦略としてのProject Glasswing

マーケティングの観点からProject Glasswingと呼んでいることについてどう思われますか。確かに注目を集める方法ですね。非常にキャッチーな名前です。それを他の11社と共有しているわけですが、これは良いことだと思われますか、それとも悪いことだと思われますか。あなたの印象では悪いことだと思っているような気がしますが。そして、これによってウォールドガーデンのようなもの、つまりこれらの選ばれた少数の企業だけがMythosまたは類似のものによって保護され、他のすべての人が自分で何とかしなければならないというセキュリティ独占のリスクを生み出す可能性があると思いますか。

繰り返しますが、その質問の前提は、Mythosが他のすべてよりも何らかの形で優れているということです。これこそまさにAnthropicが私たちに言わせたいことなんです。そしてここで私たちは彼らの手のひらの上で踊っているわけです。でもClaudeは素晴らしいモデルです。OpenAIのモデルも素晴らしいです。

Googleのモデルも非常にうまく機能します。リーダーボードを見ると、すべて同じくらいの位置にいる傾向があります。そして、デスクトップで実行できる小型のオープンソースで安価なモデルは、より大きな速度で能力を向上させています。ですから今、両者の差ははるかに小さくなっています。

これらのモデルに対してお金を払いたい人と払いたくない人の間にはすでに格差があります。そしてすべての企業は、彼らが必死に利益を出す方法を見つけようとしていて、それは今のところ不可能に感じられます。ですから、これらの企業を存続させるために大量のお金を燃やし続けることがどれだけ長く続けられるか分かりません。

私は小型で安価なモデルの支持者です。それらが未来だと思います。これらの巨大なテクノロジー独占企業になるとは思いません。しかし私が間違っている可能性もあり、持つ者と持たざる者がいる世界を想像することもできます。トップモデル、それが何個あろうと、それらへのアクセス権を持つ人々は、私たちの残りよりも多くの能力を持つということです。

それを社会的弊害の山に加えることができます。所得不平等から始まって、これがどれだけ悪化するか。分かりません。私はAIを権力強化技術だと考えています。それを使いたい人々の権力を強化するんです。私はちょうどAIと民主主義についての本を書いたところで、そこではAIが候補者、立法者、判事、市民団体の権力をどのように強化するかについて話しました。

そしてその一部は良いものになり、一部は悪いものになるでしょう。その強化された権力を持つ人間が何を望むかによります。そしてここでも同じ議論です。サイバーセキュリティに本当に優れたモデルがあります。さて、あなたが好きな人々もあなたが好きではない人々も、その能力を望んでいることが分かります。私たちはそれを政府の手に、別の政府の手に、ハッカーグループの手に、業界の監視団体の手に渡すことを望んでいるでしょうか。

繰り返しになりますが、誰がこれらの能力を持ち、彼らがそれで何をするかについて話すことができますが、重要なのは、それが権力強化であるという事実です。これは規制と保護措置について話すのに良い時期のようです。特にSam Altmanに関する暴露記事が彼をAI安全性に対する社会病質的な無関心だと呼んでいることを踏まえると。

AI規制の必要性

繰り返しになりますが、あなたがどう答えるか印象は持っていると思いますが、モデルの管理について、もしそれらがAnthropicが言うほど危険であり、そうである可能性があり、実際そうであるならば、これらのモデルの管理はこれらのテクノロジー企業のCEOたちの手に委ねられるべきだと思いますか。それとも何らかの規制が導入されるべきでしょうか。Anthropicは今とにかく米国政府と協力しているか、協力しようとしていると思います。

Anthropicが実際に協力しているかは分かりません。おそらく時間稼ぎをしているのだと思います。私は長い間、テクノロジー規制の強化の支持者でした。これはテクノロジー業界に欠けていたものだと思います。そしてこれらのシステムにイノベーションが起きない理由の一つです。独占企業が自分たちのアイデアを持っていて、好きなようにやっているからです。そして社会としての私たちは、この技術がどのように使われるかを舵取りする機会を得られません。

ソーシャルメディアで私たちが犯した過ちです。そして私たちはそれを後悔しています。そして私たちはAIで同じ過ちを犯そうとしています。社会にとってこれほど重大な影響を持つこの技術を、シリコンバレーの白人男性のテクノロジー億万長者たちの手に委ねるのは、社会を組織する愚かな方法だと思います。

ですから、はい、私は大規模な規制を見たいと思っています。そしてイノベーションを促進する規制です。できないという主張には同情しません。つまり、ティーンエイジャーを傷つけることなくソーシャルメディアネットワークを作れないなら、おそらくビジネスをすべきではないでしょう。そして自殺を扇動することなくAIチャットボットを作れないなら、おそらくビジネスをすべきではありません。できる誰かに道を譲ってください。なぜならそれは本当に良いアイデアになるからです。

ですから私は規制を見たいです。軍拡競争のメタファーは、企業が好んで持ち出すメタファーだと思います。なぜならそれが彼らを強力で規制不可能にするからです。しかし生命と財産に影響を与える技術を持つときは、それらを規制しますよね。自動車、医薬品、レストラン。これは難しいことではありません。

しかし私たちはここではそれをやりたくないんです。主に米国は規制反対だと思います。そして確かに現政権はそうですが、一般的にAI産業は米国経済を支えています。ですからそれに触れることへの絶対的な恐怖があります。そしてそれもまた物事のあり方として良くありません。

個人的には、同じ過ちを同じ人々と繰り返していることは、皮肉というよりも、間違った言葉かもしれませんが、どう表現したらいいのか。ZuckerbergとMuskについて考えています。同じ人々と同じことをまたやっているんです。おそらく私たちはそこから学ぶべきです。あなたのような方、あるいは私のような者に対して、これがAI安全性と法制化の転換点になることを期待している人に何と言いますか。ここでそれが起こると思いますか。

米国では起こりません。米国はこの時点でかろうじて機能している民主主義です。EUかもしれません。EUは地球上の規制大国であり、彼らはAI法を可決しました。それには長所と短所があります。米国は彼らにそれを実施しないよう本当に圧力をかけています。

しかしデジタル市場法、デジタルサービス法があります。この業界に適用できる多くの規制があります。これは難しいです。技術が非常に速く変化するため、アジャイルな方法でこれを行う方法を本当に見つけ出す必要があります。そして私たちはそれがあまり得意ではありません。社会として、私たちは急速に動くものを規制するのが得意ではありません。

私たちは学ぶ必要があります。そしてこれはAIだけではありません。すべてがそうなるでしょう。すべてが非常に速く変化するでしょう。しかし私たちはこれを何とかする必要があります。野放しの企業権力に歯止めをかける必要があります。なぜなら野放しの企業権力は、他のあらゆる野放しの権力と同じくらい悪いからです。

Bruce Schneier さん、お時間をいただきありがとうございました。

ありがとうございました。

本日のエピソードを楽しんでいただけて、テック・レポートをもっと聞きたい場合は、ぜひいいねとチャンネル登録をお願いします。また、ポッドキャストを入手できる場所ならどこでもテック・レポートのエピソードを聴くことができます。

コメント

タイトルとURLをコピーしました