OpenAIがDeepSeekの禁止を望む!

AGIに仕事を奪われたい
この記事は約8分で読めます。

4,551 文字

DeepSeek is Getting Banned?
OpenAI's Controversial Policy Proposal on AI from ChinaIn this video, I discuss OpenAI's recent policy proposal to ban A...

これは興味深い話です。OpenAIがDeepSeekを国家に管理されていると主張し、中国から出てくるすべてのモデルを禁止するよう呼びかけました。これは科学技術政策局に提出した政策提案の中で共有されました。この報告書はDeepSeekに関して物議を醸していますが、いくつか非常に興味深い統計も含まれています。彼らは意図的にDeepSeek APIとオープンウェイトモデルを混同させようとしており、また著作権法についても非常に興味深い見解を示しています。
彼らはDeepSeek R1を実際の脅威として提示しようとしていますが、同時にその重要性を過小評価しようともしています。彼らはこう述べています。「DeepSeek R1モデルの最近のリリースが注目に値するのは、その能力(R1の推論能力は確かに印象的ですが、せいぜい複数の米国モデルと同等レベル)のためではなく、この競争状態を示すものとしてです」。そしてその競争とはAGI(汎用人工知能)に向けた競争のことです。
これらの議論を呼ぶ見解をいくつか見ていきますが、まずOpenAIがAIがもたらす経済的機会に関して考えている非常に興味深い統計をご紹介します。米国の親の10人中7人以上が、今日の子どもたちは自分たちよりも経済的に恵まれなくなると考えており、これは事実です。米国の親の10人中9人が、子どもたちが将来の仕事のためにAIの使い方を学ぶことが重要だと考えていますが、10人中8人がそれが行われていないか、行われているかどうか分からないと言っています。大学生年齢のAIユーザーの4人中3人が教育でAIを使用したいと思っていますが、正式な教育はAIに追いついていません。
OpenAIはまた著作権法に関しても興味深い見解を持っていますが、まずはスケーリング法則やテスト時の計算能力、そしてトレーニングと推論コストの削減に関する興味深い見解もあります。彼らによれば、AIモデルの知性は、おおよそトレーニングと実行に使用されるリソースの対数に比例するとのことです。最近まで、スケーリングの進歩は主にトレーニングの計算能力とデータから来ていましたが、O3、R1、その他の多くの推論や思考モデルのような最近のモデルでは、推論時の計算能力からも知性がスケールすることが示されています。そしてこれらの進歩を予測するスケーリング法則は、多くの桁数にわたって驚くほど正確です。
そのため彼らはAIへの投資をますます奨励しています。トレーニングとテスト時の計算能力により多くのお金を費やすことで、少なくとも理論上は、より有能なモデルが生まれるでしょう。そしてそれは大きな社会経済的影響をもたらすでしょう。
2つ目はこれらのモデルのトレーニングと推論の両方のコストに関するものです。特定のレベルのAI能力を使用するコストは、約12ヶ月ごとに10倍下がっているとのことで、より低い価格はより多くの使用につながります。これはAnthropicが示唆したことと非常に一致しており、毎年これらのモデルをトレーニングするコストが10倍削減されていると彼らは言っています。2023年初頭のGPT-4と2024年半ばのGPT-4oの間のトークンコストの変化でこれを確認したとのことで、わずか1年強の期間で150倍のコスト削減を見たとのことです。これは非常に驚くべきことです。これは同じレベルの知性や能力についてのことですが、GPT-4.5はトークンあたりのコストが膨らんでいます。
3つ目は人間の知能に対するAIの改善にかかる時間に関するものです。彼らによれば、コンピュータが特定のベンチマークで人間を打ち負かすのに一般的にかかる時間は、ベンチマークが導入されてから20年、それが5年に、そして今や1〜2年に短縮されており、彼らはこれらの進歩が近い将来止まる理由はないと考えています。AGI ARベンチマークはその完璧な例で、OpenAI O1はパフォーマンスに劇的な改善を示しましたが、それはテスト時に高い計算コストがかかりました。
OpenAIによれば、これはAIにつながり、ここが提案の最も興味深い部分が実際に始まるところです。彼らは民主的AIについて話し、また政府がAIツールを使って権力を蓄え、市民をコントロールしたり、他の国家を脅迫したり強制したりするのを防ぐことについても話しています。報告書の後半では、実際に彼らは政府とより緊密に協力するための事例を作っています。
OpenAIによれば、CCPすなわち中国政府は2030年までにアメリカをリードすることに取り組んでおり、彼らは「だからこそDeepSeek R1モデルの最近のリリースは注目に値する。その能力のためではなく、この競争状態を示すものとして」と言っています。比較的新しいプレイヤーであり、はるかに小さなプレイヤーであるDeepSeekを彼らが実際に認めているのは非常に良いことです。
次の部分は少し不誠実だと思います。「DeepSeekモデルの上に重要インフラストラクチャーやその他の高リスクユースケースを構築することは、DeepSeekがCCP(中国共産党)によって害を与えるためにそのモデルを操作するよう強制される可能性があるため」。彼らは意図的にモデルとDeepSeekが提供しているAPIを混同しています。DeepSeek R1はオープンソースモデルであり、誰でもタイトなインフラストラクチャーにモデルをデプロイすることができ、DeepSeekやCCPと何も共有されることはありません。
一方、OpenAIはクローズドソースモデルなので、何をしても実際にOpenAIがデータにアクセスできます。彼らはトレーニングのために特定のデータを使用しないと言っていますが、それは彼らの言葉を信頼するだけのことです。
そして彼らは「DeepSeekは同時に国家から補助を受け、国家に管理され、自由に利用可能であり、ユーザーが支払うコストはプライバシーとセキュリティであり、DeepSeekは中国法の下でユーザーデータの要求に応じ、それをより高性能なシステムのトレーニングにCCPが使用するための要件に直面している」と述べています。個人的には、それが国家から補助を受けているか国家に管理されているかは確かではありませんが、それが自由に利用可能で、お金があれば自分のインフラストラクチャーでモデルを実行できるというのは事実です。そのため、あなたが自分の環境でそれを実行している場合、DeepSeekがあなたのデータを共有するよう強制したり、強制されたりする方法はありません。繰り返しになりますが、意図的にモデルとAPIを混同しています。
次に、OpenAIは規制を緩和し、著作権データへのアクセスをより多く持つための事例を作ろうとしています。彼らは中国を競争相手として扱っており、中国はリソース、データ、エネルギー、技術的才能、そして独自の国内チップ開発を構築するために必要な莫大な資金を動員する能力を含む、いくつかの利点を持っていると彼らは言っています。
一方、米国には多くの規制があり、個々の州でさえもEUのAI法の規制をモデルにした規制を持っており、OpenAIによれば、この規制はアメリカの起業家が利用できるトレーニングデータの質とレベル、および下流の消費者やビジネスの有用性を弱める可能性もあるとのことです。
次に、中華人民共和国はそのようないかなる国のIP体制もそのAIシステムのトレーニングに関して尊重しない可能性が高いが、すでに同じデータへのアクセスを持っている可能性が高く、元のIP作成者のための保護の点ではほとんど得るものがなく、アメリカのAIラボを比較的不利な立場に置くとしています。そして、アメリカは今日AIでリードを維持していますが、DeepSeekは私たちのリードが広くなく、狭まっていることを示しています。AI行動計画はアメリカのAIが勝つか、CCPのAIが勝つかを確実にし、アメリカのAIリーダーシップと全てのアメリカ人のためのより明るい未来の両方を確保すべきです。簡単に言えば、それは「私たち対彼ら」です。
では、これに対処するためにOpenAIは具体的に何を提案しているのでしょうか?彼らが提案する最初のことは、連邦政府と民間セクターの間の自発的なパートナーシップを可能にし、アメリカのAI企業がオバマのような州法に従わなければならないことからPRC(中華人民共和国)が潜在的に利益を得ることを無効にする全体的なアプローチです。実際、彼らは連邦政府とより緊密に協力したいと考えており、他の企業も連邦政府とより緊密に協力することを望んでいます。これは実質的にすべての自由を奪い、自発的なものを見るときはいつでも、それは将来的にはそれほど自発的ではなくなる可能性が高いです。
次に、彼らはAIモデルのトレーニングに使用できるものに対する輸出管理戦略を持ちたいと考えており、民主的AIを輸出したいと考えています。彼らはまた、その民主的AIがどのようなものになるかについての階層ベースのシステムを提案しています。詳細は省きますが、彼らは実際にこの民主的AIベースのシステムがどのようなものになると考えているかについて非常に詳細な説明を持っています。
次に、彼らは「学ぶ自由」を促進する著作権戦略について提案しています。「学ぶ自由」が何を意味するのか私にも分かりません。彼らは「インテリジェンスの時代にシステムの役割を拡張する著作権戦略を提案します。それはコンテンツ作成者の権利と利益を保護すると同時に、アメリカのAIリーダーシップと国家安全保障も保護するものです。連邦政府はAIから学ぶアメリカ人の自由を確保し、アメリカのAIモデルが著作権のある素材から学ぶ能力を保持することによって、AIのリードをPRCに譲渡することを避けることができます」と述べています。要約すれば、彼らは著作権のある素材を使用してAIをトレーニングする能力を持ちたいと考えており、それを可能にするための連邦政府の助けを求めています。
次の提案は、この夢を実現するために必要となるすべてのインフラストラクチャーを構築することです。この提案の詳細に入ると、彼らは明示的に多層設定に基づく輸出管理と、彼らのモデルをトレーニングするために著作権のある素材を使用する能力を求めています。彼らはまた、国防総省を含む連邦政府とより緊密に協力したいと考えています。
要約すると、OpenAIは中国から出てくるオープンウェイトモデルやその他のあらゆるモデルに反対しています。彼らは彼らのモデルをトレーニングするために著作権のある素材にアクセスしたいと考えており、連邦政府と緊密に協力し、彼らの価値観を世界の残りの部分に押し付けながら民主的AIシステムを開発したいと考えています。
この文書は魅力的な読み物であり、皆さんにも一読することを強くお勧めします。この動画が役立つことを願っています。視聴いただきありがとうございます。いつものように、次回の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました