
14,797 文字

OpenAIが経済青写真を発表しました。この青写真は、アメリカがAIの恩恵を最大限に活用し、国家安全保障を強化し、経済成長を促進するための政策提案を概説しています。そしてそれは非常に大規模なもので、教育分野を含む多くの異なる領域に及んでいます。子供たちに早期からAIを紹介し、彼らが言うところの「AIリテラシー」を育成することも含まれています。
彼らはAI覇権のための3つの戦略的リソースを特定しています。それらはチップ、データ、そしてエネルギーです。さらにAI経済特区の創設や、高価値のAIパブリックプロジェクトの開発なども含まれています。
彼らはAI投資に向けて世界中の資金が待機していることについて言及しており、興味深いことに中心的な焦点は、超知能AIを作り出すための中国との競争におけるアメリカの立場にあります。彼らが主張するポイントは、アメリカは必ず勝たなければならないということです。
この経済青写真の詳細を見ていきましょう。もしこのチャンネルをしばらく見ていた方なら、私がAGIの出現に伴って世界の情勢がどのように変化していくかについて話してきたことをご存知でしょう。アシェン・ブレナーの状況認識に関する論文は、物事がどのように展開していくかについての最も先見性のある洞察の一つだったと思います。そして、それ以降、これが今後の方向性であることを裏付けるような多くの出来事が起こっています。
これが次のステップです。もし私が賭けるなら、ここで概説されている多くのことが実現すると賭けます。今日は2025年1月13日です。数年後にこれを再生して「私が言った通りでしょう」と言えるように、タイムスタンプを記録しておきます。
全てのリンクは下記に記載しています。最も興味深いトピックについて触れていきますが、もし深く掘り下げたい場合は、リンクの一つをクリックしてください。購読もお忘れなく、物事は加速しており、これを見逃したくないはずです。
本日、OpenAIはアメリカのAIイノベーションにおけるグローバルリーダーシップを拡大し、AIへの公平なアクセスを確保し、全国のコミュニティにわたる経済成長を推進するための政策提案を示す新しい経済青写真を発表しています。
AIがより高度になるにつれて、私たちはアメリカが今行動を起こし、技術の可能性を最大限に活用しながら、その害を最小限に抑える必要があると考えています。AIは独裁者によって主導され形作られるには強力すぎますが、それが私たちが直面している増大するリスクです。
これはAI開発コミュニティでよく聞かれる主張で、強力なAIは民主主義国によって開発される方が、権力が中央集権化された国々によって開発されるよりも望ましいというものです。私も同様のことを言ってきました。AIの超知能を持つ独裁政権は、二度と打倒されることがないかもしれません。それは人類の歴史における最後の独裁者となる可能性があります。良い意味ではなく、永遠にという意味です。
AIが強力になるにつれて、独裁者によってAIが形作られることから多くのリスクがありますが、同時にAIがもたらす経済的機会は、見過ごすには魅力的すぎます。データセンター、チップ製造施設、発電所などのAIインフラを構築することによって生まれる新しい雇用と成長と同様に、共有された繁栄は目前にあり、計り知れないものです。
彼らは2024年9月のOpenAIの論文「インフラは運命である」にリンクしています。正直に言って、私はこれについてよく知りません。調べる必要があります。興味深いことに、アメリカと中国のインフラを比較しています。
彼らはまた、このチャンネルで取り上げたサム・アルトマンの「知能の時代」にもリンクしています。彼らは続けて、誰もが現在の誰よりも良い生活を送れる未来はそう遠くないと述べています。そのような繁栄が視野に入っている中で、私たちは政策立案者と協力して、AIの恩恵が責任を持って公平に共有されることを確実にしたいと考えています。
この青写真は、長年アメリカのイノベーションエコシステムの中心にあった起業家精神と個人の自由を支援するように設計されています。今日、一部の国々がAIとその経済的潜在力を脇に置いている一方で、アメリカ政府はそのAI産業のために道を切り開き、規模を拡大することができます。
1つ目は、国家安全保障を保護しながら、イノベーションにおける国のグローバルリーダーシップを継続することです。もう一度、これを読みながら心に留めておいてください。これらの多くのことが実現する理由は、これが理由です。
2つ目は、AIへのアクセスとその恩恵を最初から確実に正しく行うことです。
3つ目は、国中のコミュニティのためのAIの経済的機会を最大化することです。
そして、ドライバーが実際の道路を安全に保つための明確な常識的な基準に従うことが期待されているように、開発者とユーザーには、AI道路を安全に保つための明確な常識的な基準に従う責任があります。公共の安全を守りながら、イノベーターの繁栄を助ける簡単で予測可能なルールは、投資、競争、そしてすべての人のためのより大きな自由を促進することができます。
チップ、データ、エネルギー、そして人材がAIで勝つための鍵であり、これはアメリカが勝つことができ、また勝たなければならないレースです。アメリカの軍事力、経済力、政治力の多くは、アメリカの国益を守るために使われてきました。そして、政府、テレビで見る人々も見えない人々も、AIの力と将来の潜在的な超知能に目覚めていることは明らかになってきています。これは今後、グローバルな政治の大きな焦点となっていくでしょう。
彼らは続けて、約1,750億ドルがAIプロジェクトへの投資を待っているグローバルファンドにあると推定されており、もしアメリカがこれらの資金を引き付けなければ、中国共産党のグローバルな影響力を強化する中国支援のプロジェクトに流れていくだろうと述べています。
私たちは、AIが可能な限り多くの人々に恩恵をもたらすためには、実際の危害から人々を守ることを目的とした常識的なルールを通じてAIを可能にし、アメリカが常に擁護してきた価値観によって形作られた民主的なAIを構築する必要があると考えています。
これには以下が含まれます:
イノベーションを促進する自由で公正な競争を促進する自由市場
開発者とユーザーが、誰もにとってAIを安全に保つ明確な常識的な基準に従い、従わない場合は責任を取る代わりに、私たちのツールを自由に使用し指示する自由
政府がAIツールを使って市民に対する権力と支配を集中させたり、他国を脅迫したり強制したりすることを防ぐこと
確かに、もし政府がAIに好みのイデオロギーを吐き出すように洗脳しようとし、そのイデオロギーを教育システムを通じて人々に強制しようとするなら、それは歴史上のどの時期でも恐ろしいことですが、特にAIがより影響力を持ち、プログラムされた信念を人々に説得する能力がより高まることを考えると、特に恐ろしいことです。それは甚大な被害をもたらす可能性があります。
権力に飢えた政治家が権力を集中させ、市民を支配することを防がなければなりません。他のどの産業でも同様に、私たちは公共の安全を守りながら、イノベーターの繁栄を助ける常識的な道路のルールが必要です。投資、競争、そしてすべての人のためのより大きな自由を促進することによって。
そして、これを最もよく達成するために、これらのルールは州ごとの規制の寄せ集めではなく、全国的に適用されるべきです。私たちはカリフォルニア州が独自の法律を迅速に通過させようとするのを見てきました。もちろん、カリフォルニア州は大きな力と影響力を持っていますが、50の州が異なるAI法案を持っていた場合、それらすべてに従おうとすることは、イノベーションや小規模企業にとって非常に困難です。
私たちは、すべての都市、郡、州が独自のものを作り出すのではなく、1つの明確で理解しやすく従いやすい全国的な法案が必要です。
彼らは「私たちはアメリカを信じています。なぜならアメリカはイノベーションを信じているからです」と述べています。これが、私たちのCEOであるサム・アルトマンが1月30日にワシントンDCで会合を開き、AIの進歩の状況とそれがどのように経済成長を促進できるかをプレビューする理由です。
また、この会合は、すべての生活環境からのアメリカ人にAIの経済的恩恵をもたらすことを確実にするために、全国の州と協力する「アメリカのためのイノベーション」イニシアチブの開始も兼ねています。
この国は、建設者と起業家のエコシステムに賭けるときに常に成功してきました。この青写真は生きた文書であり、私たちの仕事から学び、人々の難しい問題を解決するのを助けながら更新されていきます。これは、国内の政府との関係を構築し、世界中の同盟国との出発点となるものです。
実際の青写真の詳細に入っていきましょう。しかしその前に、この青写真の前文について、あなたはどう思いますか?コメントを残してください。また、あなたがどこの出身かも必ず記載してください。アメリカ、ヨーロッパ、その他の地域では、これが意味することについて異なる見方や意見があるかもしれません。
面白いことに、これはおそらくDALL-Eで作られたものだと気づきました。このAIイメージは、草が道になっていることや他の細かい部分から判断できます。ただ、それを言及しておこうと思います。
ここに前文があります。OpenAIの使命は、人工知能が誰もが恩恵を受けられるようにすることです。AIは多くの分野で私たちを助けることができます。より良い医療、教育について話されています。2シグマ問題は基本的に、私たちの全世界の教育システムが可能な効率性のほんの一部でしか機能していないことを意味します。2つの単純な改善で、すべての学生の能力曲線が標準偏差で2つ右にシフトします。これは非常に大きな改善です。AIは私たちがこの問題を解決する能力を解放します。
医療分野では、ゲノミクスとプロテオミクス(タンパク質とその機能の研究)において画期的な進歩が見られています。Google DeepMindのAlphafoldとAlphaproteoは、その一部の研究でノーベル化学賞を受賞しました。これは絶対に興奮させられる信じられないような突破口です。デミス・ハサビスによると、今後1-2十年で多くの病気を排除する可能性があると述べています。彼は、その大部分あるいはすべてを排除すると言っているようです。その可能性は膨大です。
他の科学的発見、より良い政策サービス、生産性の向上も含まれていません。OpenAIのユーザーベースは現在世界中で3億人に達しており、例えば無人ドローン攻撃からアメリカ軍の人員を保護したり、新しい形の創造性を生み出したり、州や地方政府をより効率的にすることも約束しています。
前文のほとんどは既に読んだ内容なので、少し先に進みましょう。実際、これはChris Leane副社長(グローバル担当)によって書かれました。そして、彼らは彼らが話す内容といくつかの具体的な提案を分解しています。
最初の部分は競争力と安全保障です。私たちはすでにその説明を読みましたが、ここでAIイノベーションにおける競争力と安全保障を確保するための彼らの解決策を見ていきます。
アメリカは、イノベーターと起業家のエコシステムに賭けるときに成功します。連邦政府は適切な場合、産業界との安全保障に関する情報やリソースを共有するべきです。例えば、セキュリティ上の脅威に関するブリーフィングや、アメリカおよび非アメリカのAIモデルのテスト結果の高レベルな情報を、先進的な研究を行うアメリカのAI企業と共有することが含まれます。
これが興味深いのは、同盟国やパートナー国を含む広範な展開を奨励し、アメリカ政府機関をサポートするというものです。アシェン・ブレナーが状況認識で話していたように、超知能AIはベイエリアのヒッピーなAIラボで作られるわけではありません。世界中の様々な国家安全保障機関は、それをただ発生させるようなことはしないでしょう。それは大きすぎる問題です。
誰かが超知能を構築しているとき、アメリカ政府は完全に手を離して「皆さん、どうぞやってください」とは言わないでしょう。これは、両者の融合について言及しているようです。これは既に起こっていることです。OpenAIには元CIAディレクターを含む、アメリカ政府と深い関係を持つ取締役会メンバーがいます。
彼らは続けて、フロンティアモデルの安全性とセキュリティに対する連邦政府のアプローチは、要件を合理化し、政府と産業界の協力への官僚的な障害を減らし、企業がアメリカの競争力を支援するよう奨励すべきだと述べています。
例えば、政府は標準とセーフガードの開発を支援し、そのような標準が他の国々や国際機関によって認識され尊重されることを確保し、アメリカの民間セクターに代わって、米国政府機関やオフィスとの直接的な協力を支援することができます。これには、産業スパイの脅威からIPを保護する方法や、より強力になるモデルによって高まる可能性のあるサイバー、化学、生物、放射線、核、その他のリスクを軽減する方法についての情報の共有が含まれます。
多くのアメリカ企業があり、もしその企業を妨害すれば、セキュリティが対処するか、場合によっては地元の警察が対処します。そして、特定のアメリカ企業があり、それらを妨害すれば、アメリカ軍やその他の影の組織が対処することになります。彼らは今、「私たちも仲間に入れてください」と言っているようです。私たちは選ばれた企業の一部になる必要があります。
次に、彼らは、モデルのセキュリティリスクとセーフガードを評価するために、機密のコンピューティングクラスターなどの安全なインフラへのアクセスを企業に支援すると述べています。これは興味深いですね。彼らは何か具体的なものを参照しているのでしょうか?どこかに超並列コンピューティングクラスターがあり、「それを使わせてもらえませんか?」と言っているのでしょうか?
そして、競争力と一貫して、アメリカと志を同じくする国々を通じて透明性を促進します。これは、企業秘密を保護し、市場競争を促進し、AIライフサイクル全体にわたる開示要件を慎重に選択することによって、幅広く手頃な価格のAIアクセスを確保することによって行われます。
再び注目すべきは、アメリカとその友好国が「インナーサークル」であり、「志を同じくする国々」があり、彼らはこの小さなAIサークルに参加させることができるということです。
そして、大規模言語モデルを開発する企業が、モデル評価を定義するために政府と協力するための定義された自主的な経路を作成することによって、産業界への支援を合理化します。彼らが特に大規模言語モデルと言及していることは興味深いです。広く一般的なAIや高度なニューラルネットワークではありません。
もちろん、アメリカ政府は特に、機密の脅威インテリジェンスにアクセスできる専門家を動員し、調整して、国家安全保障関連の評価と緩和策について直接フロンティアラボと協力することができます。
約半年前、OpenAIはポール・ネイソン(またはナソニア)を取締役会に任命しました。彼はサイバーセキュリティ、技術進歩、グローバルサイバー防衛の専門家です。陸軍将校として、アメリカのサイバーコマンドの創設に重要な役割を果たしました。彼は米国サイバーコマンドの最長の指導者であり、また国家安全保障局(NSA)も指揮し、アメリカのデジタルインフラを保護し、国のサイバー防衛能力を向上させる任務を担っていました。
彼はアメリカ、韓国、イラク、アフガニスタンのエリートサイバー部隊と協力してきました。これを読む際に心に留めておくべきことです。彼らは多くの知識と人脈を持つ人物を獲得しています。彼らは一般的なことを言っていますが、おそらく私たちには伝えられていない具体的なことを指摘し、要求しているのでしょう。私たちにはそれらが何なのか分かりませんが、このような公的なコミュニケーションの中で暗示されている具体的なことがあるのでしょう。
そして、その見返りとして、これらの企業は、同じ国家安全保障機関が扱うこれらのタイプのリスクについて、州ごとの規制から免除されます。彼らは、アメリカ政府の国家安全保障機関の一握りの人々と直接協力したいと言っており、カリフォルニアやテキサス、その他がAI安全性について独自の法律を制定するのに対応したくないと言っています。
次に、公共部門がAIツールを迅速かつ安全に採用できるようにし、スタートアップや小規模企業の採用経路を確保し、納税者の金を節約し、運営の効率を改善し、より良い公共サービスを提供することを提案しています。
様々な官僚的活動で無駄にされている時間について考えてみてください。政府による時間の無駄、そして運転免許証やその他の書類を提出し、郵便を待つなどの負担について考えてみてください。おそらく、その90%はAIで簡単に削減でき、最終的には99%まで削減できるでしょう。私たちを愚かな書類作成や郵便待ちなどの官僚的な nonsense から解放することができます。
次に、AIの開発者は、国家安全保障コミュニティとの協力のためのベストプラクティスを特定するコンソーシアムを形成することができます。これには、コンピューティングへのアクセスなど、政府のセキュリティベースの要求を優先することや、アメリカと企業のポリシーと一致する方法でAIを責任を持って統合する努力を合理化することが含まれます。
AIシステムがますます高度になるにつれて、政府と産業界のより深いパートナーシップは、それらのシステムのセキュリティを改善し、アメリカ政府の最先端の人材と能力へのアクセスを強化することになります。
次世代のAI人材を育成するための訓練プログラムの開発を支援し、特に以前のイノベーションの波の恩恵を受けていない国の地域で、公共部門と民間部門の両方のための熟練した人材プールを確立することを提案しています。
これは非常に興味深いです。AIの企業はこれから大きなものを得ることになり、アメリカも欲しいものの多くを得ることになります。アメリカは世界的な力、AIに対するより多くの制御、国家安全保障を得ます。中国との競争に勝ち続けることができ、また「志を同じくする国々」という同盟国をフォールドに引き入れ、より多くの制御を持つことができます。
AIレースのリーダーとなり、他のすべての「クール」な人々がその周りに集まることになります。つまり、より多くの力、より多くの影響力を得ることになります。また、これらのAI企業に対してより多くの制御を得ることになります。
制御と言っても、何が起こっているのかを内部から見ることができるということです。彼ら自身のグループの人々が、フロンティアモデル企業と一対一の関係を持つことができます。それがGoogleであれ、Anthropicであれ、Metaであれ、Nvidiaは必ずしも独自の大規模言語モデルを持っているわけではありませんが、他の多くのものを持っています。
基本的に、これによって彼らはそれらすべての内部を見ることができ、それらの企業との一対一の関係を持つことができます。AIの企業は何を得るのでしょうか?まず、すべての州と対応する必要がありません。州ごとの個別の法案は必要ありません。カリフォルニアやその他の州がAIを規制することを示そうとしているような法案に対応する必要はありません。彼らは1つの連邦法案だけに対応したいと言っています。
2つ目は、コンピューティングパワーです。彼らが具体的に何を参照しているのかは分かりませんが、もし知っていたら教えてください。この文書の中で何度も、「コンピューティングへのアクセス、超機密のコンピューティングクラスター」について触れています。それが何を意味するのかは分かりませんが、彼らは「アメリカ政府が秘密のコンピューティングパワーの蓄えを持っていることを知っており、それにアクセスしたい」と言っているようです。おそらく、私たちが現在アクセスできると認識しているよりもはるかに大きなものでしょう。
彼らは「そのおもちゃで遊ばせてください」と言っているようです。そして彼らは保護も得ます。もしOpenAIが「私たちのものをハックしないでください、触れないでください」と言った場合、ハッカーは「あなたと何の軍隊?」と言うかもしれません。OpenAIやその他の企業は、「アメリカ軍やその他のアメリカの組織が、これらの企業への外部からの脅威に対処する」と言いたいのです。
もちろん、アメリカ側にとっても全体的に良いことです。経済的産出、効率性、生産性、イノベーションの面で。基本的に、これらのAI企業は「私たちはあらゆるレベルで国全体を改善していく」と言っています。
もう1つの大きな点は、これが安全性を助けるということです。彼らすべてがアメリカ政府の誰かを審判として持つことになるので、もしAnthropicが何かを発見した場合、彼らは「こんな危険なことを発見しました。これは皆が知っておくべきことです」と言うことができます。その人物がその情報を配布することができます。
彼らは1人の人物とコミュニケーションを取り、その人物がすべての企業間の審判となることができます。なぜなら、もし全員が前進し、情報を共有せずにコミュニケーションを取らない秘密のレースをしているなら、それは本当に裏目に出る可能性のある危険な状況だからです。希望的に、本当に物事を知っている信頼できる誰かが、これらの企業の審判として機能することは、確かに大きな意味を持ちます。
彼らは「道路のルール」と続けています。私たちは、AIの開発がより広く展開されるほど、より信頼され、より多くの人々が恩恵を受けることになり、その結果、民主的な価値観への理解と繁栄が増大する好循環が生まれると考えています。AIツールを責任を持って指示し、使用する自由や、適切なセーフガードを持つ自由市場など、そこではあらゆるAI企業や起業家が競争できます。
私たちにとって、これは最初からAIへのアクセスと恩恵を正しく得ることを意味します。私たちが「道路のルールを正しく」と考えるものです。AIはソーシャルメディアではありません。それは私たちのCEOであるサム・アルトマンが「知能の時代」と呼ぶものへと導くインフラ技術です。
AIによって、私たちの子供たちは私たちにはできないことができるようになり、最終的には誰もが現在の誰よりも良い生活を送ることができるようになります。しかし、そこに到達するためには、やるべきことがあります。
ちなみに、この声明の両方の部分を100%信じています。現在の誰よりも良い生活というのは、エアコンが発明される前の暑い国の王様になりたいと思いますか?それは疑問です。また、子供が一定の年齢に達するまで名前をつけない時代や場所もありました。生き残れるかどうか分からないため、あまり愛着を持ちたくないからです。3歳になった子供に「あなたはボビーよ、名前をつけましょう。弟はまだ名前がありません。様子を見てからにしましょう」というような感じでした。
しかし、この声明の2番目の部分も非常に重要です。そこに到達するためには多くの仕事をしなければなりません。AIは人類が今まで見た中で最も影響力の大きい技術であり、それは非常に悪いことも起こり得ることを意味します。良い結果を得るためには、乱用されないようにする必要があります。
連邦政府がAI関連の国家安全保障問題をリードする一方で、州は最初からAIの恩恵を最大化する上で重要な役割を果たします。彼らは、スタートアップや小規模なAI企業を含む、AIの実験をサポートすることで、教育やヘルスケアなどの分野で人々の日常的な困難な問題を解決する方法を特定する民主主義の実験室としての歴史的な役割を果たすことができます。
彼らは、AIを使って納税者の生活を改善する方法を特定するために、政府職員やデベロッパーコミュニティの実験をサポートします。同時に、この取り組みは、州独自のローカルAIエコシステム、特に次世代のAI対応デベロッパー(次のメインストリートと競争力)を後押しすることになります。
次に、「インフラは運命である」について。彼らは、十分なインフラを構築することは、世界中のAIが中国ではなくアメリカのテクノロジーに基づいていることを確実にするために不可欠であるだけでなく、アメリカの再工業化を促進する見逃せない機会だと考えています。
成功した国々は、リソースを競争上の優位性に変えます。AI時代において、チップ、データ、エネルギー、人材は、アメリカのリーダーシップを支える資源となります。自動車の大量生産と同様に、これらの資源を活用することは、広範な経済的機会を創出し、グローバルな競争力を強化することになります。
そこで彼らは、何万もの熟練した雇用を生み出すエネルギーとチップを生産するためのインフラを構築することを提案しています。また、AIモデルが公開されている情報から学習できることをAI開発者に保証することも意味します。
これは大きな意味を持ちます。ご存知の通り、これについては多くの議論があります。著作権で保護された作品からAIが学習できるかどうかについて、現在明確性が欠如しています。
過去には、もしあなたが詩集を書いた場合、私はその詩集を読むことができ、それは完全に問題ありませんでした。友人に2、3の詩を朗読することもできたかもしれません。しかし、もしその詩集を完全に複製して販売し始めたら、それは著作権を侵害することになります。あなたがそれを作り、それはあなたの作品なので、私が自分のものとして売ったり、あなたの作品を売って金銭を得たりすることは、著作権法によって保護されています。
その後、スキャナーやコピー機のような新しいテクノロジーが出てきました。もしその本をコピーして何度も売り始めたら、それは違法です。しかし、私の理解では、アメリカの法律では、自分の読書のためにコピーを作ることは許可されているという訴訟がありました。本を購入した場合、ページのコピーを作ることは問題ありません。問題は、あなたの作品を再販することであり、必ずしもそれを見たり自分用にコピーを作ったりすることではありませんでした。
現在、これらの大規模言語モデルは、インターネット上で利用可能な多くのもの、様々な本やブログなどで訓練されています。画像モデルやアートモデルも同様に、写真やアーティストの絵画などをスキャンし、独自のものを再現することができます。
そこで、多くのアーティストやその他の人々がこれに反対しています。彼らは、それは著作権侵害であり、モデルはそのようなアートやテキストを見ることができるべきではないと主張しています。両サイドで多くの意見の相違があります。なぜなら、確かにもしモデルが著作権で保護された作品を再現し、その作品を売ったり、ユーザーの要求に応じて再現したりする場合、例えば「ChatGPT、最新の作家の本全体を再現して」と言って、それを提供した場合、それは著作権侵害になるからです。
しかし、それを再現する例はほとんどありませんでした。多くの人々は、これらのモデルが著作権で保護される可能性のある公開データで訓練されることさえ違法であるべきだと提案しています。私の知る限り、アメリカはこれを明確にしていませんが、日本は明確にしています。彼らは著作権で保護された作品でモデルを訓練することを歓迎しています。問題は再現であり、私が著作権で保護された本を読むことが著作権侵害にならないのと同様に、これらのモデルは読むことはできますが、再現することはできません。
ここでこの小さな文が基本的に「それは完全に問題ない」と開発者に保証し、そのことで訴訟を起こされないようにするのは興味深いことです。
今日、コンピューティングとエネルギーの需要は利用可能な供給を大きく上回っており、推定1,750億ドルのグローバルファンドがAIインフラへの投資を待っています。もしアメリカが迅速に動かなければ、それらのリソースは世界中の民主的なAIエコシステムをサポートするプロジェクトではなく、中国共産党によって支援され形作られるプロジェクトに流れていくでしょう。
同様に、他のアクター(開発者や他の国々を含む)は、知的財産権の所有者を尊重したり関与したりする努力をしません。もしアメリカと志を同じくする国々が、長期的にAIを進歩させるための賢明な措置を通じてこの不均衡に対処しなければ、同じコンテンツは依然としてAIトレーニングに使用されますが、他の経済のために使用されることになります。
アメリカのモデルは著作権で保護された作品で訓練されますが、著作権で保護された作品を生成しません。他のモデルは著作権で保護された作品で訓練され、著作権で保護された作品を再現するかもしれませんが、アメリカの管轄外にいるため、それらのIP権利を気にしません。
したがって、彼らは、公開されている情報からAIモデルが学習できることを開発者に保証することで、これが起こることを防ぐと言っています。他のいわゆる「悪者」は依然としてすべての人の著作権で保護された作品で訓練し、それらの作品も再現し、そのユーザーや資金はそれらの場所に流れていき、それは他の経済のためになり、アメリカと同盟国のためにはならないでしょう。
これを前進させるためのいくつかの解決策があります。現在アナログ形式で保存されている政府データをデジタル化することです。多くの政府データはパブリックドメインにあり、それをよりアクセスしやすくまたは機械可読にすることで、特に重要なデータが不均衡に政府によって保持されている分野で働くすべての規模のアメリカのAI開発者を支援することができます。代わりに、このデータを使用する開発者は、政府と協力して新しい洞察を解き放ち、より良い公共政策の開発を支援することができます。
実際、Stability AIの創設者は、各国または文化的信念や言語などを共有する地域が、政府レベルで巨大なデータセットを作成し、その地域の開発者や誰にでも無料で、著作権保護なしで提供することが良いアイデアかもしれないと話しています。アメリカが広く利用可能な巨大なデータセットを作成することは、確かに非常に有用でしょう。
資本とサプライチェーンへのアクセスを合理化し、AIインフラと堅牢なAIエコシステムをサポートするような、アメリカの同盟国やパートナー国間のAIに関する協定を提案しています。参加国はまた、時間とともにいくつかの共通のセキュリティ基準に同意することになります。この協力は、中国のAIインフラ同盟と競争しながら、共有された基準を通じてセキュリティを強化するアメリカの同盟国とパートナーのグローバルネットワークに拡大する可能性があります。
中国が中国外で巨大なインフラを構築しているのと同様に、アメリカと同盟国は自身と同盟国のために、より多くの資金とアクセスを提供し、それらのサプライチェーンをサポートしていきます。これらのデータセンターの中には多くの熱を発生し、物理的なスペースを必要とするものがあります。例えば、ロサンゼルスに建設しようとすると悪夢のようになりますが、カナダの特定の場所に建設すれば、多くの問題を解決し、地域経済に追加の資金フローを提供することができます。このような例は他にも多くあるでしょう。
そのような合意は、アメリカと同盟国全体でインフラの構築を大きく改善するのに役立つでしょう。地方、州、連邦政府が産業界と共同で作成するAI経済特区は、新しいソーラーアレイ、風力発電所、原子炉などのAIインフラを構築するための許可プロセスを大幅に迅速化します。
例えば、カンザス州は農業へのAIの応用に特化したハブを設立し、テキサス州やペンシルベニア州は発電とグリッドのレジリエンスへのAIの統合に焦点を当てたセンターを開発することができます。
現在の労働力と学生がAIに対応できるよう支援し、経済を強化し、イノベーションにおけるアメリカの継続的なリーダーシップを確保するために、アメリカ企業とパートナーシップを組んだ地域社会に根ざした全国的なAI教育戦略を提案しています。また、国家AI研究リソースへの資金提供などの国家研究インフラへの投資も含まれています。
私たちは多くのエネルギーを必要とするでしょう。したがって、核融合や他の有望な技術など、持続可能な源について考える必要があります。既存のエネルギー容量をサポートし、新しい送電線の承認を合理化し、連邦支出を劇的に増加させることを提案しています。
国家経済競争力と安全保障の観点から、それらの地域の電力・通信網を接続する国家AIインフラハイウェイの創設、そして産業の成長とその規則を遵守する産業界とユーザーの両方をサポートする連邦支援の高価値AIパブリックワークスの創設を提案しています。
民間市場だけでは巨大なAIインフラの支払いに十分でない可能性があるため、アメリカ政府はインフラ投資を奨励するために、購入コミットメントと信用補完を提供することができます。
彼らは、これは生きた文書であり、仕事から学ぶにつれて更新していくと述べています。表紙画像はDALL-Eによって作成されたものですね。
これらは良いアイデアでしょうか、悪いアイデアでしょうか?繰り返しになりますが、私の信念では、これらの多くのことが実現するのを見ることになるでしょう。私たちは、これらの多くが取り上げられ、迅速に推進される非常にユニークな時期にいます。
権力者たちがこれに多くの注意を払っているという兆候は多くあります。アメリカと中国、台湾の緊張関係や、アメリカのCHIPS法などを見ると、AIのインフラを作るためのお金、注意、リソースが注がれています。
これは当然、リーディングAI企業にとって大きな勝利となるでしょう。これはもちろんアメリカ政府にとっても大きな勝利となるでしょう。私は常々、これは避けられないと信じていましたし、何度も言ってきました。
多くの人々が「AIを一時停止する必要がある、危険すぎる」と言っています。問題は、猫は袋から出てしまっており、AI開発は世界的に継続されるということです。もしアメリカが一時停止すれば、私たちはただレースから降りるだけです。すべての国が一時停止することを強制することはできません。
すべての国が一時停止に同意したとしても、1つの国が進歩を続け、研究を続ければ、その国が勝者となります。皆が真摯にイノベーションを一時停止している間に、この技術の指数関数的な成長は、数年の遅れが通常の開発サイクルの何十年もの遅れに相当する可能性があることを意味します。
これは特に軍事技術について当てはまります。例えば、ある国が自律型軍事ドローンの艦隊を構築し、他の国がそれに対する応答を持っていない場合、それは永久にその2つの国の軌道を変える可能性があります。
そして、何百億ドルもの資金がAIプロジェクトへの投資を待っているとき、そのお金はどこかに流れていきます。もしアメリカと同盟国でなければ、他の場所に流れていきます。より多くのお金が注ぎ込まれるほど、より多くの進歩、より多くの人材、より多くのハードウェア、より多くのインフラが構築され、追いつくことがますます困難になります。
しかし、あなたはどう思いますか?購読をお忘れなく、物事は加速しており、興味深くなっています。少し怖いかもしれません、少し懸念があるかもしれません。しかし、確かに興味深いものです。最後までご視聴いただきありがとうございます。私の名前はウェスRTHです。また次回お会いしましょう。


コメント