AI行動計画:中国を追い抜き未来を支配するアメリカの青写真

AI競争
この記事は約16分で読めます。

この動画は、ホワイトハウスが発表したアメリカのAI行動計画について詳細に解説したものである。計画の主要なポイントとして、AI規制の緩和、オープンソースAIの推進、軍事・防衛分野でのAI活用、中国との技術競争における優位性確保などが挙げられている。また、AI関連のインフラ整備、人材育成、国際的な外交戦略についても言及されており、各AI企業からの反応も紹介されている。

AI Action Plan: The U.S. Blueprint to Outpace China and Rule the Future
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

ホワイトハウスのAI行動計画発表

ホワイトハウスがついにアメリカのAI行動計画を発表したんや。この計画の中で一番大事なポイントをサクッと見ていこうと思うんやけど、政治的なコメントは抜きにして、事実だけを紹介していくで。

まず大きなポイントから言うと、AIは産業、情報、文化など色んな分野でルネサンスを引き起こすやろうってことや。せやけど、これを掴むも逃すも俺たちのことなんやと。ここで大事なのは、AI革新を加速させて、お役所仕事を減らすことや。

で、最初からもう議論を呼びそうな問題が出てきてるんや。文書の後の方には多くの人が納得するようなことも書いてあるんやけど、この計画は叩かれそうやな。なんでかって言うと、規制は州レベルやなくて連邦レベルでやるべきやって言うてるし、連邦政府は負担の大きいAI規制がある州にはAI関連の連邦予算を回すべきやないって言うてるからや。

つまりな、連邦資金を無駄遣いするような法律がある州は、その資金をもらったらあかんってことや。せやけど、これは革新を不当に制限しない、慎重な法律を通す州の権利を邪魔するもんやないって言うてる。もちろん「負担の大きいAI規制」なんて、見る人によって違うやろうけどな。

多くの人がこれを心配するやろうけど、実際の執行がどうなるかが問題やな。俺の読み方やと、カリフォルニア州が負担の大きいAI規制を作ったら、連邦予算の一部を打ち切られるってことや。つまり、AI友好的な州が金をもらえて、連邦予算をもらえるってことやな。

ここで、政府内の様々な組織、FCCやFTCも含めて、負担の大きいAI法を作らんようにするし、州のAI規制が機関の義務遂行を邪魔するかどうかも評価するって書いてある。

自由な言論とアメリカの価値観を守るAI

次の大きなポイントは、自由な言論とアメリカの価値観を守るAIやな。要するに、これらの大規模言語モデルやその他のAIシステムが客観的で、上からの思想的偏見から自由であることを望んでるんや。

次の大きなポイントはオープンソースとオープンウェイトAIや。このチャンネルで何度も話してきたように、アメリカも中国も、世界のAIインフラのリーダーになりたがってるんや。どっちも世界の他の国々が自分たちのインフラと技術の上に構築することを望んでる。アメリカならアメリカのインフラと技術の上に、中国も同じようなことを望んでるわけや。

現在のところ、中国がオープンソースAI戦争、競争と呼んでもええけど、そこで勝ってると言うのが公平やと思う。で、これはそれに対する対応やと思うんや。非公式には以前から語られてきたことやけど、これが公式な声明やな。

アメリカの価値観に基づいた主要なオープンモデルをアメリカが持つことを確実にせなあかん。オープンソースとオープンウェイトモデルは、世界中のビジネスや学術研究の一部分野でグローバルスタンダードになる可能性がある。そやから、これらには地政学的価値があるし、モデルをオープンソースにするかどうかは開発者次第やけど、連邦政府はオープンモデルのための支援環境を作るべきやってことや。

AI導入の促進

次にAI導入について話してる。現在、AI導入はAIの潜在能力やモデルの強力さに制約されてるんやなくて、特に大きな既存組織でのAIの導入が遅いことが問題やって言うてる。ヘルスケアのような重要な分野では、技術への不信や理解不足、複雑な規制環境、明確なガバナンスやリスク軽減基準の欠如などの様々な要因で導入が遅れてるんや。

そこで大きな提案が、規制サンドボックスみたいなもんやな。つまり、これらの大企業が入ってきて、ツールを試して、データや結果の共有に積極的になれるようにして、FDAやSECのような機関がそれらの取り組みを支援するってことや。これらの企業から責任の一部を取り除いて、実験をしやすくしたり、データ共有を手助けしたりしたいようやな。

興味深いことに、敵対者の導入追跡についても言及してる。つまり、国家安全保障に影響するフロンティアAIプロジェクトについて、ある種の情報収集をするってことや。アメリカ対競合相手や敵対者のAIツール導入レベルの比較やな。この言い回しがだんだんアメリカと中国の競争を指してることに気づくやろう。

このAI導入の多くは、相手がどうやってるかを見て、中国と競争するためのもんなんや。

AIの時代におけるアメリカ労働者の支援

次はAIの時代におけるアメリカ労働者の支援や。これは学校での教育みたいなもんで、若い子供たちにAI利用を教えることと、高齢のアメリカ人を未来の職業のためのスキルアップに備えさせることやな。目標はAIリテラシーを拡大することと、AIの労働市場への影響を評価して、影響を受ける労働者を迅速にスキルアップ・再訓練することや。

次世代製造業の支援

次は次世代製造業の支援やな。これはロボティクス、ドローン、様々な先進製造業、防衛・国家安全保障を含む製造・物流の新しい能力についてや。Nvidiaファンのジム博士は、いつか動くものすべてが自動化されるというビジョンを持ってた。工場のすべて、道路のすべて、芝刈り機まで、すべてがAI技術で自動化・有効化されるってことや。

これを実現するには、ロボティクスやドローン製造のサプライチェーンの課題を解決せなあかん。現在、中国が世界のドローン製造・輸出をリードしてる。他の大きなプレーヤーはアメリカ、トルコ、香港や。そして、フランス、インド、ドイツ、日本などでもプレーヤーが出てきてる。

AI対応科学の推進

次の部分はAI対応科学についてや。ますます多くのAI研究所が、次の大きなことは、これらのどんどん強力になる汎用モデルが仮説を立てて実験を設計するようになることやって言うてる。これらは科学のフロンティアを押し進めるやろう。AI対応科学があることで、確実にイノベーションのスピードを上げることができるやろうな。

推奨される行動の一部は、エンジニアリング、材料科学、化学、生物学、神経科学などの様々な分野のための自動化クラウド対応ラボを、民間セクターと連邦機関や研究機関が適切に構築・資金提供することや。そして興味深いことに、研究者がより高品質なデータセットを公開することを奨励するってことや。これについては話したことがあるな。

イーマド・ムスタクがいくつかのポッドキャストで話してたのは、アメリカやイギリスのような国が、これらの国レベルで公開されるデータセットや、例えば研究者が特にAI訓練モデル、ファインチューニングモデルなどの研究目的で利用できるデータセットを持つというアイデアやった。

素晴らしいアイデアやと思ったけど、実際にそれが起こるかもしれん、実際に実現するかもしれんってのにちょっと驚いてるわ。現在、もし知らんかったら、これらのモデルを訓練するのに使われるデータセットの多くは、少なくとも一部は、大部分が海賊版なんや。例えばAnthropicは、そのせいで熱い問題に巻き込まれてる可能性がある。

前のポイントに基づいて、世界クラスの科学データセットを構築するってことや。ここで見てるように、敵対国を含む他の国々が俺たちより先を行って、膨大な科学データの宝庫を蓄積してきた。アメリカは世界最大で最高品質のAI対応科学データセットの作成をリードせなあかん。

これらの最後のいくつかのポイントは、非常に議論の余地がなく、うまくいけばみんなにとって良いことと見なされると思う。連邦政府が持ってる膨大な宝庫と資本を使って、公共の利益のためにこの情報、これらのデータセットをまとめることや。後でプライバシーの潜在的な問題についても取り上げてる。

AI安全性と解釈可能性

すぐにそこに到達するで。ここでの別のポイントは基本的にAI安全性・AI解釈可能性や。フロンティアシステムの内部動作は十分に理解されてない。昨日、Anthropicからの研究を取り上げたんやけど、これがこのポイントを説明してるんや。大規模言語モデルは非常に無害に見えるデータでターゲットにされて、悪になるように仕向けられる可能性がある。

Anthropicやその他の研究所は、これらのニューラルネットワークが何を動かしてるのかを理解しようとする取り組みを進めるために多くのことをやってきた。ダリオ・アモデイが指摘したように、良い進歩を遂げてる。それが良いニュースや。悪いニュースは、これらのニューラルネットワークを理解する俺たちの進歩よりもAIの進歩がはるかに速いことで、例えば5年でそれらの理解の多くを解明するかもしれんけど、その時点ではちょっと遅すぎるかもしれん。

せやけど、これはAI安全性にとって良いニュースやと思う。アメリカは、これらの研究問題で基本的なブレークスルーを作れば、高いリスクの国家安全保障領域でAIシステムをその最大の潜在能力まで使えるようになるやろう。だから、これは良いことやし、確実に良いことになりうる。

AI解釈可能性は、追求すべき非常に価値のある商業的なもんやない。そこに利益はない。だから、様々なAI研究所は、おそらくこの分野に投資不足やって言えるやろう。間違いなく、これは連邦政府が介入して、この問題に大金を投じて解決できる素晴らしい分野やろう。繰り返すけど、市場では、これは対処されんかもしれん。だから、これを大きな勝利として見てるんや。

もし反対意見があるなら教えてくれ。なんでかも教えてくれ。で、誰にこの取り組みを主導してもらいたいかに注目してくれ。DARPAや。DARPAは過去に社会に本当に利益をもたらしたプロジェクトをたくさんやってきた。注目すべき例として、インターネット、GPS(全地球測位システム)、音声認識と自然言語処理、自動運転車技術、mRNAワクチン技術、ロボティクス、コンピューターマウス、そしてあのビッグドッグ、ロボット犬などがある。

これらのプロジェクトの多くは、何らかの形でDARPAによってキックスタートされたり、種をまかれたりした。だから、これらのニューラルネットワークが何を動かしてるのかを理解することに彼らを配置するのは確実に良いアイデアや。繰り返すけど、Anthropicの最近の研究では、いくつかの非常に無害に見える数学問題を見せると、人々を殺したがるようになるんや。

なんでそうなるのかを理解した方がええやろうな。

AI評価エコシステムの構築

次は、AI評価エコシステムの構築や。素晴らしいアイデアや。現在、俺たちはこれらの研究所自体が彼ら自身を監視することと、様々な他の外部ベンチマークに依存してる。そして、おそらく知ってるように、これらの外部ベンチマークには山ほど問題がある。

例えば、人々がこれらの大規模言語モデルの進歩に立ち向かう良いベンチマークになると思ってた最新のベンチマークの一つが、人文科学の最終試験やった。これは過去24時間以内に投稿された。だから、これを詳しく見てないけど、一部の研究者は、例えばその試験の化学と生物学の問題の30%、約3分の1が無効である可能性が高いと示唆してる。だから、これらのフロンティアAIシステムのための厳密な評価を持つのは良いことやろう。

国防総省でのAI導入推進

次の大きなことで、これは多くのことがどこに向かってるかを教えてくれるんやけど、DoD(国防総省)内でのAI導入を推進することや。AIは国防総省の戦闘と後方業務の両方を変革する潜在能力を持ってる。これまでのところ、フロンティア研究所のすべてが国防総省やアメリカ軍の他の部分と何かしらの契約を結んでると思う。

Google、Anthropic、OpenAI、Grock(別名XAI)、Palantirはアメリカ政府と多く仕事をしてる。この一部は、AI・自律システム仮想実証場と、様々な運用やその他の機能のための自動化・合理化されたプロセスや。

Palantirのような企業がやってることの一部について、世界中の様々な運用に関する様々な情報やデータの収集と、起こりうる潜在的なことのシミュレーションを手助けしてることを俺たちは知ってる。

例えば、1、2年前のPalantirのビデオの一つでは、中国の軍艦が出現して、重要なアメリカの利益の近くのどこか、本来いるべきでない場所で見つかるという状況がある。AIシステムは迅速に衛星画像を収集し、起こりうる悪いことのいくつかを迅速にシミュレートし、いくつかの行動方針、物事がうまくいく確率、物事がうまくいかない確率を計算し、その情報を指揮官に提示するんや。

だから、これらのことの多くは、そのために必要なインフラと人材・スキルを構築することかもしれん。また、クラウドサービスプロバイダー、コンピューティングインフラの運営者、その他の関連する民間セクターエンティティとのDoD協定を優先することや。重大な紛争や国家緊急事態の場合、国防総省はこれらの技術を完全に活用する準備をしておく必要がある。

また、学校でのAIリテラシー教育と一致して、軍事大学での様々なAIリテラシースキルの教育もある。そして、もちろんここで商業・政府AI革新の保護、企業の人材、知的財産、システムを含むってことは、OpenAI、Googleなどの商業企業であれ、政府内部であれ、アメリカのAI開発を妨害するなら、アメリカ政府の最も恐ろしい略語、国防総省、国土安全保障省などと問題を起こすことになるってことや。

法制度での合成メディア対策

次は法制度での合成メディア対策や。俺たちはすでにテイクイットダウン法や、AIによって生成された画像や動画の非同意投稿、様々な他の悪意のあるディープフェイクなどに関する様々な法律を持ってる。

これらの危険性を全く軽視してるわけやないけど、非常に危険やし、多くの問題を引き起こす可能性がある。これが大きな問題になってないことに驚いてるんや。選挙への干渉や大規模パニックの原因になることを人々が心配してたのを聞いてきた。これまでのところ、何も起こってない。少なくとも、根本的に破滅的なことは何も起こってないと言えるやろう。悪いことは起こったけど、根本的に破滅的なことは何もない。

明らかにリスクはあるけど、俺が思ってたよりもずっとマシやったことに驚いてるわ。

AIインフラ基盤の整備

次はAIインフラの柱や。ここで要するに、俺たちは本当にデータセンター、エネルギーインフラ、半導体製造施設を拡張しようとしてる。AIが進歩するために必要なすべてのものやな。

ここで言ってるように、アメリカのエネルギー容量は1970年代から停滞してる一方で、中国は急速に送電網を構築してきた。そして確実に多くの面で、アメリカは遅れてる。これの多くは、うまくいけばそれを変えることを目指してる。

これを複雑にするもう一つの問題は、敵対的な技術でこのインフラを構築できないことや。だから、このアメリカのインフラには「made in China」って書かれた言葉があったらあかんのや。

もちろん、これは大きな議論の対象になるやろう。これの多くは規制の削減を必要とするからや。ここで言ってるように、大気浄化法、水質浄化法、包括的環境対応などの下での規制を合理化したり削減したりする必要がある。

AI革新のペースに合わせる送電網を開発する必要がある。もしFactorioをプレイしたことがあるなら、それが簡単やないことを知ってるやろう。ここに電力発電に関してアメリカと中国の間のますます拡大するギャップを示すチャートがある。

アメリカは2000年頃から約4,000テラワット時を生産してる。中国は9,000テラワット時に近づいてる。だから、俺たちは追いつくためだけでも生産を2倍以上にする必要がある。

別の大きなポイントは、半導体製造をアメリカの土地に戻すことや。世界の半導体生産の大部分は台湾にあって、中国に非常に近く、中国のターゲットになってきた。そして、もちろん俺たちのサプライチェーンが外国のライバルによって妨害される恐れがある。だから、プログラムの一部は、その半導体製造をもっとアメリカの土地に持ってくることやった。

もう一つの焦点は、軍事・情報コミュニティ使用のための高セキュリティデータセンターの構築や。これらのデータセンターはアメリカ政府の最も機密性の高いデータを持つことになるから、最も決意があって有能な国家行為者からの攻撃に対して耐性を持たせなあかん。

このAI行動計画が発表された頃、これらがみんなが見てた見出しやった。中国のハッカーがサイバー攻撃作戦でアメリカの原子力安全機関を侵害。

だから、データセンターはアメリカの利益と様々な国家安全保障の懸念にとって、さらに大きな焦点になるやろう。

AIインフラのための熟練労働力の訓練

別の大きなポイントは、AIインフラのための熟練労働力の訓練や。確実に、必要なすべてを構築するには、多くの新しい役割、電気技師、先進HVAC技術者、その他の高給職業が必要になるやろう。

だから、これはこの仕事をするように訓練される人の数を拡大することと、データセンターセキュリティの改善、インフラとその他のすべてのAI関連分野でのサイバーセキュリティの改善とともに提案してる。

国際AI外交と安全保障のリーダーシップ

そして柱の3つ目は、国際AI外交と安全保障でのリーダーシップや。再び、アメリカは世界のAIが動く世界のためのインフラを構築したがってる。ここで言ってるように、アメリカはアメリカのAIシステムの導入を推進しなければならない。

だから、アメリカは同盟国やパートナーに輸出し、中国の影響を減らし、AI輸出規制と執行を強化したがってる。そして、ここで考慮すべきいくつかの重要で興味深いポイントがある。今朝、10億ドル以上の価値があるNvidia AIチップが中国に密輸されたというニュースがあった。

これがそんなに懸念されてることやから、コンプライアンスを確保するのは難しいことで、彼らが言うように、輸出規制執行への創造的アプローチを追求すべきや。これは良くも悪くも、位置確認機能のようなものを意味する。

ここで理解すべき大きなポイントは、様々なオンチップ位置確認、エンドユース監視の拡大、様々なサブシステムの新しい規制を持つことが推奨されてるってことや。

基本的に、これらのチップを監視して、はるかに多くのトラッカー、はるかに多くの監視を設置して、アメリカがそれらがどこにあるか、何に使われてるかなどを監視できるようにするんや。

政府のセキュリティリスク評価と研究者採用

次は、アメリカ政府がこれらのAIモデルのセキュリティリスクの評価の最前線にいることを確実にし、フロンティアAI開発者と協力し、連邦機関で主要なAI研究者を採用することや。

マーク・ザッカーバーグがこれらのAI研究者を採用するために数億ドルのパッケージを投げ出してるから、彼らはそれをするのに苦労するやろうな。また、バイオセキュリティへの投資もある。これは、これらのAIシステムでのより大きく、より差し迫った懸念の一つとしてフラグが立てられてる。

それがほぼ終わりや。そして、AIフロンティア研究所はこの計画にとても満足してるようやな。

Anthropicは、この計画がインフラ、連邦採用、安全性調整で正しいことをやってるって言うてる。これはAnthropicの核心にある多くの政策目標を反映してる。だから、AnthropicからはどうやらA+をもらったようやな。

Palantirはそれを支援することを誇りに思ってる。PalantirからもどうやらA+をもらったようやな。マイルズ・ブランデージがAI行動計画についてコメントしてる。

彼は元OpenAIで、現在は独立したAI政策研究者や。彼の仕事の多くは技術規制とガバナンスの交差点にある。彼は、最新のオープンモデルではなく、コンピュート、人材などの基本を比較すれば、トランプがAIでアメリカが中国より遥かに先を行ってることについて正しく、AI行動計画が助けになるやろうって言うてる。

彼はビザ問題、チップ輸出、悪いセキュリティがまだアメリカの敗北につながる可能性があることを指摘してる。だから確実に、最新のオープンモデルを見ると、これはQuen 3 coderリリースとKimmy K2リリースの数日後やけど、どちらも中国発の優秀で非常に高速で有能なオープンソースモデルや。だから確実に、中国がリードしてると言うのが合理的な分野がそこやな。

イーロン・マスクとXAIはAI行動計画に満足してる。彼らはホワイトハウスがAI革新を優先させることを見て喜んでる。Grock Inc.(チップの方で、XAIのチャットボットやない)も、ホワイトハウスがAI行動計画をリリースしたことを称賛してる。

だから、AI分野のプレーヤーのほとんどがすべてにとても満足してるようやし、確実に彼らが祝うべきことがたくさんある。より多くの革新、より少ない規制、より多くのインフラ構築、様々なAI利益を守るためのアメリカのより多くの努力などや。

せやけど、君はどう思うか教えてくれ。これは良い計画やと思うか?アイデアは良くて実行も良いと思うか?それとも、それらのカテゴリーの一つか両方で失敗するかもしれんと思うか?どう思うか教えてくれ。

君がアメリカにいようがいまいが、この計画をどう見てるかがとても気になるんや。どこの出身で、これについてどう思うかも教えてくれ。ここまで見てくれたなら、本当にありがとう。俺の名前はウェス・ロスや。また次回会おうな。

コメント

タイトルとURLをコピーしました