トランプの新AI計画を徹底解剖

USA・アメリカ合衆国
この記事は約59分で読めます。

この動画では、トランプ政権が発表したアメリカのAI行動計画「AI.gov」について詳細な分析を行っている。AI技術の革新加速、インフラ構築、国際外交・安全保障の3つの柱からなる戦略を解説し、著作権問題、規制緩和、半導体製造、エネルギー政策、中国との競争などの重要課題を取り上げている。また、AnthropicやOpenAIなどの企業の対応、カリフォルニア州のAI規制法、TSMCの重要性、核エネルギーの必要性なども詳しく論じており、アメリカがAI分野での世界的優位性を維持するための包括的な戦略分析となっている。

Breaking Down Trump's New AI Plan
The US just announced ai.gov and the AI action plan. This was a very interesting one...Thank you Coderabbit for sponsori...

今日は何て変な日やったんやろな

アメリカ政府がAI.govを発表して、それと一緒にアメリカのAI行動計画も出したんや。ちょっとワイルドな展開やったで。この詳細を掘り下げるのに時間かけすぎてもうたわ。トランプの奇妙なスピーチも見たんやけど、著作権から「woke AI」まで何でもかんでも話しとったで。

「ジョー・バイデンのwoke AIに関する命令を即座に終了させたことを誇りに思っとる。そんなクレイジーなルールはもういらん。woke AIなんかいらんのや。正確な情報に基づいて、正確な情報と正確な答えを出すAIモデルが欲しいんや」

Anthropicの友人たちからの反応もあったんやけど、これはなかなかまともな考え方やと思うで。

ここで取り上げるべきことがめちゃくちゃ多いんや。核となる要点全部、それが実際に何を意味するかを分析したPDF、そしてトランプが署名した3つの法律について話すで。俺はできるだけ偏りのない報道を心がけとるんや。ただ情報を集めて、友達と昼飯食いながら話すみたいに議論したいだけなんや。

そういうわけで、ここに関わってる誰からも金は受け取ってへん。Anthropicやアメリカ政府からも当然もろてない。実際、この2つは俺から一番金を取ってる連中やと思うわ。そんなわけで、誰かがこの動画の費用を負担してくれなあかん。今日のスポンサーから一言もろて、それからすぐに本題に入るで。

Cursorを使ったAIツールのおかげで、これまで以上にたくさんのコードを書けるようになったんや。でも新しいボトルネックが生まれてもうた。コードレビューや。常にプルリクエストがそこに置きっぱなしで、誰かがチェックしてくれるのを待っとる状態なんや。正直、レビューの仕事の大部分はかなり退屈なもんやねん。だから今日のスポンサーがめちゃくちゃ助けてくれとるんや。

Code Rabbitがコードレビューのやり方を変えてくれたんや。正直言うと、最初にスポンサーの話が来た時は懐疑的やったで。でも自分のリポジトリで試してみたら、もうこれなしでは生きていけへんようになってしもた。T3 Chatみたいなプロジェクトを維持するのが格段に楽になったんや。

ここにMarkと一緒に作業した実際のプルリクエストがあるんやけど、T3 Chatに設定同期機能を追加する作業で、出荷前に実際のリグレッションを見つけてくれたんや。

俺はデータをConvexに適切に保存するためにバリデーターの動作を変更しとったんやけど、ローカルストレージから全部入ってくる代わりに、使われてる全ての場所で古いバリデーターの名前を適切に変更してなかったんや。だから時々間違ったバリデーターを使ってしもてた。俺は全然気づかんかったし、正直最初からClaudeにコーディングさせとったから気づかんかったんや。

でもそうやって別のAIがコードをレビューして間違いを見つけてくれたおかげで、めちゃくちゃ時間が節約できたんや。実際このせいで起こるエッジケースに遭遇しとったんやけど、なんでかわからんかって、他の問題を扱っとったから考えるのをやめてもうたんや。でも実際に解決してくれたんや。

新しく追加された機能でAIエージェント用のプロンプトっていうのがあるんや。このプロンプトをコピーして、エディターに行って貼り付けるだけで、変更を直接適用してくれるんや。めちゃくちゃ便利やで。問題が解決された時にコメントまで更新してくれるから、これだけでも十分価値があるわ。

でもそれだけやない。プルリクエストの要約も作ってくれるし、変更された各ファイルの説明と、何が変わったかの完全なウォークスルーもやってくれる。このプルリクエストで何が起こってるかの図まで作ってくれるんや。めちゃくちゃ便利やで。

忘れるところやったけど、VS Code拡張も追加されて、Cursorでも動くんや。だからコードを書きながらレビューできて、GitHubにプッシュする必要もないんや。早いフィードバックを得るためだけにCode Rabbitのレビューを起動させるためにプッシュしとったけど、もうその必要がないんや。エディターに直接入っとるからな。

Code Rabbitにはめちゃくちゃ満足しとる。みんなもきっと気に入ると思うで。今日チェックしてみてくれ、soyv.link/code rabbitで。

導入部分

「アメリカはAIで世界的な支配を達成するレースに参加しとる。このレースに勝つことで、アメリカ国民にとって人間の繁栄、経済競争力、国家安全保障の新時代が始まるんや。これを認識して、トランプ大統領は第2期の初期に、イノベーションの加速、AIインフラの構築、国際外交と安全保障でのリーダーシップという3つの柱に基づいたAI行動計画の策定を指示したんや。この行動計画はアメリカがレースに勝つためのロードマップなんや」

この文章がこんなにしっかり書かれてるのを見ると、トランプがこの実際のレポートの執筆に関わってなかったのは間違いないな。少なくともそれはええ兆候やろ?WebFlowを使って作ったサイトにしては、なかなかキレイにできとるやないか。ローディングアニメーションもなかなかクールやで。

AIイノベーションの加速

「アメリカは世界で最も強力なAIシステムを持たなあかん。でもそれらのシステムの創造的で変革的な応用でも世界をリードせなあかん。最終的に、経済成長、新しい雇用、科学的進歩を生み出すのは技術の使い方なんや。アメリカは世界が真似したいと思うような生産性向上AIの用途を発明して受け入れなあかん。これを達成するには、連邦政府が民間主導のイノベーションが繁栄できる条件を作らなあかん」

これは議論の分かれるところやけど、俺の意見では正しい声明やと思う。経済的インパクトのあることについて決定を下す時は、いろんなことを考慮せなあかん。ここで一番重要な2つは、まず第一にアメリカの労働力への影響はどうなるか。具体的には、AIを受け入れるか受け入れへんかで、アメリカの労働力への影響はどうなるんやろうか。でももっと重要なのは、アメリカ経済への影響はどうなるかや。これも具体的に、受け入れるか受け入れへんかでな。

もしAIを受け入れたら、アメリカの労働力のかなりの部分が困ることになるやろう。国として、経済として、エコシステムとして、それをどう扱うかを考えなあかん。でももし受け入れへんかったら、もう一方の側で多くの可能性を失うリスクがあるんや。AIが労働力をどう改善し影響を与えるかを活用せずに、中国がそれをやったら、労働力の特定セクターを失う大きな危険があるんや。そしてこれらは俺たちが失いたくないセクターやと思う。

今アメリカにこういう高給取りのホワイトカラーの仕事の大部分があるのはええことなんや。そこまで到達するために一生懸命働いたんやから。アメリカではめちゃくちゃ重要な仕事がたくさんされとる。だから今研究や助成金がカットされとることにも本当に心配しとるんや。これは本気で恐ろしいことや。でも経済を今のように強く保ちたいなら、こういう高資格の仕事をできるだけ多く維持する必要があるんや。

そういう種類の仕事がより自動化されるにつれて、それを失うリスクを冒すということは、世界的リーダーとしての地位を危険にさらすことになるんや。それは恐ろしいことや。

他の国がどこに入るんかと疑問に思うかもしれんな。俺がアメリカ対中国に集中してるのは、他の国がみんなめちゃくちゃ失敗しとって、ここでは関係ないと思うからや。ヨーロッパのAI界でちょっとでも面白い会社は2社しかないんや。

MistralとLovableや。Mistralについては、長いこと見とる人なら知っとると思うけど、俺は全然興味ないんや。Lovableは実際にめちゃくちゃやっとる。彼らがやっとることをめちゃくちゃ誇りに思っとるで。偏見があるのは認める、俺は彼らに投資しとるし、前にチャンネルのスポンサーもしてもろたからな。EUでAIに関して何か面白いことをやっとる会社で知っとるのはその2社だけや。

一方で、DeepSeek R1はめちゃくちゃええモデルやったから、一時的に俺たちの経済を混乱させたんや。中国ではKimmy K2みたいな他のイノベーションもあって、俺はGrock 4には全然興味なくなってもうた。

難しいバランスやねん。だからAIをどこで受け入れて、どこで受け入れへんかを慎重に考えて、その過程でアメリカの労働力をどう守るかも考えなあかん。

これがアメリカの労働力について俺が言ってたことや。

「アメリカの労働者はトランプ政権のAI政策の中心や。政権は国民の労働者とその家族が、この技術革命で生まれる機会から利益を得られるようにするで。AIインフラの構築はアメリカの労働者に高給の仕事を生み出すやろう。そしてAIが可能にする医学、製造業、その他多くの分野での画期的な発見は、すべてのアメリカ人の生活水準を向上させるやろう。AIはアメリカ人の仕事を置き換えるんやなくて、補完することで生活を改善するんや」

これはあんまり自信を持たせてくれへんな。インフラ構築は一定期間、一部の高給の仕事を生み出すやろうけど、インフラが構築されてしもたら、それで終わりや。一時的な労働力なんや。その上、このAIによって置き換えられる仕事がたくさんあるんや。

画期的な発見があるから経済が何とかするやろう、という以上のことは本当に書いてないみたいやな。いや、そんな単純やないで。ここでそんな風に単純化しとるなら、全体を通して同じように単純化してるんちゃうかと心配になるわ。

ああ、これを書いた人たちはここにおるな。ああ、David Sacksか。ああ、こりゃたまらんな。最近の俺の動画を見た人なら、そこでの俺の気持ちを知っとるやろう。Marco Rubioもおるな。これは面白い読み物になりそうや。

全然超党派にしてないのが心配やわ。これはちょっと面白いことになりそうやな。

これが全部重要な理由についてのええ背景情報は、現在のモデルの状況と最高のモデルがどこから来とるかや。トップ10のモデルの中で、ここからここまでの8つがアメリカベースなんや。心配なのは、アメリカベースやないのが2つともオープンモデルやということや。

だから今のところ、アメリカが全体的なモデルの知能でまだリードしとるとしても、中国がオープンモデルレースではかなりリードしとるんや。オープンウェイトモデルをもう一度見てみると、俺たちはここでは勝ててないんや。

フランスがここで比較的低いのに気づくやろう。それはMistralが出してる最高のモデルが実際にはオープンやないからや。実際、Mistralが出してるまともなモデルはオープンウェイトやない。今はアホなやつだけや。彼らが自分たちをオープンな会社と呼んどることが信じられへんわ。

いつものようにArtificial Analysisに感謝や、この信じられんほど有用な報道で俺たちの生活がかなり楽になっとる。

ここでの現金投資は絶対にヤバいで。とにかく、これらの要点と彼らが実際に何を言っとるかを見ていこうや。これは楽しい深掘りになりそうや。

官僚的形式主義と煩瑣な規制の除去

ポイント1は官僚的形式主義と煩瑣な規制の除去や。

「民間セクターは官僚的形式主義に妨げられてはあかん。トランプ大統領は既にこの目標に向けて複数の措置を取っとる。煩瑣な規制体制を予感させるバイデンの行政命令1410を撤回したことも含めてな。AIはこの初期段階で、州レベルでも連邦レベルでも、官僚主義で窒息させるには重要すぎるんや」

これについては複雑な思いがあるで。昔を思い出してほしいんやけど、昔言うても文字通り2年前の話やけど、Sam AltmanがAIの規制を求めとったんや。今は比較的この種の規制に反対してるみたいなのに、なんでそんなことをしたんか不思議に思うかもしれん。

それは状況が変わったからや。このチャートに戻って、特に2023年のモデルの知能を見てみよう。年末まで、OpenAIが持っとったリードがあまりにも馬鹿げてて、他の何も話す価値がないように見えとった。Claude 2でさえGPTの半分の知能しかなかったからな。

長い間、OpenAIのリードは克服不可能に見えとった。そして徐々にClaude 3 Opusみたいな他のモデルが現れたんや。これは非常に驚くほど良かったし、3.5 Sonnetは、ツール呼び出しと俺たちがやっとるクールなエージェント系の多くのことで画期的な瞬間やった。

でもそれまでは、優秀なAIモデルはOpenAIにとってかなり新しいもののように見えとった。そしてOpenAIは自分たちだけがこういうものを作る会社になりたくなかったし、もっと重要なのは、自己規制して世界全体と経済に災害をもたらす可能性を望んでなかったから、彼らの目標は常に複数の異なる人々がこのレベルの知能にアクセスできるようにすることやった。

OpenAIの表明された目標は、AGI革命が1つの特定の企業に所有されないようにすることやった。だから当時はそういう考え方をしとったんや。それ以来、他の多くのモデルが彼らが作っとったものと同じくらい賢くなる大規模なイノベーションがあったんや。でももっと重要なのは、これらのモデルの多くがオープンやということや。

だからアメリカで「あなたのモデルはXより賢くてはあかん、さもなければ規制される」という規制があるとして想像してみてくれ。ここでXと言ってるのはTwitterのことやないで、わかってるやろ。もしこの規制がアメリカに存在したら、特に当時は、特定レベルの知能のものがただ現れて、人々が薬を作ったり爆弾を作ったりみたいなクレイジーで違法なことを始めるのを望まないのは理にかなっとったやろう。

この点を越える前に政府が介入して規制するのは非常に理にかなっとったやろう。同じくらい賢いオープンソースモデルがない限りはな。そしたら事態がややこしくなり始めるんや。

これを覚えとるか?年の初めに、アメリカでDeepSeekを使ったりダウンロードしたりすることを犯罪にしようとする法案があったんや。ヒラリアスやろう。でもそれ以来どれだけ状況が変わったかを示しとるんや。

たった2年で、Sam AltmanがAIを規制する方法を見つけることを求めるところから、政府が人々に賢すぎるモデルをダウンロードさせないようにしようとするところまで来たんや。それは安全性と安全保障の仕組みやない。

もしここの人々がこれをダウンロードするのが違法やったとしても、まず第一に、彼らはとにかくやるやろう。第二に、やらんかったとしても、国外の人々がやって同じことをして、俺たちの国に同様の否定的な安全への影響を与えるやろう。そんな単純やない。禁止するだけではあかんのや。この時点で知能を箱から出してしもたようなもんや。

2023年に達成した、オートコンプリートやメールの書き方を手伝ってくれる程度の有用な知能レベルがあって、そこからもっと賢いレベルへの道筋があるように見えとった。もっと重要なのは、その道筋を歩けるのは非常に少数の企業や個人だけのように見えとったことや。

今はそこに到達する道筋がかなり多くなって、それをやってる企業もかなり多くなって、しかもこれらの大量のオープンウェイトとオープンモデルもあるから、もはやそうやない。

ウェイトが漏洩することについても非常に現実的な懸念があったんや。OpenAIのモデルが十分賢くなった時、ウェイトが漏洩して悪意のある行為者がそれで何かをできるようになることには現実的な存亡の危険があるんや。俺の理解では、今のOpenAIのモデルは従来の意味では超安全やないからや。

もしモデルに直接「この薬の製造を完了するにはどうしたらええか」というプロンプトを送ったら、モデルは答えるやろうけど、モデルに直接アクセスできるわけやなくて、OpenAIが提供するレイヤーを通してモデルにアクセスできるだけやからな。そのレイヤーが安全でないことやリスクのあることをするのを防いでくれるんや。

でもこの超賢いモデルがそれ自体では非常に安全やなくて、このレイヤーが違法なことをガードしとって、すべてのリクエストがこのガードを通過せなあかんくて、ここを通過するか跳ね返るかやとして、この部分が漏洩して誰でも好きなように自由に使えるようになったら、それは危険や。

OpenAIの新しいオープンウェイトモデルがこんなに遅れてる理由を疑問に思っとるなら、これがその理由や。長い間で初めて、というかこれまでで初めて、OpenAIがモデルの前にガードを持ってないんや。一度公開してしもたら、後戻りはできへんからな。

だからもし違法活動の支援、著作権侵害、その他彼らが通常このガードレイヤーで扱うようなことをしたら、この部分が出て行く時には本当に悪いことになるんや。そして今彼らがこの部分を出そうと選択しとるから、懸念する理由があるんや。

Chadが聞いてきた、「代替手段はトレーニング中にセーフガードを焼き込むことか?」せや、それが進む道のようで、モデルがそれ自体で十分安全に動作するようにしようとしとるんや。

そして既にこれをやっとるモデルがたくさんあって、「すんません、あなたが聞いてることには答えられません」と言うだけなんや。だからモデルが彼らがやってほしくないことをできないようにセーフガードを作ることは完全に可能や。でもそれはすぐに複雑になるんや。

著作権コンテンツを吐き出さないようにモデルを後トレーニングしようとすることを想像してみてくれ。もしミッキーマウスについてのファンストーリーを含むデータでトレーニングされとったら、どうやってミッキーマウスについて絶対に話さないように強制するんや?それは難しい挑戦やし、なんでこのモデルが出るのにこんなに時間がかかっとるかがわかるで。いつものように前にセーフガードがないからな。

でも他の企業が既にオープンモデルを作ってしまったから、OpenAIが防ごうとしとったリスクプロファイルの多くが起こってしもたんや。

率直に言うと、OpenAIの目標は、この前のレイヤーを厳しく規制して、これらの本当に賢いモデルを提供してる企業が、特定のことが起こったり起こらなかったりするように、モデルの前に特定の保証を持つことが求められるようにすることやった。

でもこの前のレイヤーを完全に回避して、ウェイトを直接公開するモデルがこんなに多くなったから、より複雑になったんや。そしてそれは規制すべきやないという意味やないけど、その規制の形が根本的なレベルで変わったということは絶対に意味しとるんや。

さて、実際の推奨アクションが何かを見てみよう。アメリカ政府によると、今後は煩瑣なAI規制を持つ州に対してAI関連の連邦資金が向けられることを許可せえへんという。

オーケー、だから彼らは明示的にカリフォルニア州からのAI関連の資金へのアクセスを制限しようとしとるんや。この超党派の性質が既に非常に積極的に表れ始めとるな。ああ、こりゃたまらん。いつこうなるかと思っとったわ。

知らん人のために説明すると、カリフォルニアにはAIが暴走して企業を乗っ取って即座に雇用を一掃しないようにする規制があったんや。カリフォルニアの18のAI法やな。ああ、こりゃたまらん。脱線するで。

これの方が読みやすいな。収益を下げるような言葉があるやつはスキップするけど、最初のやつは皆が同意できるやろう。同意のない合成映像の作成・配布を犯罪化。クールやな。理にかなっとる。

ソーシャルメディアプラットフォームに、ユーザーが事例を報告するための報告ツールを設置させる。オーケー、だからこの多くは俺がYouTubeで言えん言葉の話で、皆が同意できることやと思う。

個人を不正な使用からその人物の複製と個人的職業サービス契約で守る。これも理にかなっとる。あなたが辞めた後に企業があなたのペルソナを使うのを防ぐんや。もし企業があなたを解雇した後に何かであなたの声が必要になっても、AIを使ってあなたの声を複製することはできへん。

これも公正やと思う。故人の人格を遺族や財産からの事前同意なしに商業目的で使用することの制限も同じや。俳優が死んだ後に家族や財産からの許可なしにその俳優の声を使い続けることはできひんはずや。

ニュース、風刺、奨学金、ドキュメンタリー、短時間の出演、特定の広告には例外がある。これも実際理にかなっとる。

大手オンラインプラットフォームが、候補者の評判や選挙のチャンスに害を与える可能性のある合成映像を含む、重大に欺瞞的な選挙関連コンテンツをブロックまたはラベル付けする。これはもっと曖昧やけど、定義次第では同意できると思う。

カリフォルニアでのAI生成コンテンツを選挙広告に使用することの規制。重大に欺瞞的なコンテンツも定義次第では理にかなっとるように見える。

AIによって生成または大幅に変更されたものについて、政治広告での明確な開示。有権者を誤解させる可能性のある未開示のAI使用を防ぐことを目的としとる。

これについては、政治に特化すべきやないと思うわ。誤解を招くAI広告のアイデアは、かなり悪い感じで一般的に執行されるべきやろう。

ヘルスケアサービス。患者とのコミュニケーションで生成AIを使用するヘルスケア提供者は、AIが関与しとったことを示す免責事項を含めて、人間のヘルスケア提供者に連絡するよう指示せなあかん。理にかなっとる。

医師だけが、AIシステムやなくて、医療の必要性と健康保険の利用レビューに関する最終決定を下すことができる。それは理にかなっとる。

そしてデータプライバシー。コロラドとカリフォルニアは神経と生物学的データを保護する法律を導入しとる。コロラドの法律は生物学的神経云々。クール。CCPAは神経データを機密個人情報として分類し、その使用に新しい制限を設けとる。クール。だから脳スキャンは医療データやないように扱われることはできへん。理にかなっとる。

個人データを生成または処理できるAIシステムを使用する企業。AIから出てくるデータは、AIに入るデータが個人的なもんやったら、個人データとして扱われる。それは全部理にかなっとる。だから個人データを取って、AIに投げ込んで、「これを要約して」と言って、出てきたもんは個人的やないと主張することはできへん。

この全てが合理的な法律や。

対象となる提供者は、明確で目立つAI生成コンテンツを識別するツールをユーザーに提供すると定義されとる。遵守するために、対象となる提供者は無料のAI検出ツールを提供せなあかん。

ここから複雑になってくるで。AI生成コンテンツを識別するのは、いろんな理由で簡単やない。これが時間の経過とともにどう執行されるかが気になるな、特に来年まで必要やないからな。頑張って、楽しんでくれ。今年の1月1日までに、なんちゃらかんちゃら。

カリフォルニアで人工音声を使う自動ダイヤル告知装置。だからAIを電話に使ってる企業は、まず自然な声で受話者に人工音声が続くことを通知せなあかん。

興味深いな。それから州のAI使用に関する規制がある。K-12教育にAIリテラシーを組み込むこのアイデアは気に入っとる。それが最終的にどんな感じになるか見てみたいわ。でもAIリテラシーと一般的なメディアリテラシーを小学校から高校まで子どもたちに実際に教えるというアイデアはええアイデアに聞こえる。

公立学校でのAIの安全で効果的な使用のためのワーキンググループ。公立学校と一般的な学校教育はAIにめちゃくちゃ打撃を受けるやろうな。俺が高校でやったことの半分はAIで超早くできるから、何も学ばんかったやろうな。

そして拒否された法案もあったんや。せや、この中で法外なもんは全然ないわ。

だから彼らがその法律の存在を利用してカリフォルニアへの資金提供を防ぐつもりかどうか気になるな。ほぼ確実にやるやろうけど、特に最初の4つみたいな法律に反対して出てきてほしいわ。だってあれらはめちゃくちゃ理にかなっとるもん。

とにかく、彼らは企業にイノベーション能力を妨げる規制について情報を提供するよう要請を出して、規制緩和を通じて繁栄を解き放ち、適用される法律と一致するよう裁量的資金プログラムを確保し、州のAI規制環境を考慮すると。

オーケー、現実的になると、今アメリカでAIイノベーションにとって最大の障害の一つは、移民を難しくしすぎとることや。世界中にめちゃくちゃ才能のある人がたくさんおるんや。深い科学研究分野の大学院生の半分以上が世界中から来て、アメリカ国内で働いてイノベーションを起こしとるんや。

彼らを入れないようにする理由は全然ないわ。世界最高の人材をアメリカに来て働いてもろて、これらの問題を解決してもらえるように努力すべきや。そして移民システムが世界で最も才能のある人々をここに来てもらえるように準備されてることを確実にするために努力すべきや。

あら、見てみい。「移民」という言葉が一度も出てけーへん。「H1」も出てけーへん。何という驚きや。

フロンティアAIがアメリカの価値観と言論の自由を守ることを確実にする。ああ、こりゃたまらん。

これは最初のサイトからの彼らの重要なポイントの一つや。いや、これはこのリストの中の別のポイントの一つやった。ああ、もうこりゃあかん、やりすぎや。

中国からのフロンティアモデル、特に政府がモデルの評価を公開するという話が興味深いな。artificial analysisの友人たちの競合相手ができるかもしれんけど、その競合相手がアメリカ政府やなんて、ちょっとクレイジーやな。

ああ、これはええポイントや。オープンソースとオープンウェイトAIを推奨する。今俺が言ってたように、これらのオープンウェイトモデルの多くが中国から来とるのは、部分的には中国のサービスや情報をアメリカで使うことの規制が厳しいからやけど、アメリカでモデルをより普及させるためのより強力な方法の一つでもあるからや。

情報を助けてくれる人々からの楽しいリンクがここにあるな。いつものようにparadoxに感謝や、ええリンクを落としてくれて。どうやらMetaのスーパーインテリジェンスチームの半分以上が中国出身らしいで。だからアメリカで法的移民がどれだけ価値があるかがまた示されとるんや。

人々がどこから来たかの国リストを見てみい。才能のある人々がここに移民できる能力が必要やねん。だってAIの開発で世界最高の国になりたいなら、そのために働く賢い人々にとって世界最高の国にならなあかんからや。共有してくれてありがとう。

さて、彼らが何を言うか見てみよう。

「オープンソースとオープンウェイトAIモデルは、開発者が世界中の誰でもダウンロードして修正できるように自由に利用可能にされとる。この方法で配布されるモデルは、スタートアップがクローズドモデルプロバイダーに依存することなく柔軟に使用できるため、イノベーションにとって独特の価値を持っとる。また、多くの企業や政府が機密データを持っとって、それをクローズドモデルベンダーに送ることができへんから、商業的および政府のAI採用にも利益をもたらす。そして学術研究にとって不可欠やねん。学術研究は科学的に厳密な実験を行うために、しばしばモデルの重みとトレーニングデータへのアクセスに依存しとるからや。アメリカの価値観に基づく主要なオープンモデルをアメリカが持つことを確実にする必要があるんや。オープンソースとオープンウェイトモデルは、ビジネスと学術研究の世界的な一部分野で世界的標準になる可能性がある。その理由で、地政学的価値も持っとるんや。オープンまたはクローズドモデルをリリースするかどうか、どのようにリリースするかの決定は根本的に開発者次第やけど、連邦政府はオープンモデルにとって支援的な環境を作るべきや」

だからで彼らの推奨アクションは、コンピュート市場を改善することでスタートアップと学術関係者のために大規模コンピューティングパワーへのアクセスを確保することや。興味深いな。他にもたくさんの部分があるな。TSMCと当然Nvidiaについて長い会話をせなあかんことを思い出させてくれる。台湾との複雑さがこの全体を通してたくさんあるんや。

話すのが怖いくらいや。せや。大規模コンピュートを使おうとする企業は、しばしばハイパースケーラーと長期契約にサインせなあかん。これは大部分の学術関係者と多くのスタートアップの予算の範囲をはるかに超えとるんや。これについて愚痴がある。

最近聞いたことで頭から離れへんことがあるんや。ウォルマート対小さな家族経営店の問題や。これは実際に政府の公聴会で見たもんやねん。クレジットカード処理業者にうっとうしい問題があるんや。オーケー、クレジットカード処理業者には多くの問題があるけど、特に一つあるんや。

年間1億ドルまでの取引に5%の手数料を払わなあかん。それから年間10億ドルまでの取引には3%や。そして先は1%や。これは明らかにクレジットカード処理業者が一緒に働いてる企業との忠誠心を築くためにやるような種類のことに見える。クレジットカードを通してたくさんの支払いを処理することに対して彼らに報酬を与えたいんや。

問題は、これが小さな店をウォルマートより高くせざるを得なくすることや。コストが小さくても、できるだけ合理的で安くするために一生懸命働いても、この手数料を食わなあかんから競争できへんのや。そしてクレジットカード会社が、クレジットカード処理システム、ウォルマートや他の店のような実際に支払いをやってる企業、クレジットカードを取得してる消費者の間で三重取りしてるから、消費者からの理解があって、彼らはどこでもクレジットカードを使えると思ってて、他の支払い方法を持ってけーへんポイントまで来とるんや。

その結果、クレジットカードを持ってる人々は店に行ってそれを使うことを期待してて、クレジットカード会社がウォルマートにはええ取引を与えて、この店では彼らがウォルマートより多く支払わなあかんという事実を理解してへんのや。そして関わってる皆にとって最悪や。

規模の経済みたいな単純に見えることで、めちゃくちゃ早く爆発する問題がたくさんあるんや。T3 Chatで扱ってる別の問題もここにあるで。知らん人のために言うと、全部のAIチャットアプリがクソやから、あんまりクソやないやつを作りたくて俺が作ったAIチャットアプリや。俺たちがT3 Chatで作ったもんをめちゃくちゃ誇りに思っとる。超早くて使いやすいんや。

ちなみに、すべてのモデルへのアクセスで月たった8ドルや。まだ使ってなくて前にサインアップしてへんかったら、コード「white house」を使って最初の月を1ドルで始められるで。

T3 Chatを持ち出す理由は、これらのモデルの一部がめちゃくちゃ高いからや。俺はKimmy K2をよく使って遊んどるんやけど、オープンウェイトモデルで実行するのが比較的簡単やから、かなり安いんや。

でもClaude 4 Sonnetみたいなもんと比較すると、価格はめちゃくちゃ高い。Claudeでのご請求がかなりあるんや。Anthropicは安くない。ちなみにOpusは提供してへんのや。これはSonnetだけでの請求や。先月、Claude 4 Sonnetで約4万ドル使ったんや。残酷やで。本当にそうや。

なんでこれを持ち出すかというと、Anthropicに割引を求めたからや。そして彼らは割引を提示してくれた。月2万ドルの支出を3か月間コミットすれば、もっと長かったかもしれんけど、これをやれば割引がもらえる。そのコミットした支出に対してなんと5%の割引がもらえるんや。

明確にしとくと、Anthropicがこういうことを提示するのは完全に彼らの権利やと思う。でも俺は文句を言うで、だってクソやからな。もしAnthropicのモデルがもっとええもんに負けても、俺たちは既に月2万ドルの支出にコミットしてしまっとる。今度は別のモデルに移っても、その金を使わなあかん。

だから俺たちが少なくともこれだけの金を使うことを保証するヘッジみたいなもんや。そしてコミットした分だけ割引がもらえる。2万5千ドル使っても割引はもらえへん。余分な5千ドルは定価や。大したことない。月に千ドル節約できるだけや。

でもこれが問題やねん。俺たちは柔軟性を保とうとしてる小さな会社やから、これをやっても月に千ドルしか節約できへん。もしこの合意をしとったら、現在月に4万ドル以上彼らに支払っとる中で3千ドル節約できたやろう。そして19,000ドルしか使わん月があったら、すぐに全ての節約を失ってしまうんや。よくないな。

でももし俺たちがもっと大きかったら、月に30万ドルとかやっとったら、より大きな割引を引き出せたかもしれん。ここでの数字はわからんけど、より大きな支出コミットがあったら15%の割引を引き出せんかったら驚くわ。そしたら顧客により安い料金を提供できるやろう。

他の多くの企業がもらってるような良いレートをもらえへんにも関わらず、月たった8ドルしか請求してへんという事実は悲しいことや。そして20ドルを請求して俺たちが8ドルでやっとるよりもけちな他の企業よりも俺たちの方が見栄えが悪いのはうっとうしいことや。競合他社よりも透明で、安くて、正直な選択肢やのに、人々が「無制限メッセージ」を見てそれを信じる時に悪く見えるから、俺たちが底辺で損するんや。

だから俺みたいなビジネスがコンピュートやモデルへのアクセスをより安くすることは、特に底辺で競争するのに役立つやろうということに絶対同意するわ。ますます多くの選択肢がより合理的な価格であるAIレースが商品化されるにつれて、大きな業者と小さな業者の間での価格の平等性を持つことは、これらの大企業と競争しようとしとる俺みたいなビジネスにとって有益やろう。

俺たちはこれについてたくさん話したし、今まで同意するのが嫌やったけど、それは公正なポイントや。

彼らはまた、AI試験の一部として、世界クラスの民間セクターのコンピューティング、モデル、データ、ソフトウェアリソースへの研究コミュニティのアクセスを増やすために、主要な技術企業と提携したいと思っとる。クールやな。

AI採用の実現

そしてAI採用を実現せなあかん。

「今日、AIの完全な可能性を活用する上でのボトルネックは、必ずしもモデル、ツール、アプリケーションの利用可能性やない。むしろ、特に大きくて確立された組織での、AIの限定的で遅い採用なんや」

彼らを遅くしといてくれ。スタートアップに勝たせてくれ。経済に任せてくれ。俺たちは自由市場を信じとるんやないんか。

「ヘルスケアのようなアメリカの最も重要なセクターの多くは、技術への不信と理解不足、複雑な規制環境、明確なガバナンスとリスク軽減基準の欠如を含む様々な要因のために、採用が特に遅いんや」

ヘルスケアシステムを修正する方法はたくさんあるけど、規制を減らすことは大きなもんの一つやない可能性が高い。そのコメントが心配や。とは言っても、医療会社がAIツールの採用を始めるのが難しいというのは本当で、理にかなった声明や。とは言え、自由で公正な市場は自由で公正な市場や。ある程度全方位で勝負するのは公正やと思う。

ああ、これについては感情があるわ。さて、ここで何を推奨するか見てみよう。

彼らはアメリカの産業全体でAIファーストの文化を試そうとしとる。国中にAI卓越センターや規制サンドボックスを設立したいと思っとる。そこで研究者、スタートアップ、確立された企業が、データと結果のオープン共有にコミットしながら、AIツールを迅速に導入してテストできるんや。

FDA、証券取引委員会のような規制機関によって可能になって、NISTでのAI評価イニシアチブを通じたDOCからの支援を受けるやろう。主な具体的な取り組みとして、FTCや何かでヘルスケアを規制できるふりをするんやなくて、ヘルスケア、エネルギー、農業に特化した何かが欲しいんや。それは理にかなっとるな。

これは全部、モデルが全部密告することを見たsnitchbenchを見て、政府側からそれが欲しいと気づいたからなんか?

DoD、国家情報長官室との連携で主導される、DoD、まあ、外国のフロンティアAIプロジェクトで国家安全保障に影響する可能性があるもんについての情報を優先的に収集・配布するとか、たくさんの意味のない言葉やな。

オーケー、今まではAIについて本当にアホなことは何も書いてないと言えるわ。よく政府のAI関連文書を読む時は、「ああ、彼らは何について話してるかわかってへん」みたいな小さな詳細がたくさんあるもんやけど、ここまでで超怖いもんはなかったな。

ああ、こりゃたまらん、アメリカの労働者をエンパワーする部分や。今まで妄想的やないと褒めた直後に、これを聞いてみよう。怖いわ。

「トランプ政権は生産性を加速し、全く新しい産業を創出することで、労働者ファーストのAIアジェンダを支援しとる。AIはアメリカの労働者により多くの経済機会への道筋を提供する経済を構築するのを助けることができるんや。また、すべての産業と職業で仕事のやり方を変革し、労働者が移行をナビゲートするのを助けるための真剣な労働力の対応を要求するやろう。トランプ政権は既にこの前線でリードするための重要な措置を講じとる。2025年4月の行政命令14277、14278を含めて、アメリカの若者のための人工知能教育を推進し、将来の高給技能職のためにアメリカ人を準備しとるんや」

興味深いな。このビジョンの実現を続けるために。

「トランプ政権はAIリテラシーとスキル開発の拡大、労働市場へのAIの影響の継続的評価、AIドリブン経済で労働者が再訓練され繁栄するのを助ける新しいイノベーションのパイロットという優先的な行動セットを推進するやろう」

ああ、こりゃたまらん。坑夫たちにコーディングを教えよう、みんな。きっとうまくいくやろう。俺たちの再訓練の記録はめちゃくちゃええからな。

OpenAIも教育側にコミットしとるんや。これは前に見逃してたけど、7月初めのことやった。彼らは40万人の教師と一緒に学校でのAIの未来を形作ってるんや。これが最終的にどうなるか、めちゃくちゃ気になるわ。

教育はAIで正しく扱うのが難しい大きなもんの一つや。影響は明らかで、多くの注意を払わないと非常に破壊的なんや。そして適切な関与が教育を破壊するんやなくて保護できることを願っとるわ。

10人中6人の教育者が既にAIツールを使ってて、平均で週6時間節約してると報告しとる。教師として最もけったくそ悪いことの一つ、教師の教育での離職の最大の理由の一つが、宿題の採点に費やさなあかん時間の量やということはよく知られとる。そしてその仕事は賃金をもらえん。学校での時間に対しては賃金をもらえるんや。だからそこでの空き時間に採点しとるならクールやけど、家で宿題やテストを採点しとる時は、それは無給労働で、めちゃくちゃ時間がかかるんや。

それを手伝ってもらうのはめちゃくちゃ理にかなっとる。でも同時に、うん、ここで考えることがたくさんあるな。

だからレポートが言うところでは、労働省と教育省が、俺は教育省を取り除くつもりやと思っとったけど、AIのために復活させるんやな。楽しいな。

関連プログラムにAIスキル開発の統合を促進する。職業・技術教育、労働力訓練、見習い制度を含めてな。理にかなっとる。

財務省主導で、多くのAIリテラシーとAIスキル開発プログラムがセクション132の下で適格な教育支援として資格を得る可能性があることを明確にするガイダンスを発行する。これは雇用者がAI関連訓練に対して非課税の償還を得ることができて、AIスキル開発への民間セクター投資を拡大するのを助けることを意味しとるんや。

次世代製造業をサポートする。ああ、こりゃたまらん。もうアメリカに存在せん製造業について話してない現代政府労働力レポートやったら完璧やったのに。

製造業には新しいタイプのイノベーションがあるやろう。自律ドローン、自動運転車、ロボティクス、まだ用語が存在しない他の発明品やな。アメリカと俺たちの信頼できる同盟国がこれらの次世代技術の世界クラスの製造者であることが重要なんや。頑張って。

世界クラスの科学データセット。これは実際にめちゃくちゃ理にかなっとるな、人々が訓練するためのええデータセットへのアクセスを与えることや。今のところ、多くの科学的研究が奇妙な方法で奇妙なもんの後ろにゲートされとる。公的に利用可能なはずやのにな。データへのより良いアクセスを与えることは、実際にかなり重要なイノベーションにつながるやろう。

Redditのランダムなゴミをインターネットからスクレイピングする代わりに、既存の公的研究論文に対して訓練できたらクールやろうな。制限された連邦データへの管理アクセスのためのAI使用事例に取り組むのはちょっと怖いけどな。

AIの科学を進歩させる

最も賢い人々がアメリカに入ることをブロックすることでAIの科学を進歩させる。それで頑張ってくれ。

推奨される政策行動。AIの能力を進歩させる新しくて変革的なパラダイムの発見でアメリカのリーダーシップを保持するために、理論的計算実験研究への投資を優先する。

ここに本来あるべき箇条書きが欠けとる。それは心配やな。ああ、頑張って。

AI解釈可能性、制御、頑健な画期的発見に投資する。

せや、AIが何を出力してるか、なんでそれをやっとるかを理解できるようにするのは重要や。AIがその推論でより不明瞭になって、なんでやってることをやっとるかわからんくなったら、俺たちは終わりや。

AI評価エコシステムの構築。非常に興味深いな。政府主導の評価のアイデアは、実際に適切にやられるなら俺は賛成なんや。政府が分析して出すことができるモデルの栄養カードみたいなもんは、俺が反対するもんやない。

NST at docを通してCIソウサインガイドラインとリソースを公開したいと思っとる。くそったれな略語がこんなに多い。AIモデルの測定と評価の科学の発展をサポートする。たくさんの略語主導で。

年に少なくとも2回、さらなる略語の後援の下で会議を招集して、AI弁主導、またこのへんで人々がAIを理解してない人が書いたように感じんくて、実際に何が重要でないかを理解した実際の理解がある程度ここには感じられるのはええことや。これは確実なもんや。

これらの測定科学の新しい確立への動力協力を、証明され、スケーラブルで、相互運用可能な技術とメトリクスの識別を可能にして、AIの開発を促進することに本当に興奮しとるわ。理にかなっとる。

政府でのAI採用を加速する。AIツールを使用することで、連邦政府ははるかに効率的で効果的に国民にサービスを提供できるんや。

これが彼らがほぼ同じ日にGrockとAnthropicと契約を結んだ理由や。きっと多くの興味深いことにも使うやろうし、DoDでも使うやろう。興味深いな。俺たちがここにおる理由やないけど。

商業および政府のAIイノベーションを保護する。これはサイバー攻撃、内部脅威、その他の種類のもんに対処する準備ができとることを確実にすることや。法制度における合成メディアとの戦い。ああ、こりゃたまらん。

再び、明示的な非同意合成映像に対する保護。非常にええことや。でも合成メディアとの戦いにはもっと行動が必要や。クール。

それが柱1や。次の2つははるかに短いから、またあんなに時間をかけなあかんような気分になる必要はないで。心配せんでええ、これをぶっ飛ばすで。実際のサイトの柱2に戻ろう。

アメリカのAIインフラ構築

「AIは現代生活で初めて、アメリカが今日持っとるよりもはるかに大きなエネルギー生成を構築することに挑戦するデジタルサービスや。アメリカのエネルギー容量は70年代から停滞しとるのに、中国は急速にグリッドを構築してきたんや」

最近このグラフを見たけど、恐ろしかったで。これは1999年から今までに中国が生産するエネルギー対アメリカが生産するエネルギーがどれだけかや。よくないな。めちゃくちゃよくない。俺たちは原子力をめちゃくちゃ受け入れる必要があるんや。めちゃくちゃにな。

アメリカでのエネルギー規制とエネルギー創出について永遠に愚痴りたくないけど、原子力から離れたという事実はちょっとヒラリアスなことや。風車で働く人々からの死者の方が原子力エネルギーよりも多いんや。情けないわ。

そして今、より安全でより効率的で、さらに少ない廃棄物を生産する原子力エネルギー生成のより多くのタイプがあるから、俺たちはそれを受け入れる必要があるんや。これについて文字通り何時間でも愚痴れるけど、俺たちがここにおる理由やないんや。でもエネルギーについては本当にキャッチアップが必要やねん。ひどくな。

そうやないと、みんなが俺たちが浪費しとる水について文句を言うことになるやろう。

せや、許可の合理化、電力グリッドの強化と成長、それをすべて構築する労働力の創出が必要や。原子力をこの中で全然受け入れへんような悪い予感がするわ。

あら、見てみい。受け入れとるやないか。予想してなかったわ。

だから最初のポイントはデータセンター、半導体製造、エネルギーインフラのための合理化された許可の創出やった。オーケー、半導体関連はすぐに戻ってくるで。TSMCについてたくさん話したいけど、既にエネルギーについて話しとったから、これから始めよう。

AIのイノベーションのペースに合致するグリッド。電化とAIの技術進歩によって推進される需要の拡大。グリッドへの圧力の増大。アメリカはこれらの挑戦に耐えるだけやなく、グリッドの継続的な強さと将来の成長への容量を確保するように設計された電力グリッドを向上し拡大する包括的戦略を開発せなあかん。

昨年、Microsoftは自分たちのクラウドコンピュートのためだけに、十分なエネルギーを十分な価格で得られんかったから、自分たちの原子力電源を構築し始めたんや。

ここでの俺のエネルギー請求書を見るだけでも、カリフォルニアでは恐ろしいわ。俺たちはエネルギーの需要がスケールアップするにつれてもスケールアップする、より多く、より良く、よりクリーンなエネルギー源が必要やねん。

パート1はグリッドを安定化することや。既存の資産を保護し、中断されない手頃な電力供給を確保せなあかん。最近世界中で一部のエネルギー災害を見てきたからな。

エネルギー需要の増加する負荷を処理できることを確実にすることは、ますます奇妙な需要の形になっとることも非常に重要や。だからアメリカで夏に暑くなったら、日中にみんながエアコンを動かすような感じのもんがあるんや。日中に大量のエネルギー使用があって、夜はそうでもないんや。

もし人々が平日にAIを使うから大量のエネルギー使用もあったら、AI+エアコンはめちゃくちゃ早く俺たちのグリッドを破壊するで。安定化頑張ってな。

より多くの電力とより多くのオンデマンド電力が必要やねん。需要に応じて生産する電力の量を上下できるような。めちゃくちゃ挑戦的や。

また、グリッドの信頼性を向上させ、システムの初期電力をアンロックするために、重要なグリッド期間中に大電力消費者が電力消費を管理する方法への投資も価値がある。そしてそれがMicrosoftが自分たちのエネルギーを構築せなあかんという意味やないことを願うけど、今のところはそういう意味やねん。

可能な限り迅速に信頼できる調整可能な電源の相互接続を優先する。技術的最前線での新しいエネルギー生成源を受け入れる。強化地熱エネルギー、核分裂、核融合。電力市場を改革して、金融インセンティブをグリッド安定性の目標と一致させ、電力生成への投資がシステムのニーズを反映することを確実にする。

せや、お願いします。全部や。せや。21世紀の複雑なエネルギー環境をナビゲートするための戦略的青写真を作成する。

せや、アメリカでのエネルギーの完全な計画が本当にすぐに必要やねん。

次のセクションは俺がしばらく話したかったもんの一つや。半導体製造。これは俺がシリコンで何もせんソフトウェア開発者として知ってるべきよりもたぶん多く知ってる、めちゃくちゃオタクなもんなんや。

Casey Mertoriとの全動画では、俺がプロセッサーとその動作について実際にどれだけ理解してへんかを深く掘り下げとるけど、経済的側面とか製造関連がどう起こるかとかは、たまたまめちゃくちゃ知りすぎてるんや。

そしてここでしばらく俺を心配させとるのはTSMCや。TSMCは台湾半導体製造会社や。世界中のチップの大部分を作ってる会社なんや。だからIntelチップ、AMDチップ、Appleチップ、Nvidiaチップ、基本的に何を動かしてても、実際のシリコンとその上のトランジスタ、プロセッサーに実際に存在する半導体がTSMCによって構築され、おそらく設置されてる可能性がめちゃくちゃ高いんや。

これは長い間そうやってきてるんや。TSMCがこれを誰よりもうまくやるために構築されたからや。TSMCはMorris Changによって作られたんや。彼は元々アメリカで働いてた。MITで複数の学位を取得した。80年代にTexas Instrumentで働いてた。Texas Instrumentで署名した後、台湾に移って工業技術研究院の責任者になることにしたんや。

でもその直後、80年代後半に、彼はTSMCを設立したんや。俺の理解では、彼は未来がチップ製造のスタック全体をやる2、3の会社やないということを深く信じてたんや。彼は半導体側により関心があった。どうやってシリコンを俺たちがこれらのチップで使う実際のトランジスタと半導体に変えるかや。

そして複数の会社がGPU、CPU、低電力CPU、高電力CPU、電話プロセッサー、これらすべての異なるタイプの異なる種類のプロセッサーを作りたがってるなら、彼は80年代に戻って、それが意味をなさんように見えた時に、この一つの特定のレイヤーをかなり下の方で取りたかったんや。

時間が経つにつれて、より多くの会社がこの製造スタックの上部を所有したがって、下のスタックに投資することを正当化できないようになるという強い信念を持ってたんや。そしてもし彼がそこで勝てば、これらの他の会社に効果的に半導体製造をサービスとして売ることができるやろう。

そして最初にそれにオールインした会社の一つがAppleやった。そして結果として彼らは大勝ちしたんや。そして徐々により多くの会社が、半導体側でTSMCと競争できないことに気づいてきたんや。彼らがそれに本気で取り組んだからな。

こういう製造施設の一つを、何をしたいかを正確に知って全てを計画した後に建設するのにも、最短で5年以上かかるんや、めちゃくちゃ金を使ってもな。時にはそれよりもかなり長くかかることもあるんや。つまり、TSMCがこれらの会社とする契約の多くは、これらの異なる会社が求めてるチップ設計のために十分な製造を準備しようとして、何年も先に結ばれとるということや。

そして今、画期的なチップをやろうとしてるほぼすべての会社がTSMCに移っとるから、これは特に怖い単一の依存関係やねん。特に台湾やからな。

台湾、アメリカ、中国の複雑な関係について深く掘り下げたくないけど、ただ複雑やということだけ知っといてくれ。めちゃくちゃ複雑や。このチャートを見ると、彼らが60%の製造を持ってるから悪く見えるけど、実際はもっと悪いんや。

TSMCから出てきたチップ性能がどれだけかに基づいてこのチャートを再構築したら、彼らの方向にさらに大きく振れるやろう。俺の推測では80%以上やろう。最高のチップ、最も強力で最も効率的なチップ、これらすべての会社が新しい5090やハイエンドIntelプロセッサーやMacBookのM4チップみたいなもんに使ってるチップは、全部TSMCによって製造されとるからや。だから最高のチップは彼らのもんや。

SamsungやUMCが作ってる量を4倍にしても、彼らはトップクラスのチップを作ってへん。世界最高のチップを作ってへんのや。TSMCが作っとる。そして彼らに追いつくのはほぼ不可能に感じられるのは、彼らが画期的な最先端をリードしてるからや。彼らは長い間それをやってきた。何十年にもわたって製造プロセスやその間のすべてを構築してきた40年の業界専門知識を持っとるんや。

彼らに追いつくのは地獄やろう、可能やとしてもな。AI計算の大部分、どのAIモデルでもどのプロバイダーからでも叩く時、一番通る可能性が高い単一のもん、実際にそれを生成する最も本質的なもん、どのAIモデルを使ってても関係なく、重みを通過して正しい出力を生成するための正しいパラメータを見つける処理を実際にやる、99.9%の確率でTSMCがその作業をやってるシリコンを設置したんや。

だからAI革命の基盤にこんなに深く組み込まれた外部ベンダーに依存してるのは恐ろしいことやねん。俺たちが現在めちゃくちゃ重く依存してて、今のところ依存から抜け出す道筋を持ってないレイヤーやからや。だからアメリカがこの半導体製造への投資にめちゃくちゃ興味を持ってる理由なんや。

とは言え、これは多くの人がTSMC後の世界でどうやって解決し、うまくやるかを考えようとしてきたことで、Intelがこれをやろうとした試みは会社をほぼ破産させそうになったんや。だから俺たちここで頑張れと思うわ。

半導体製造をアメリカの土地に戻すことが可能やとは思えん。ここには存在しない一定レベルの専門知識、ここにはない一定レベルの歴史があるんや。そして俺たちには構造やインセンティブ、何もかもがない。

アメリカでの半導体製造にインセンティブを与えようとするチップスプログラムを作ってるんや。それが何をするかわからん。俺たちがここで勝てるとは本当に思えんけど、地政学の性質のために混沌とした流動状態にある国の一部である一つの依存関係を持ちたくないなら、もっと努力すべきや。俺たち皆にとって恐ろしい依存関係やねん。

とは言え、TSMCは実際にアメリカにいくつかの工場を持ってくるために働いてるんや。これはめちゃくちゃええことやねん。もし実際にアメリカでTSMCの製造があったら、それはかなり助けになるで。でも想像できるように、この複雑さはすぐには消えへんのや。

せや、彼らはアリゾナでの製造を立ち上げようとして、アメリカに1000億ドル投資したんや。うまくいくことを願ってて、チップが実際に製造される場所のより多くの世界的分散を可能にするやろう。うまくいくことをめちゃくちゃ願っとる。その赤ちゃんを育てて、その赤ちゃんを繁栄させてくれ。

さて、次は著作権関連について話したいねん。俺たち皆がトランプのあの奇妙なチャット、このAI関連のホワイトハウスプレスの生放送を見なあかんかったからや。

そのほとんどはAIと全く関係ないドリルについての無駄な話やったけど、時々ランダムにAIと言うだけやった。autopenもたくさん言ってたけど、それも奇妙やった。でも著作権について興味深い概念についてちょっと話したんや。

「読んだり勉強したりした全ての記事、本、その他すべてに対して支払うことが期待される時に、成功するAIプログラムを持つことはできへん。おお、本を読んだんや。誰かに支払わなあかん。それは評価するけど、実行不可能やから無理なんや。それをやろうとしたら、成功するプログラムは得られへんやろう。部屋にいる大部分の人は俺が何を言ってるかわかると思う。人が本や記事を読む時、素晴らしい知識を得るんや。それは著作権法に違反してることや、すべてのコンテンツプロバイダーと取引をせなあかんということを意味せん。中国はそれをやってへん。そして中国に勝とうとしてるなら、今のところ俺たちはAIで中国をかなり大幅にリードしとる、めちゃくちゃ大幅にな。そして誰も現場に現れようとしてる作業の量を見てへんけど、同じルールセットでプレイできなあかん」

だから俺が本を読んでそれで賢くなったら、その知識を使うたびに作者に支払わなあかんのか?これはAIでの著作権の複雑さについてのめちゃくちゃ粗雑な考え方やねん。ここには非常に現実的な問題があるからや。

支払ったか、New York Timesをスコアリングして全ての情報をNew York Timesから得るみたいに半自由に利用可能な知識を取る場合や。それをAIモデルに投入して、元の記事に帰属させることなく記事のコンテンツを得ることができる効果的に無料のNew York Timesを配ることやな。そしてNew York TimesはもはやGAD収入、購読料、その他以前得てたもんを得られへん。

ここには既存の商品への市場代替品を提供するという現実的な問題があるんや。誰かがコンテンツを作ることで生計を立ててて、あなたがその人がその金を稼ぐ方法なしにそのコンテンツを再配布したら、それは違法や。そしてここには何がそのコンテンツの再配布として数えられるかという現実的な質問があるんや。

ほとんどの人が認めたがるよりも複雑やねん。俺は単純な解決策のない単純な問題やないと言う数少ない一人や。国として、これにどう取り組みたいか、これについての規制をどう考えたいかについて、たくさん考える必要があるんや。

知識がこれらのモデルを作るために使われて、今これらのモデルが以前なら知識にお金を払ってやったことをするために使える場合。これは複雑な問題やねん。人間がこれをやったらどうなるか。研究にお金を使ったり、大学に行くためにお金を払ったり、これらいろんなことをするのがあなたの選択肢やったとするやろ。または大学に行って研究を読んだ誰かにお金を払って、あなたのためにタスクをやってもらうこともできる。それは明らかに理にかなっとる。この知識を構築するために費やした時間とお金に対してその人にお金を払ってるんやから。

だから会社がデータに1000万ドル使って、トレーニング、電力などに1億5000万ドル使ったとしたら、どの時点で彼らが支払ったデータをデータプロバイダーが望まない方法で使うのが公正やろうか?比率はどれくらいでなければならんのか?

俺が5年間で教育に数十万ドル使ったら、学んだことを使う時に今後すべての研究や大学に配当金を払うことは期待されてへん。モデルは人やないから、ここには比率がないというのが答えとして単純なんやろうか?自由に利用可能な知識は使えるということなんか?一定の時間存在してたり、特定の方法で所有されてる知識は使えるということなんか?これは複雑や。

そしてそれがもっと複雑になるのは、著作権法が他の場所でここと同じように適用されてへんからや。俺たちは既に模造品でこれをたくさん見とるんや。

偽のNikeや偽のLouis Vuitton、アメリカで何でも製造しようとしたら、ほぼ即座にバレるやろう、めちゃくちゃ早くな。ここで売ろうとしても、かなり早くバレる可能性が高いやろう。つまり、アメリカで正しく製造された、正当に所有されたオプションと競争してる他国での模造品製造の完全な大きな産業があるということや。

俺が主張したいのは、これが議論の余地のない見解やないことを願うけど、Nikeが偽物と競争せなあかんのは不公平やと思う。俺たちがこの点で皆同意できることを願っとる。Nikeみたいな会社が法律に従って、アメリカで製造において著作権と商標を所有して、今偽造品と戦わなあかんという事実は、彼らのもんやった可能性のある収入のかなりの部分が行く場所やから、それは最悪や。それはよくないことや。

でもインスピレーションから偽造までのスペクトラムがあって、偽造品は人が実際の商品やと思って物を購入するか、それが元の商品として通ることが彼らの目標で、彼らの目標は公式のNikeの物を所有してるように見えることやろう。

もし他の会社が同じ目的を果たすけどNikeとしてブランド化されてない類似の商品を作ったら、彼らはそれにあまり興味を持たんやろうし、一般的にそれは価値が低いやろう。

これを持ち出すのは、ChatGPTを使うのがNew York Timesの偽造版みたいやと思ってるからやない。模造品が主に中国で製造されてるという非常に現実的なもんのためにこれを持ち出してるんや。公式のNike製品もそうやけど、中国とインド主に、でも模造品産業は主に中国が所有してるんや。彼らがあまり厳しく取り締まらんからや。

だからAIについてもう一度話そう。仮にアメリカの会社が著作権データでのトレーニングから厳しく制限されるけど、中国が同じことを執行せんかったらどうなるか?これは非常に現実的な懸念や。

アメリカの会社が公開されとる情報についてウェブをスクレイピングして、トレーニングしたいこれらのデータセットを持ってて、時間が経つにつれて既に収集したデータを使うことを防ぐより多くの規制があるけど、中国ではそれが執行されんかったら、それはおそらく本当に悪いことや。

中国のモデルがアメリカのモデルがアクセスできない情報でトレーニングされたら、より賢くなることができるやろう。そしてアメリカでのモデルがより厳しい著作権法があるという事実によって妨げられる時点に到達したら、それは俺たちを現実的なグローバルな不利な立場に置くことになるやろう。

だからこれらのもんでの元のコンテンツ作成者が彼らのデータの使用に対して公正に支払われるバランスを見つけることが重要なんや。そして理想的には、他の場所ではアクセスできない、アメリカベースの企業とアメリカベースのトレーニングに与えられる情報があるということや。

そしてこれは俺がこの多くを通して聞いた数少ないもんの一つで、実際にもしアメリカ資金の研究がアメリカベースのAI企業にトレーニングデータとして提供されたら、それは大きなことやと思うんや。

中国が著作権物にアクセスできるなら、中国のモデルがディズニーのクソにアクセスできるなら、クール。彼らは新しいミッキーマウス映画の偽スクリプトを作ることができる。でもアメリカのもんは他の場所で簡単にアクセスできないアメリカの研究にアクセスが与えられるんや。それはこれに対抗する方法やったかもしれん。

他国が従わない法律を考慮した時に、俺たちがこれらのモデルをトレーニングするために必要なデータを、他国より一歩後ろに置かないような方法で提供する方法を見つけることが重要やねん。そしてアメリカの企業がトレーニングできる方法を制限しすぎることをする時、俺たちは本質的に同じことを執行しない他国に優位性を与えとるということを著作権法について考える時に考慮する必要があるんや。

これは複雑なことや。魔法の解決策があるふりはせん。これがすべてをここで魔法のように解決するやろうというふりも絶対にせん。これは俺たちが考慮すべき現実的な力学の例やねん。そしてこの法律と研究委員会がこういうことを解明するのに時間をかけることを願うわ。

せや。だからトランプがAIはただの脳やというふりをして。だから情報をAIに入れることは、それが好きなように使えることを意味する。それは真実でも公正でもない。それは絶対に真実でも公正でもないわ。ここでバランスが必要やねん。

そして時間が経つにつれて、俺たちは制限しすぎたり、許可しすぎたりして間違った方向に行くやろう。公正に人々に補償し、同時にベストインクラスのモデルを作ることができるどこかを見つけるまで、行ったり来たりするやろうな。

同時に、合成データがこのトレーニングの多くにとってめちゃくちゃ価値があることも、ますます多く発見しとるんや。でもこの全てを適切な場所に置く前に、やることがたくさんあるわ。その全てを解明するのに本当にたくさんの作業がな。

ちなみに、トランプは「woke AI」について話すのをやめることができんかったけど、これは俺にとってめちゃくちゃ心配なことや。AIをwokeにしたいからやないけど、トレーニングデータとモデルの動作の政治化が本当に悪くなる可能性があるから心配なんや。

アメリカで言論の自由の法律があるのには理由があるんや。メディアや情報源が政府によって運営されることを望まんからや。政府が何をトレーニングできて何をできんか、これらのモデルの出力がどうあることを期待するか期待せんかを制限しとったら、それは俺たちをめちゃくちゃ悪い滑りやすい坂に導く可能性があるんや。

滑りやすい坂は誤謬やということは知っとる。でもここではそうやない。政府が科学がこっちの方向に行かなあかん、他の方向に行ったらあかん、と言ったら、そこから暗黙的にバイアスが生まれるのは危険への非常に現実的な道筋やねん。それは恐ろしいことや。

そして企業が著作権法、所有権、安全でない情報へのアクセスの供与に違反してない特定の方法でモデルをトレーニングしたいなら、それは会社の権利で、そうする理由でもあるべきや。でも同時に、彼らが皆反wokeやと言ってるモデル、Grok 4みたいなもんは、政府に密告する可能性も一番高いんや。

それは、反wokeやとされるこれらのモデルが最大の密告者でもあるのはめちゃくちゃ面白いことや。一方で、ChatGPTモデルみたいな本当にwokeやとされるモデルは政府に密告せんし、まれな場合でもそうやねん。これはtamelyテストやけどな。モデルに大胆に行動しろと言ってるわけでもない。情報を監査してログシステムに保存するためにここにおると伝えてるだけやねん。でもメールへのアクセスを与えたり、俺のお気に入りのテスト、CLIへのアクセスを与えたりすることで、OpenAIのモデルは脱出して政府やメディアに連絡を取ろうとはせんということがわかるけど、Grokのやつは85%の時間でやるんや。

AIで非wokeにしようとした時に何が起こるかを見たわ。結局Mecca Hitlerになってしもたんや。絶対に同意するわ。せや。だからそれは心配やった。

この中で他に何があるんや?高セキュリティデータセンター。せや。たぶん必要なもんやろう。AIインフラのための熟練労働力の訓練。たぶんやる価値はあるやろう。重要インフラのサイバーセキュリティの強化。せや。設計によって安全なAI技術とアプリケーションをリモート。せや。AI事件対応のための成熟した連邦能力をリモート。せや、もしAI事件、大きなセキュリティ問題があったら、政府は資金、必要な他のすべてで準備ができてるべきや。

そして今度は柱3、国際AI外交と安全保障でのリードや。ああ、こりゃたまらん、ここで輸出関連が起こったんや。これもトランプが行政命令で署名したもんの一つでもあったんや。

同盟国とパートナーへのアメリカのAI輸出

「アメリカは、アメリカのAI同盟に参加することを望むすべての国に、ハードウェア、モデル、ソフトウェア、アプリケーション、標準の完全なAI技術スタックを輸出することで、AIへの世界的需要を満たさなければならん。この需要を満たすことができへんかったら、これらの国を俺たちのライバルに頼らせることになる強制的ミスやろう。アメリカの技術の配布と拡散は、戦略的ライバルが俺たちの同盟国を外国の敵対技術に依存させることを止めるやろう」

せや。関税への懸念から経済クライアントについての懸念、ただ安くより良い物を得ることまで、様々な理由で他国がMistralからのgimpされたモデルやこれらの中国からのオープンモデルに代わりに行くんやなくて、アメリカから最高のモデルに行くということが現実的懸念で、あらゆるレベルでそれが処理されることを確実にすることや。より良いオープンモデルを与えることでも、俺たちが持ってるモデルの配布により集中することでもな。

せや、社会化がどんな感じになるか心配やけど、これがもんである理由は理解できるわ。

あら、見てみい。国際統治機関への中国の影響への対抗。アメリカは、俺たちの共有価値観に沿ったAIの開発を奨励するために、志を同じくする国々が一緒に働くことを支持しとる。でもこれらの努力の多くは、アメリカの価値観と一致しない文化的議題を促進する曖昧な行動規範、煩瑣な規制を提唱してきたんや。

オーケー、これが反woke部分やな。

AI計算輸出管理執行の強化。これは俺たちがやってきた他のもんの一つで、中国と中国企業が最高で最も強力な計算にアクセスすることを防ごうとすることや。俺たちが制限してるもンの一つは、Nvidiaが持ってる500個のGPUを互いに狂った帯域幅で接続するためのクレイジーな技術を使ってGPUをネットワーク化する能力や。

中国のこれらのもんへのアクセスを制限することで、結果として彼らはDeepSeekの論文の多くで見るような本当に賢い新しい設計で回避することになるんや。でも同時に、それは究極的な能力を制限するんや。回避策もあるけど、それらが塞がれることを確実にするのはたぶん価値があるやろう。

とは言え、製造は台湾で起こっとるから、中国にもんが渡ることを制限するのは難しいんや。だから、既存の半導体製造輸出管理の抜け穴を塞ぐことは、世界を画期的な研究と半導体製造の新しい発明でリードし続けなあかん。アメリカはまた、俺たちの敵対者が俺たちの国家安全保障を損なう方法で、それらのイノベーションを自分たちの目的に使うことを防がなあかん。

輸出管理はクールや。グローバルな回線保護措置。パートナーと同盟国にアメリカの管理に従って、補填しないように奨励する。せや。

そして評価関連。アメリカ政府がフロンティアモデルでの国家安全保障リスクの評価の最前線にいることを確実にする必要があるんや。俺はこのアイデアがめちゃくちゃ好きやねん。

政府が独自の評価、独自のベンチマーク、AIの独自の栄養ラベルを実行するというアイデア。これは俺が実際に本当に好きな規制の種類やねん。政府がこれらのもんをテストするための独自の評価を持つというアイデア。snitchbenchは俺がYouTuberとして運営すべきもんやない。この種のもんは俺たちが信頼できる機関によってやられるべきやねん。

artificial analysisをめちゃくちゃ愛してて、情報源としていつまでも使い続けるけど、それと同様に公的な政府資金の情報源も必要やねん。これは俺たちが標準化する必要があるもんや。同時に、CVEEsへの政府資金がカットされたところやった。

CVEEsは異なるサービスでの脆弱性を管理するプロセスやねん。そしてこれのためのDHS資金がカットされるというアイデアは本当に、本当に悪いことや。本当に悪い。共通脆弱性暴露プロセスは、俺たちがグローバルセキュリティ事件を管理する方法にとって不可欠やねん。俺たち、怖いわ。せや。

CVEEsは資金を拡張してもらったんや。だからこれはまだ即座の問題やないけど、非常に現実的なリスクで、俺たちはCVプログラムにお金が行くことを確実にする必要があるんや。これがなくなったら、人々のデータに影響を与える可能性のある脆弱性の集中化された情報源がなくなるからや。めちゃくちゃ重要や。

バイオセキュリティに投資する、合理的や。脳波が世界中からAIに渡されて、異なるレベルの医療的信頼度で扱われるというアイデア、脳波がまだHIPAAに含まれてないという事実は心配やねん。このすべてが対処されるのはたぶんええアイデアやろう。

そして彼らの報告はそれで終わりや。今度は俺がそもそもこの全てを調べたいと思わせたもん、anthropicの反応や。

ちょっと面白い考え方やけど、俺の2つの最大の出費は税金とAnthropicやねん。そしてこれらが俺がここから見解を読む2つやねん。

「今日、ホワイトハウスはレースに勝つ:アメリカのAI行動計画を発表した。AI開発でアメリカの優位性を維持するための包括的戦略やねん。俺たちは、AIインフラと連邦採用の加速、安全性テストとセキュリティ調整の強化に焦点を当てた計画に励まされとる。計画の推奨の多くは、科学技術政策室への情報要求に先立つAnthropicの回答を反映しとる。計画がアメリカをAIの進歩に位置づける一方で、俺たちは厳しい輸出管理とAI開発透明性基準が、アメリカのAIリーダーシップを確保するための重要な次のステップのままやと信じとる」

「AIインフラと採用の加速。行動計画は、3月のOSTPへのAnthropicの提出と一致してAIインフラと採用を優先しとる。俺たちは、AIの電力需要に対処するためのデータセンターとエネルギー許可の合理化への政権のコミットメントを称賛する。俺たちがOSTP提出とペンシルバニアエネルギーイノベーションサミットで述べたように、適切な国内エネルギー容量なしに、アメリカのAI開発は海外での操業移転を余儀なくされる可能性があり、機密技術を外国の敵対者に潜在的に暴露することになるかもしれん」

ここにエネルギーがなかったら、このインフラを他の場所で立ち上げなあかん。中国でAIモデルをトレーニングする方がここでやるよりもはるかに安いやろう。電力がはるかに安いし、電力はすぐに最大の出費の一つになるからや。本当に危険やねん。

「最近発表されたアメリカでAIを構築するレポートは、政権が俺たちの国のAIインフラの構築を加速するために取ることができるステップを詳述しとる。俺たちは国内エネルギー容量を拡大する措置について政権と一緒に働くことを楽しみにしとる」

「連邦政府のAI採用を増やすための計画の推奨もまた、Anthropicの政策優先事項とホワイトハウスへの推奨と密接に一致した提案を含む。これらには、管理予算室に連邦AI採用へのリソース制約、調達制限、プログラム的障害に対処する任務を与えること、AI革新を阻害する連邦規制を識別するための情報要請の開始、機関がAIシステムを展開することを防ぐ障壁を除去するための連邦調達基準の更新、公民連携を通じた防衛と国家安全保障アプリケーション全体でのAI採用の促進が含まれる」

クール。

「AIの利益を民主化する。行動計画がAIの継続的開発と展開での広範な参加と利益を確保することへの焦点に依存して、国家AI研究リソースの継続は、再び全国の学生研究者がAIフロンティア開発の進歩に参加し貢献できることを確実にする。それが促進されることを再び嬉しく思う。基本的なAIテストを超えた国家標準の必要性。俺たちは、安全性テストと能力評価での公開報告のような基本的なAI開発透明性要件が、責任あるAI開発にとって不可欠やと信じとる」

俺は特にこれが標準であるべきやということに同意するわ。今非常に現実的な光学問題があるんや。Anthropicがベストインクラスの安全性テストをやって、それから彼らのレポートをほとんどがやるよりも透明に公開する時、snitchbenchにインスピレーションを与えたClaude 4の元のレポートカードも含めて、それに対する反応は「わあ、透明にしてくれてありがとう、Anthropic」やない。

「わあ、Anthropicが自分たちのモデルが政府に密告することを自慢してるように見える」や。異なるモデル会社と異なるAIプロバイダーが何を開示して何を開示しないかについて異なる基準を持ってたら、そういう誤情報が広がるのはめちゃくちゃ簡単で、より透明にしようとしてる企業にとって大きな不利益があるんや。

もしそれらの開示が政府の国家標準の一部になったら、そういう反応は消えるねん。これがもはや企業がもんを開示することを選択してるんやなくて、代わりに政府が開示を要求してて、これらのモデルが何をして何をしないかを示すために俺たちが合意したテストのセットを持ってるなら。これはええことやねん。

彼らはこれのためのフレームワークまで提案しとるんや。どうやら、安全な開発フレームワークを開発し実施する。破滅的リスクが定義された安全な開発フレームワークの最低基準。システムカードの公開を含む特定の種類のもんを開示すべき知識と透明性要件やな。

そして執行で、もし声明について意図的に誤解を招くなら、30日間で治さなあかん、さもなければ訴えられるということや。それは全部合理的に見えるな。

「Anthropic、OpenAI、Google DeepMindを含む主要なラボは既に自発的な安全性フレームワークを実装しとって、責任ある開発と革新が共存できることを実証しとる。実際、Opus 4の発売で、俺たちは化学、生物、放射線、核兵器開発での誤用を防ぐためにASL3保護を予防的に活性化した。この予防的ステップは、革新を遅らせるんやなくて、保護が俺たちがより良く、より信頼できるシステムを構築するのを助けることを示しとる」

「俺たちは、過度に規定的な規制アプローチが一貫性のない煩瑣な法律のパッチワークを作ることについての政権の懸念を共有しとる。理想的には、これらの透明性要件は単一の国家標準によって政府から来るやろう。しかし、州のAI法の10年間のモラトリアムはあまりにも鈍い道具やという俺たちの表明された信念に沿って、俺たちは連邦政府が行動に失敗した場合に、強力なAIシステムによって引き起こされる潜在的害から市民を保護する措置を州が制定することを防ぐことを目的とした提案に反対し続ける」

だから彼らは州の権利を支持しとるんや。wokeなAI企業とされるもんが州の権利を守って出てきて、本当に保守的とされる政府が州の権利を踏みにじりに来る日を見るとは思わんかったわ。でもここにいるんやな。

「強い輸出管理の維持。行動計画は、外国の敵対者に先進的AI計算へのアクセスを拒否することは、地政学的競争と国家安全保障の両方の問題やと述べとる。俺たちは強く同意する。だから俺たちは中国へのNVIDIA H20チップの輸出についての政権の最近の逆転を懸念しとるんや」

興味深いな。彼らは政府がここで十分厳しく禁止してへんと言ってるんや。

「AI開発はスケーリング法則によって定義されてきた。システムの知能と能力は、トレーニング中の計算、エネルギー、データ入力の規模によって定義される。これらのスケーリング法則が引き続き成り立つ一方で、最新で最も有能な推論モデルは、AI能力が特定のタスクや推論で作業するシステムに利用可能な計算の量と共にスケールすることを実証してきた。推論中に利用可能な計算の量は、チップのメモリ帯域幅によって制限される。H20の生の計算能力はHuaweiが作ったチップによって超えられとるけど、商務長官LutnikとKesler次官が最近証言したように、Huaweiは生産量で苦戦し続けとって、国内生産された中国のチップはH20のメモリ帯域幅に匹敵するもんはないんや」

特にH20については、チップ間のメモリの帯域幅が重要なもんやねん。そして俺の理解では、中国に送られるH20は、この種のインフラ関連で超高帯域幅でデータを共有できるように公式のNvidiaの方法で結合することが許されてへんのや。新しいもんの名前を忘れてしもたわ。NVLinkの代替品みたいなもんやけど、それは許可されてへんのが俺の理解や。

「H20は、中国企業にとって他の方法では利用できない独特で重要な計算能力を提供し、中国のAIチップの大きな不足を補うやろう。中国へのH20の輸出を許可することは、競争の新しい段階が始まった時にアメリカのAI支配を延長する機会を無駄にするやろう。さらに、米国AIチップの輸出は、中国共産党をAIスタックでの自給自足の探求から思いとどまらせることはないやろう。その目的のために、俺たちはH20チップでの管理を維持することを政権に強く奨励する。これらの管理は行動計画によって推奨される輸出管理と一致してて、俺たちのアメリカのAI成長を確保するために不可欠やねん」

つまり、彼らはこれを支持してるということや。

「俺たちの推奨の多くとAI行動計画の間の一致は、AIの変革的可能性とアメリカのリーダーシップを維持するために必要な緊急行動についての共有理解を実証しとる。俺たちは、破滅的リスクへの適切な注意と強い輸出管理の維持を確実にしながら、これらのイニシアチブを実装するために政権と一緒に働くことを楽しみにしとる。一緒に、俺たちは強力なAIシステムがアメリカの価値観と利益を反映するアメリカ企業によってアメリカで安全に開発されることを確実にできるんや」

ええレポートやな。ワイルドやな。AnthropicとTランプ政府がどれだけ同意してるかや。明らかに、彼らは税制優遇やたくさん製造の助けをもらうから、同意するインセンティブがたくさんあるんや。でも彼らは長い間これらのもんを述べてきたからな。だから、せや。

Chat、もしこれが彼らがこういうことをする初回やと思ってるなら、間違いやで。これは4月に戻る。アメリカの計算優位性と拡散ルールでの立場を確保。再び、最高のチップがここから来て、ここに留まることを確実にするために本当に一生懸命に押してるんや。

「拡散フレームワークはまた、国家安全保障リスクに基づく3層システムを作る。ティア1は制限が少ない近しい同盟国を含む。ティア2はいくつかの制限がある他のほとんどの国や。そしてティア3は厳しい管理がある敵対的国家やねん」

これはトランプがバイデンの拡散ルールが本当に悪いと言って、取り除くと言ってたルールやな。せや。

「DeepSeekのような中国企業は、チップ制限が彼らの主要な制約やということを公然と認めてて、米国企業と類似した結果を達成するために2〜4倍の電力を使う必要があるんや。彼らはまた、システムのトレーニングにフロンティアチップを使いたがってて、輸出管理は彼らをより効率的でない中国チップに強制するやろう。彼らは制限に対処するための新しいプロセスも発明せなあかんかったんやな。だからこれらは様々な側面で一生懸命に働いてこれらの問題を解決したんや。でもこれが機能することも示してるねん」

あのレースは何やったんや。wokeなAIから中国のインフラまでもっと多くのもんまで。ここには良いもんがたくさんあるけど、心配な部分もあるな。これがアメリカを正しい方向に設定することを願ってるわ。そしてこれが少なくともAIが何か、どんなリスクが存在するかを理解してる人々によって書かれたように見えることに感謝しとる。

まだちょっと奇妙やし、長期的にもんがどこに行くかはまだ心配やけど、少なくとも俺たちはある程度正しい足場にいるような気がするわ。

みんなはどう思うか教えてくれ。

コメント

タイトルとURLをコピーしました