
19,780 文字

おそらく世界最大の防衛関連企業はDJIです。彼らはドローンを全て手掛けており、ウクライナでも両陣営がDJIからドローンの部品を調達しています。アメリカ国内にはまともなドローンのサプライチェーンがありません。そのため、もし戦争になれば、恐らく敗北するでしょう。なぜならドローンは自律型の弾丸であり、それが全ての戦争の未来だからです。
興味深いのは、ウクライナで起きていることが戦争に対する我々の認識を大きく変えたことです。安価な遠隔操作型ドローン、ましてや自律型ドローンを使用する敵と戦うことは避けたいものです。なぜなら彼らはそれを群れのように大量に展開でき、コストも低く、危険で、現場の兵士の士気を著しく低下させるからです。ドローンを撃墜しても10機に置き換えられるだけだと考えると誰も喜びません。一方でドローンがこちら側の人間を1人撃ち落とせば、それは死を意味し、遺体袋に入れられることになるのです。
SCCポッドキャストへようこそ。私たちはハイプなしでテクノロジーの洞察をお届けします。共同ホストのジョー・トラシーと私ジョーダン・ティビドが、最新のテック情報を分析し、業界のトップゲストを招いて独占的な洞察をお届けします。
皆さんこんにちは、私たちはテクノロジー業界のベテランで、テクノロジーニュースに反応していきます。今日はAll-Inポッドキャストに反応していきます。最初のクリップはナヴァル・ラヴィカントがAIについて話している部分です。
破滅論者たちは「世界は終わる」「COVID-19で世界は終わる」と言い続けてきました。それは人々の注目を集める効果的な方法なのです。AIの場合、それは動機バイアスによって過剰に演出されています。すでに先行している企業が、後発を阻止したいという思惑があるのです。彼らは安全性のリスクを本気で信じているのでしょう。しかし、その信念には動機付けがあります。
奇妙なのは、「オープンソースに任せるのは危険すぎるから、私たち少数で取り組むべきだ」と言いながら、「しかし、1つの民間企業が全てを所有するほど危険ではない」と主張する点です。本当にマンハッタン計画のような危険なものであれば、1つの企業が所有することは考えられないはずです。サム・アルトマンは有名な発言で、「AIは将来の全ての価値を光円錐の範囲内で捕捉する」と述べました。つまり、光速で広がっていく全ての価値をAIが獲得するということです。
これらの技術は非常に危険で問題を引き起こす可能性がありますが、同時に私企業が所有して前進させるには危険すぎないという主張は、ケーキを手に入れて食べることもできるということです。危険度がちょうど中間くらいというのは驚くべきことではないでしょうか。これが彼の言う動機付けられた推論のポイントです。たとえ人々が完全に誠実で信じていることを発言していたとしても、「あなたの目標や願望、利益を得られる場所、会社が成功する方向性と一致する信念を、なぜ持つことができるのか」と自問する価値があります。
それは彼らが間違っているということではありません。ただ、彼らの主張が常に自分たちにとって最善のことと一致するなら、より疑わしく感じられるということです。しかし、私はこの内戦は誇張されていると思います。確かに、私が「マガ」と呼ぶポピュリスト派とテクノロジー派の間には実際の違いがありますが、手短に言えば、私は一般的にアメリカの労働力を安価な労働力に置き換えることに反対です。移民とオフショアリングに関する私の見解はここから導かれます。
私は成長と生産性を重視しています。法的な高度人材の移民は、同化のための余地と時間があれば理にかなっていると思います。最も優秀で賢明な人材を、世界で最も自由な国に引き寄せたいのです。現在、ベンチャーキャピタルのレベルでは、「より多くのH-1Bビザが必要だ、それは経済のためになり、アメリカのためになる、我々は人種のるつぼだ」という動機付けられた推論が多く見られます。
しかし、待ってください。あなたのスタートアップにはより多くのH-1Bビザが必要で、投資している技術企業にもより多くのH-1Bビザが必要なのは、それによってより多くのお金を稼ぎ、リターンを増やせるからです。まずはそこから始めましょう。あなたがマザー・テレサのような純粋な存在であるかのように振る舞うのはやめましょう。
興味深いのは、彼ら全員が投資家やテクノロジー企業の創業者であり、高度な技能を持つ人々の移民を支持していることです。そういった人々は比較的少数で、移民プロセスを管理され秩序立てて進めたいと考えています。管理と秩序の部分は、セキュリティ対策として理にかなっています。誰が出入りするのかを把握し、危険な犯罪者などは入国させないようにする必要があります。
しかし、高学歴や知的能力が高い人、特定の社会階級の人々だけを入国させるのも興味深い点です。現在の定義における「才能のある人々」だけを入国させることが正しいのかどうか、私は100%確信が持てません。その通りです。なぜ高学歴者だけなのでしょうか。ブルーカラーの人々や職人、農作業をする人々はどうなのでしょうか。
彼らがこの番組で試みているのは、技術系従業員の合法的な移民を全員が支持していて、ここでは全員が団結しているという主張です。マガ派との分裂はないと。しかし、世論調査を見ると、2024年1月のエコノミスト・ユーガポールによれば、アメリカ人の17%しか合法移民の増加を望んでおらず、31%は減少を、10%は完全な廃止を望んでいます。共和党支持者の間では反移民的な見解が多数を占めており、62%が合法移民を減少(41%)または廃止(21%)すべきだと考えています。
マガ派は全員がより多くの移民を必要としているという主張は違います。実際には、彼ら自身の連合の中にも、VCの移民増加という考えに完全には同意しない大きな勢力が存在するのです。これは奇妙な推論方法ですが、この考え方に従って「誰が得をして誰が損をするのか」と考えてみましょう。
高学歴の技術者を入国させることで、既存の高学歴技術者は競争が激化するため損をします。一方で、これらの人材を雇用できる大企業は得をします。彼らはより多くの人材を確保でき、必要な報酬が下がることも歓迎するでしょう。このように考え始めると、「待てよ、既存の高学歴技術者がこの政策を支持するはずがない。自分たちの利益に反するじゃないか」という気付きがあります。
VCが「アメリカ人は一生懸命働かない」とコメントした時、Twitterではみんな「ちょっと待て」という反応でした。スレッドを見ていくと、「私はエンジニアリングディレクターだったが移民に職を奪われた」というツイートが多く、人々は怒っていました。この番組のVCたちは、移民についてみんなが団結しているように見せようとしていますが、実際にはそうではありません。アメリカ人は違うことを言っているのです。
また、彼らは自分たちを面白い形で表現しています。「我々は技術者だ」と主張しますが、それは付随的なことです。彼らは全員資本家で、大金を持っている投資家なのです。だから、技術者をたくさん受け入れることは彼らにとってとても良いことなのです。
彼らにとって同等のことは、「アメリカのスタートアップ企業に規制なしで投資できる外国資本をたくさん受け入れよう」というようなものです。それはこの番組の出演者たちにとって競争になり、ゲームが変わってしまいます。「待てよ、これは外国のお金だ」と彼らはすぐに言い出すでしょう。アメリカの愛国主義的な主張が即座に出てくるのです。
ジョー、あなたが指摘した区別は素晴らしいと思います。彼らは自分たちを技術系従業員のように見せかけていますが、実際はベンチャーキャピタリストで、経営者や創業者の味方なのです。この番組では、「中間管理職は価値を生まない、なくすべきだ」「レイオフは経済にとって良いことだ、人々は新しい仕事を見つけられる」と常に言います。
でも待ってください。レイオフされるのはあなたたちではありません。ベイエリアで月7000-8000ドルのローンを抱えている中間管理職で、Facebookの非常にニッチな分野で働いていて、同じような仕事が見つからない人々なのです。
それは良い議論だと思いますが、もっと良い議論があります。彼らは投資した企業が十分な高度技術者を見つけられ、できるだけ安く雇用できることを望んでいます。特に報酬が株式の場合はそうです。なぜなら、投資家が企業に投資し、その企業が従業員に大量の株式を与える場合、投資家はそれを両刃の剣と見なすからです。
良い面は、それが優秀な人材を引き付け、企業の成功につながる可能性があることです。悪い面は、それが投資家の持分を希薄化させることです。彼らはそれを喜びません。その通りです。AIの研究者に何百万ドルも支払うのは嫌で、できれば株式なしでもっと安く雇用して、より良い取引を得たいのです。
この動画を楽しんでいただけていれば幸いです。視聴者の50%が登録していないので、もしよければ登録ボタンを押してください。さらに良いのは、いいねを押すことです。コメントもいただければ素晴らしいです。よろしくお願いします。
彼らのオープンソースに対する姿勢も同じです。この番組では、オープンソースの言語モデル研究、おそらく機械学習研究全般を強く支持していますが、それは彼らが投資している基盤モデルの研究所に投資していない場合に限ります。その通りです。彼らはその研究を利用する企業に投資したいので、研究が無料で彼らに提供されることを望んでいます。
しかし、彼らが使用しているラッパーサービスについては、その利益を確実に私有化し、オープンにしないようにしたいのです。これは著作権訴訟の話につながります。彼らの世界観の中で全てが結びついているのです。著作権者が基盤モデル企業を訴えることができることを望んでいます。
注目すべきは、彼らが一度も「著作権者は我々のアプリケーション企業がデータを使ってアプリケーションシステムを訓練することを訴えるべきだ」とは言わないことです。それに行く前に、まずは彼らの最後の反応動画からの良い例を見てみましょう。ここで彼らは他者の動機付けられた推論を指摘しています。それは事実ですが、この場面は彼らの前回の動画からのものです。
「職を失う人もいるでしょう。しかし、アメリカ経済に解き放たれる生産性は途方もないものになるでしょう。」「そうですね、人々は被害を受けるでしょうが、それは素晴らしいことです。」「まさに、私はあなたがその被害を受けることを望んでいます。」
ナヴァルの発言に戻りましょう。サム・アルトマンは有名な発言で、「AIは将来の全ての価値を光円錐の範囲内で捕捉する」と述べました。つまり光速で広がっていく全ての価値を今後AIが獲得するということです。これは前回の動画の反応で、「AIには中国やアメリカなどの経済を説明し、その富を分配する能力がある」という話につながります。
ここで素晴らしいコメントがありました。「AGIが競争力と価格システムを持つ自動化経済を可能にすると多くの若者が信じているのは驚くべきことです。価値の発見と経済実験を可能にする接着剤のような役割を果たしているのです。」つまり、AI Explainは単純に、サイバネティック共産主義を望む素朴な若者たちの支持を集めているに過ぎません。
真のAGIシステムが人間と並行して、あるいは人間と共に経済を構築できないとは言いませんが、それは競争、貿易、価格システムに基づいている必要があります。そうでなければ、生産コストを知ることができず、価値を発見するための利益と損失の実験もできないでしょう。
これを動機付けられた推論として分析すると、光円錐内の全ての価値を消費または生産し、その価値の全てを収益化するという会話は、数社の基盤モデル企業の投資家や経営者が自分たちの本を語っているだけです。基本的に「我々の企業が全てを支配することになる。もし将来あなたのビジネスを存続させたいなら、我々と提携すべきだ」と言っているのです。いいでしょう、ハイテク業界の誰もがそのような主張をしようとするでしょう。
本当に新しいものは何も加えていません。あなたの企業がなぜAIを生産できると考えるのか、いつ生産するのか、そしてそれがどのように将来の全ての生産価値を消費するのかを説明してください。モデルの訓練について話していましたね。本当の問題は、ごく少数のプレイヤーだけが全てを支配することなく、いかにAIを前進させるかということです。
我々は当初、それを解決する方法として元のOpenAIを考えていました。これは非営利組織で、人類のために働くはずでした。しかし今では、チームにインセンティブを与え、資金を調達する必要があるため、少なくとも一部を民営化しなければなりません。ただし、なぜ全てを民営化する必要があるのかは私には分かりません。非営利部門を残し、インセンティブのために営利部門を持つこともできたはずです。
本当の課題は、AIが自然と中央集権化する傾向を持つ中で、それをいかに防ぐかということです。基礎となる経済学とテクノロジーが、本質的に中央集権化を促すからです。もし本当に神を創造しようとしているのなら、1つの組織が神を支配するような状況を望みますか?それが私の本当の恐れです。AIそのものは怖くありません。ごく少数の人々がAIを支配し、我々に何をするかが怖いのです。
彼の説明には、AIを支配する人々に自分が含まれていないことが暗示されていました。本当に言いたいのは「1つの場所が支配することは望まないし、その場所が他者であることも望まない」ということです。あなたの政治的立場に応じて、好きな怖い筋書きを作ることができます。
ナショナリストやアメリカ第一主義者なら、別の国、特に中国が支配することを恐れるでしょう。競争的な産業家や投資家なら、自分の会社ではない別の会社が支配することを恐れるでしょう。基盤モデル企業の主張は非常に弱いと私も思います。
「このAIは非常に危険なので、外部の人々や他国が開発に必要なリソースを持つのを防ぐべきだ。しかし同時に、我々がコストを下げ、承認を得て研究を継続できるよう、あらゆる必要な支援をすべきだ。我々が素晴らしい仕事をし、全ての人類のために正しいことをすると信じてほしい」というのは、「ワオ、本当に?」という感じです。
私は、彼らが動機付けられた推論という考えを導入したのは素晴らしいと思います。ただ、それを導入しておきながら、他者にのみ適用して自分たちには適用しないのは驚きです。その通りですね。これらの研究所は、望むものには気をつけた方がいいかもしれません。政府組織が「我々があなたたちを国有化するか、支配権を握る」と言い出すかもしれません。
前政権でそうなりかけていましたよね。基盤モデル企業があまりにも大げさに宣伝したため、政府は基本的に「モデルの規模に基づいて厳しく規制する」と言い、現在の競争状況を固定化しようとしました。現在の基盤モデル研究所は、提案する訓練実行や安全対策について事前に全ての情報を提出することに同意し、それから承認を得て進めるというような段階的なプロセスです。
どういう意味でしょうか?非常に危険な工業用化学物質のようなものを扱う場合、地域での承認が必要というのなら理解できます。しかし、AIが非常に危険で支配権を握るという空想に取り憑かれ過ぎています。たとえその空想を信じるとしても、我々はそこからはるか遠くにいます。
これらの言語モデルは大げさに宣伝され過ぎています。「生物兵器を作れる」「個人情報を全て開示させられる」「コンピュータを乗っ取って支配できる」などと。実際にコンピュータの乗っ取りなどを試みた人なら分かりますが、彼らは幻想を見ています。生物兵器に関しても、情報はすでにインターネット上にありました。それらの化学物質を入手するのは別の話です。
私はまだ、単純なタスクである繰り返しの編集をさせようとしています。メールを送ったり動画を編集したりという基本的なコンピュータタスクもできないのに、世界を支配するなんて。あらゆる比例感覚を失っているのは悲しいことです。
次のセグメントに移りましょう。DJIとドローンについて話している部分です。戦略的産業を見ると、おそらく世界最大の防衛関連企業はDJIです。彼らはドローンを全て手掛けており、ウクライナでも両陣営がDJIからドローンの部品を調達しています。異なるサプライチェーンを通じてですが、ウクライナのドローンもロシアのドローンも、大半は中国のDJIから来ています。
我々にはそういった産業がありません。今、実際の紛争が起きた場合、アメリカ国内にまともなドローンのサプライチェーンがないため、恐らく敗北するでしょう。なぜならドローンは自律型の弾丸であり、それが全ての戦争の未来だからです。我々はF-35を購入していますが、中国は規模の経済に基づいたドローンの群れを構築しています。
ここには多くの興味深い点があります。まず、1つの企業がこれほど支配的な地位を占めているのは興味深いです。DJIは素晴らしい仕事をしています。第二に興味深いのは、ウクライナで起きていることが戦争に対する我々の認識を大きく変えたことです。
変化とは、安価な遠隔操作型ドローン、ましてや自律型ドローンを使用する敵と戦うことは避けたいということです。なぜなら彼らはそれを群れのように展開でき、コストも低く、危険で、現場の兵士の士気を著しく低下させるからです。ドローンを撃墜しても10機に置き換えられるだけだと考えると誰も喜びません。一方でドローンがこちら側の人間を1人撃ち落とせば、それは死を意味し、遺体袋に入れられることになります。それは望まない種類の戦争です。
相手が安価な自律型ドローンを展開できると分かった時点で、それに対抗する以外の選択肢はないでしょう。第一次世界大戦や第二次世界大戦での戦車や重装甲車両の開発のようなものです。同様の技術を開発し、使用方法を学ぶことを余儀なくされるのです。
ここで私にとって三つ目に興味深いのは、我々が多くの面でローカルなドローン産業の発展を妨げてきたことです。産業というのは、ドローンを組み立てるために必要な全ての部品やノウハウを含むサプライチェーンのことです。小さなセンサーやモーターに至るまで、最終的にドローンを組み立てるために必要な全てのものです。
我々がそれを妨げてきた方法の1つは、人間による直接の監視なしにドローンを一定距離以上、または特定の空域や高度以上で飛行させることを違法にしたことです。アメリカでは、基本的に個人で目視できる範囲の低高度でしか飛行できないという、あらゆる種類の制限があります。中国にはそういった制限はないと思います。その結果、我々の産業は抑制されてきました。
自動車の発展を振り返ってみると、ガレージメカニックのような人々のグループがありました。趣味として自動車を組み立て、改良する方法を学んでいました。消費者向け製品として実用的になる前から、それ自体が巨大な産業として発展し、自動車を取り巻く様々な産業を生み出しました。ドローンも同様のことを行っていますが、アメリカではそうなっていません。奇妙なことに、我々はこの技術から撤退してしまったのです。
ウクライナ戦争とそこで起きていることを見て、「待てよ、もし我々が戦争になって、ドローン産業を持つ国と対等に戦うことになったら、どうなるだろう」と考えています。現状を見る限り、良くない状況です。そうですね、もし数万、数十万の低コストな遠隔操作型または自律型ドローンの群れが必要になったら、誰がそれらを製造するのでしょうか?戦争になれば何百万機も必要になるでしょう。非常に速いペースで消費されるからです。
ウクライナで起きていることを見ると、彼らの主な制約は製造数です。小規模なドローン操縦チームが1日の作戦で10-15機のドローンを消費してしまうのです。ロシア兵を攻撃するために、戦場から離れた場所にいるドローンチームが自爆ミッションにドローンを次々と送り出す様子を、ドキュメンタリーで見ました。しかもそれは、まだ対ドローン防衛と戦っていない非対称な状況です。より大きな勢力間の本格的な戦争を想像すると、初期の戦闘は巨大なドローン部隊同士の戦いになるでしょう。
また、過去の世代が自動車や内燃機関とどのように関わっていたかを考えるのも面白いです。私は車のチューンアップ、オイル交換、水の補充、ブレーキのエア抜きなどの方法を学びました。車を走らせ続ける方法を少し知っていて、内燃機関とギアボックスの仕組みを理解していたので、車を運転する時にそういったことを考えていました。
しかし、私のいとこたち、つまり前の世代は、エンジンをゼロから再構築する方法を知っていて、多くの改良を加えることができました。シリンダーをボーリングしてエンジンの出力を上げるなど、とんでもないことをしていました。エンジンを完全に交換することも考えていました。彼らの世代では、そういった大きな改造が普通でした。便利な道具としてではなく、装置として直接車の扱い方を学んで育ったのです。
現代の世代を考えると、車は完全に密閉されたユニットになり、交換可能な商品になってしまったため、ほとんどの子供たちは車の仕組みすら学んでいないと思います。車の修理方法を本当に説明できるでしょうか。材料を前に置いて「オイルを交換して」と言われても、何をすべきか本当には分からないでしょう。
つまり、スタックを下に降りて、コアのハードウェアや機能により近づき、その仕組みを理解し、問題を解決する能力を持つということです。これはTwitterでよく見られる「言語モデルを使えばCTOは必要ない、自分で製品を作れる」という話にも通じます。アルファ版のV1は作れるかもしれませんが、カスタマイズが必要な特定の機能や、エッジケースに対応するためには、スタック全体を理解している人が必要になります。それがないと行き詰まってしまいます。DeepSeekのエンジニアたちがCudaライブラリのスタックの低レベルで作業し、Nvidiaボード間の通信を直接扱っているのを見て、みんなが大騒ぎしているのを見てください。
その通りです。私の反応は、それは従来のコンピュータエンジニアリングだということです。過去数十年を見ると、前の1-2世代は、コンピュータを作る非常に低レベルな詳細を学ぶのが普通でした。回路を組み立て、ゼロから何かを構築する方法を学び、非常に低レベルでデバッグしていました。今はそうしないのかもしれませんが、私にはそれは異常なことには思えません。現在の世代の投資家たちがそれに衝撃を受けているだけだと思います。
もし完全なドローン部品のサプライチェーンがあれば、自然に育つであろうタイプのエンジニアたちです。子供たちが部品で遊び、自分でドローンを組み立て、ハードウェアとソフトウェアを最低レベルで扱うことに慣れ、ゼロから物を組み立てるようなパーマー・ラッキーのような世代全体が育つでしょう。
そして、そういった人々が新しいビジネスを構築したり、公務員として入ってドローンの他の用途での使用方法を改善したりできるのです。これは移民の話にも関連してきます。次に聞こえてくるのは、ドローンのサプライチェーンを支援するスキルを持つ人々のための特別なビザクラスが必要だという話でしょう。そして「なぜ我々の国にそういった人々がいないのか、なぜ自国で育てなかったのか」と考えることになります。答えは、我々がこの産業を徹底的に規制し、発展する機会を失ったということです。
人々が遊び、扱うことを難しくしてしまいました。半導体についても同じことを思い出させます。台湾の半導体製造の素晴らしさについて話し、人材基盤についても言及していました。韓国と台湾にはそういった人材がいますが、アメリカではかつてのようではありません。かつては独自の工場があり、スタック全体を持っていました。そういったハードウェアエンジニアがいましたが、今では珍しくなってきています。
ドローン分野とGPU分野の両方で、ゼロからこれらを作る能力を失っているのを見るのは残念です。また、学校を出たばかりの人や学校に入る人のモチベーションについても考えさせられます。学校に入る人に電子工学や機械工学を専攻するようアドバイスしますか?我々が話しているのはそういった人々のことです。
その通りです。ソフトウェアに行けと言うでしょう。そして誰かが原子力工学に行きたいと言ったら、まさにその通りです。ソフトウェアを勧める理由は、比較的規制が少ないからです。プログラムを書いているなら、基本的に好きな奇抜なものを書けます。しかし、何らかの装置を作ったり、化学物質を混ぜたり、そういったことをしようとすると、すぐに様々な奇妙な制限に直面します。
言いたくないことですが、給料もずっと低くなります。それは残念なことです。電気工学やハードウェアエンジニアリングに行くと、単純にそれほど稼げません。Googleでもハードウェア企業を買収し始めた時、そういったエンジニアたちにどうやって給料を払うか、ソフトウェアエンジニアがずっと高い給料をもらっているのに、この差をどう埋めるかという問題に直面しました。
最近のパニックの中でDeepSeekを調査していた時、彼らと関連するヘッジファンド(フリーフローだったか名前を忘れましたが)の大部分が、トレーディングアルゴリズムに応用していた機械学習研究者たちだったことが分かりました。彼らにとっては機械学習、そして言語モデルのスケーリングへの移行は非常に自然でした。彼らが支払っている給料を見ると、かなり途方もない額です。中国でも研究者に年間100万ドルを支払っているのです。
中国で100万ドルというのはかなり印象的ですね。彼らは他国の研究所と研究者を争わなければならず、それはグローバルな自由市場です。DeepSeekの人々は明らかにトップレベルのチームを作ろうとしています。GPUだけでなく、全ての研究者に多額の給料を支払う必要があることを知っているのです。
これは完璧な例です。今、高校を卒業する子供にアドバイスするなら、「興味があるなら機械学習を考えてみたら」と言うでしょう。しかし、ハードウェアエンジニアリングには絶対に行くなと。その通りです。仕事を見つけるのが大変で、転居を余儀なくされるかもしれません。初任給はその10分の1です。それでもうまくいっている方です。
次のクリップに移りましょう。ニューヨーク・タイムズの訴訟とトムソン・ロイターについてです。これを再生しましょう。
勝利の旅路です。皆さんはGoogleのスニペットとワンボックスでコンテンツを失ったことを覚えているでしょう。そのジーニーを瓶に戻すことはできませんでした。ニューヨーク・タイムズはこれが彼らのペイデイだと気付いています。ニューヨーク・タイムズは最終的に、広告や購読料よりも言語モデルからのライセンス料で多くのお金を稼ぐことになるでしょう。これはモデルを刷新することになります。「NYTのコンテンツは価値がない」というのは別の話です。
ジェイソンが言及したように、彼は非常に強気です。Common Crawlのデータに触れた言語モデルは全て、元のコンテンツ作成者に一定の割合のお金を支払わなければならなくなると考えています。彼はその可能性に非常に興奮しています。なぜなら、今は defunct(廃業した)の法律AI新興企業であるRossに対する訴訟があったからです。
裁判所は、Rossがトムソン・ロイターのWestlaw法律調査プラットフォームのコンテンツを違法に使用してAIベースの競合する法律調査ツールを開発したと認定し、Rossのフェアユースの抗弁を退けました。この判決は、AI及び著作権法の分野、特に独自データのAIトレーニングでの無許可使用について重要な先例となります。
Rossが行ったのは、第三者から違法に25,000件の一括メモを入手し、これらはCommon Crawlにはなかったもので、モデルのトレーニングに使用したことです。明らかに給与を横領する意図を持って情報を盗んだので、罰を受けるべきです。しかし、ニューヨーク・タイムズの訴訟は少し異なります。
ニューヨーク・タイムズは有料記事をペイウォールの後ろに置いていますが、ウェブクローラーにそれらの記事を見ることを許可しています。そうすることで、Googleが検索結果で表示し、トラフィックを戻してくれることを知っているからです。ニューヨーク・タイムズは「トレーニングしない」「Googleに提供しない」といったマークをクローラーに付けていませんでした。
そのため、OpenAIがCommon Crawlを行った時、それがトレーニングデータに含まれていました。そして特定の「ニューヨーク・タイムズの記事〜」と入力すると、記事の大部分を表示します。しかし、ジェイソンはこの2つを合体させようとし、OpenAIと他の企業が裁判で敗訴し、彼らにとって終わりだと言おうとしています。これについてどう思いますか、ジョー?
ええ、うまく枠組みを提供してくれたと思います。逆に言うと、ジェイソンはいくつかのメディア企業、つまりニュースウェブサイトを立ち上げ、運営し、売却してきました。再び彼には動機付けられた推論があります。大規模言語モデルによってそれらがより価値があるものになると考えたいのです。それが彼のモチベーションです。
私の考えは、我々がいかに規制過剰なのに、政府が言語モデルのトレーニングや暗号通貨、その他多くのことについて小さな変更や決定を下すのに非常に遅いということです。ここで本当に求められているのは、検索エンジンで起きたのと同じような単純な枠組みです。
基本的に「あなたがコンテンツプロバイダーでウェブサイトを持っていて、そのコンテンツの一部を検索エンジンで利用可能にしたい場合、ウェブサーバーのルートに簡単なファイル(robots.txt)を設定できます。そこで、サイトのどの部分がクロール可能か、つまり検索インデックスに含めたい部分とそうでない部分を正確に記述できます」と言いました。
非常に単純です。唯一の疑問は、デフォルトが開放なのか閉鎖なのか、除外するのか含めるのかということです。ここでも全く同じことができます。仕組みを考案する必要すらありません。すでに存在するものです。既存のrobots.txtで、検索インデックスを構築するためのウェブクローラーに加えて、さらに区別を加えることができます。
コンテンツを言語モデルでインデックス化したいかどうかの他のパラメータを持つことができます。それは非常に単純です。検索エンジン用のrobots.txtがすでにあるので、「はい/いいえ、私のサイトを言語モデルに知らせたい」という別の項目を追加するだけです。
そうすると、非常に興味深い現象が起きるでしょう。人々は「待てよ、これらの言語モデルはどのくらいの頻度でトレーニングされているのか、私のコンテンツが含まれていないとどれだけ悪いことなのか」と計算しなければならなくなります。言語モデルが自分のことを知らないとしたら、それはかなり悪いことです。
その通りです。ジェイソンが、ChatGPTが無料ユーザーに対して料金を請求し始めた場合、ChatGPTはこれらのユーザーにサービスを提供するためのインファレンスを支払うだけでなく、コンテンツ作成者にもキックバックを支払わなければならず、ChatGPTはそれらのコンテンツ作成者を結果に全く表示しないようにするだろうと考えているのは興味深いです。
これはすでに衰退している業界にとってさらなる打撃となるでしょう。実際に起きているのは、彼らがニューヨーク・タイムズと交渉しようとしましたが、ニューヨーク・タイムズはOpenAIが提供したいと考えていた額よりもずっと多くを要求しました。
なぜなら、OpenAIには他の企業、他のニュース出版社が、アクセル・シュプリンガーのように、お金を提供して取引を締結しているからです。これについて考えてみると、なぜOpenAIがニューヨーク・タイムズのコンテンツをトレーニングセットの一部として欲しがっているのでしょうか?
考えられる唯一の理由は、1970年代や80年代の話を知りたい時に言語モデルをデータベースとして使用する場合です。しかし、それ以外の推論能力やタスクの実行については、おそらく必要ありません。ここ数年読んだニューヨーク・タイムズの記事を考えると、推論能力を損なう可能性すらあります。
その通りです。言語モデルに利益をもたらさないなら、私の態度はこういったものを全て除外することです。これらのものを除外し始め、既に確立された共通のトレーニングセットに含まれているなら素晴らしいです。それを取り除き始めましょう。
コンテンツ所有者が中央のクリアリングハウスに来て、自分のコンテンツを含めるかどうかを言える何らかのプロセスがあるべきです。理想的な解決策は、robots.txtファイルだと思います。なぜなら、それは分散型のクリアリングハウスでより単純だからです。そしてその情報が全てのインデックスに流れ込むのを待つ必要があります。
二つ目の疑問は、OpenAIのような企業にとって、ユーザーへの推論と応答時にニューヨーク・タイムズのコンテンツを利用できることに価値があるかということです。言語モデルに組み込まれることに価値があるかもしれませんが、それは確かではありません。
検索が参考文献へのリンクを返すように、言語モデルが結論を返し、その中にニューヨーク・タイムズからのものも含まれる10個の参考文献を提供することには価値があるかもしれません。ただし、コンテンツではなくリンクだけを提供します。これについては、現在の検索エンジンに関する法律に従うべきです。
その通りです。スニペットすら表示せず、リンクだけを提供するのがまさにそうあるべき姿です。だからこそ、人々がこれをもっと複雑なものにしようとして「これは前例のないことだ」と言っているのを見ると、「いいえ、我々にはすでに検索の仕組みという前例があり、ChatGPTやDeep Researchが現在行っているように、異なるウェブサイトからスニペットを取得してリンクを戻すのはGoogleと同じです」と思います。
OpenAIがこの訴訟に負けたとしても、私はOpenAIがこれに関わっているのは言語モデルを改善するためではないと思います。証拠はありませんが、推測ですが、ブランディングのためだと思います。私もそう思います。Googleとニュースペーパーとの歴史を知っていて、「先手を打って、彼らと取引を結び、良い人物として映りたい」と考えたのでしょう。
また、ChatGPTのユーザーに対して、興味を持つかもしれない重要なブランド付きニュースコンテンツを含んでいると伝えたいのでしょう。その通りです。Fox NewsやNew York Timesの記事は内容が良くなくても、信頼できる情報源という第三者認証です。
私はそういった全てを捨てて、ChatGPTには既に行っている研究に基づいて独自の推論をさせ、その推論をサポートするかもしれないウェブサイトへのリンクを提供させたいと思います。ただし、コンテンツは提供せず、クリックした時にペイウォールに直面するのは私の問題です。
その通りです。2-3文は提供してもいいですが、もっと深く知りたければここをクリックしてください。検索エンジンが法的に許可されているのと同じスニペットを提供すればいいのです。あなたの指摘通り、我々はすでにそれを法制化しています。
昨年だったと思いますが、クリスタを我々の番組に招きました。まだ十分関連性があると思います。
「最終的には主に著作権侵害訴訟になるでしょう。それが他のウェブスクレイピング訴訟と異なる点です。OpenAI、そしてMicrosoftが提起する大きな抗弁はフェアユースだと思います。
過去の多くの文脈で、検索のような消費者向けの要約や情報を準備する目的でのウェブスクレイピングは、フェアユースとされてきました。ただし、それは小さなスニペットの場合です。
ここでニューヨーク・タイムズが大きく主張しているのは、これは小さなスニペットをはるかに超えているということです。時には記事全体がコピーされ、再現されているのを見ることがあります。これが他の事例と少し異なる点であり、裁判所でどうなるか非常に興味深いでしょう。
彼らは訴状の中で、交渉を試みたが失敗したと述べています。」私はその通りだと思います。当時は彼女の言葉を完全には理解していませんでしたが、今なら彼女が言っていることが分かります。彼女は明確な解決策を示唆していると思います。
クレイジーな取引を結びたいという思いは別として、OpenAIに「我々はrobots.txtで言語モデルやML
システムによるインデックス化を禁止しているので、トレーニングセットに含めないでください」と伝えればいいのです。単純です。
robots.txtの別の部分で許可されているように、リンクを張って我々のソースを使用し、出力のサポートリンクとして一般的に受け入れられているスニペットアプローチを使用したいなら、それは構いません。そうすれば基本的に検索エンジンと同じことになります。
あなたが言及したように、裁判所は検索エンジンの前例を見て、AIモデルがそれに沿うようにできることを確認するでしょう。古いトレーニング方法に戻って、推論を調べ、その記事からの価値が何だったのかを判断するような、全く新しい急進的な解決策を作る必要はありません。
それは非常にクリーンな解決策です。また、最近の機械学習研究で、事実の詳細を言語モデルから分離し、主に推論能力に焦点を当てる研究が行われているのも興味深いです。
Microsoftは実際に、推論はできるが全ての事実の詳細を含まない、比較的小規模なモデルをいくつか訓練しています。これは、そのようなモデルを構築し、ツールとしてそれらのサイトで検索を実行する能力を与え、推論をサポートするためにそれらのリンクを出力に含めることができることを示唆しています。
しかし、コアのトレーニングにはそのコンテンツを一切含めません。その通りです。純粋に保ち、おそらく合成的なものにして、歪みのないよりクリーンな例を得ることで、より良い推論モデルになるかもしれません。そしてニューヨーク・タイムズの期間の問題も発生しません。
これは全てまだ本当に初期段階ですが、あなたの指摘通り、研究が一貫して示しているように、トレーニングセットが実際に小さく、より注意深く選ばれている場合、これらのモデルの推論能力は大幅に向上するようです。その通りです。ランダムなニューヨーク・タイムズの記事の集まりではなく。
スタンフォードチームによる、1000の例でこれらのモデルを訓練する素晴らしい研究論文を紹介してくれましたね。私は間違いなくそれが未来だと思います。さらに進んで考えると、その研究が示唆しているのは、最終的には一般のユーザーが「ChatGPT、これが私の仕事の例です。これがフローで、これが私が解決しようとしている異なるユースケースのフローです。
これらは私が示す質の高いユースケースで、これらは私があなたに完璧に解決してほしい例と、そうでない例です。これら50ほどの例で学習して、私と同じようにできるようになってください」と言えるようになるということだと思います。
それが欠けているリンクのように感じます。このクリップを見てみましょう。ジェイソン・カラカニスが、OpenAIをどれほど嫌っているかについて話しています。
「10,000かもしれないし、次は250かもしれない。気にしません。人々のコンテンツが尊重されるのを見たいだけです。サム・アルトマンがこの訴訟で負けて、差し止め命令が出ることを願っています。」彼はコソコソしているようです。ジェイソンはOpenAIにいくら投資していると思いますか?ゼロです。彼は怒っているのです。
また、この人を番組に呼んだのは間違いでした。ジェイムズが「やめろ、自分を悪く見せている」と言っています。Mustafaが、なぜDeep MindがGoogleに売却することを決めたのかを説明している動画があります。
「イーロンやピーター、全ての投資家たちは我々に独立を保つように望んでいました。我々にとって困難な決断だったのは、将来必要になると予想された投資の規模でした。我々は4000万ドルを調達しましたが、3-5年で5億ドルを使う道が見えていました。実際にそうなりました。Deep Mindは現在12,300人の従業員がいて、年間10億ドル以上をコンピューティングに使っています。」
これは、OpenAIが非営利から有限責任会社に移行しなければならなかった理由の一部を説明しています。神よりも多くのお金を調達する必要があったのです。
このクリップに戻りましょう。「私は個人的にサムのことは好きですが、彼がしたことは個人的な利益のために超ズルい動きだったと思います。もし彼が…この『株式は持っていない、健康保険をもらっているだけ』という嘘。彼はそれをしている。違う、彼はそれをしている。愛のためにしているという発言は何でしたっけ?利益のためにしているのだと思います。健康保険をもらっていると思います。」
OpenAIの擁護をすると、彼らは確かに多くのお金を調達し、従業員に給料を支払う必要がありますが、それは全体を乗っ取る必要があるということではありません。非営利部門は非営利部門のままで、利益の大部分を得て取締役会になることができ、彼にはインセンティブパッケージを、従業員にもインセンティブパッケージを与えることができ、収益の一定割合を得ることができます。
ここで推測ですが、私は昨年か2年前に取締役会のクーデターが起きた時、Microsoftは不意を突かれたと思います。数十億ドルを投資していたため、サム・アルトマンはTwitterで「全て大丈夫、心配ない」と言わざるを得ませんでしたが、激しく取締役会やサムにメッセージを送り、「一体何が起きているんだ」と。
この営利企業への転換や社会的利益企業への転換の動きは、Microsoftや外部投資家の不安を和らげる方法だと思います。そのような出来事が再び起きないようにするためです。この推測についてあなたの考えを聞かせてください。
その部分については分かりません。私がより興味を持ったのは、ナヴァルが従業員のインセンティブについて述べていた部分です。トレーニングコストに全員が注目していますが、従業員の巨大なコストもあります。
その従業員たちは給与とボーナスだけでなく、大部分が株式、つまりストックオプションか制限付き株式のいずれかで報酬を得ています。通常は株式公開を待って流動性を得ます。そこで従業員は「いつ上場するのか、どのような価格になるのか」と質問します。
与えられている株式の価値を評価しようとするのです。OpenAIのような企業では、明らかにしばらくは上場しないでしょう。そこで次の質問は「この株式には公開市場があるのか、私の株式を現金に換えることはできるのか」となります。
非営利組織なら現金に換える株式もありません。そこで何らかの営利組織が必要になり、そこで株式報酬を得ることになります。そして半流動的な市場があり、従業員は株式の一部を売却して現金を得ることができます。
彼らにとってはそれも報酬の一部として計算され、これは企業の巨大な支出なのです。これが本当の理由です。彼らは世界最高の研究者たちを惹きつけ、維持する必要があり、先ほど議論したように、研究者に年間100万ドル以上を支払っているDeep Seekのような企業と競争しているのです。
そうですね、Googleとの競争も初期には問題でした。そのような人々を1000人集めようとすると、全員が年間100万ドル以上の給料を得ることになり、すぐに本当のお金の話になります。その通りです。「非営利のままで」と言って、ベイエリアで家族を持つAI研究者に「Googleでの年収70万ドルから6-7万ドルに下がるけど、AGIの研究を手伝ってください」と言っても、うまくいきません。
通りの向こうの企業がずっと高い給料を払っているのでは、完全にやられてしまいます。その通りです。これは全くの想像上の状況ですが、もし創業者が素晴らしい条件で投資を受けられたのに、それを受け取らず、評価額を100万ドル以下に下げ、自分たちに大量の株式を与え、3ヶ月後にそれを受け取ったとしたら、それは何と呼ばれるでしょうか?証券詐欺でしょうか。
また、クリスタがイーロンによるOpenAIの買収提案について意見を共有してくれました。
「今週、イーロン・マスクはOpenAIを970億ドルで買収する提案をしました。なぜ彼はこれを行ったのでしょうか。これは部分的に、マスクがOpenAIの営利企業への転換に異議を唱えようとしているためです。
その訴訟での課題の1つは、OpenAIの価値を判断することです。マスクがOpenAIの営利部門が非営利部門の資産を営利目的に転換する際に適切な補償を行っていないことを示すことができれば、それが不適切な転換であったことを示すのに役立つかもしれません。
一般的にこのような状況では、州の司法長官が調査を行います。デラウェア州司法長官のキャシー・ジェニングスは、OpenAIの取締役や提携先の商業的または私的利益ではなく、公共の受益者の利益のための特定の慈善目的に会社が従っていることを確認しようとしていると述べています。
ここでマスクの提案は、OpenAIの資産の市場価値を設定しようとする試みだと思われます。マスクの提案は、OpenAIの営利資産の市場価値が非常に高いため、営利部門がそれらの資産を営利目的に転換する際に非営利部門に適切な補償ができなかったことを示そうとするものです。
しかし、これは非営利から営利への移行を損なうことには実際にはならないと思います。なぜなら、非営利組織の慈善目的は、AIテクノロジーの研究開発と公共への普及を可能にすることであり、公共研究に貢献し続ける営利部門の発展によってそれが促進される可能性が高いからです。」
後でエピソードで、裁判所に行って第三者に公正な価値分析をさせることは疑問だと述べています。取締役会がサムを解雇しようとし、サムが取締役会を掌握しました。今は彼の選んだ取締役会なので、自己取引のように見えます。彼らは独立した評価を得るでしょうが、我々はそのゲームを知っています。評価専門家を雇えば、あなたが言いたいことを言わせることができます。
生命の光円錐を捕捉するスーパーインテリジェンスを構築しようとしているなら、それはもっと価値があることは分かっています。だからこそイーロンは1000億ドルを提案したのです。その通りです。規制当局や法律関係者には洞察がないと言っているのです。彼らはフェアネス・オピニオンを見て、「フェアネス」と「オピニオン」という2つの単語が並んでいるから公平に違いないと思い、これらの事柄がどのように操作されているのか分かっていません。
現在のベンチャーキャピタリストを見てください。スタートアップの株式保有をどのように評価しているか。なんてこった。2021年にファンドを設立したVCは今、完全に壊滅状態です。誰もそれを下方修正したくないのです。
それは興味深い指摘でしたね。もう1時間経ちましたので、ジョー、時間を割いてくれてありがとうございます。視聴者の皆さんにも感謝します。このような反応動画を作っていますので、もしこの種のコンテンツが好きなら、いいねと購読のボタンを押してください。また会いましょう。


コメント