AI企業と海賊版データ、数十億の損害賠償とディープフェイク | クリスタ・レーザー教授が解説

著作権・知的財産権
この記事は約72分で読めます。

この動画では、クリスタ・レーザー教授がAIと著作権法の複雑な関係について詳細に解説している。特にBarts対Anthropic事件やMeta訴訟を中心に、AI企業による海賊版コンテンツの使用、フェアユースの法的解釈、そして数十億ドル規模の損害賠償リスクについて議論される。さらにディープフェイク規制、AI生成コンテンツの著作権保護、特許制度への影響など、AI時代における知的財産法の課題と展望が包括的に語られている。

AI Labs and Pirated Data, BILLIONS in Liability and Deepfakes | Prof. Christa Laser Explains
Make Sure You're Subscribed 🔔 INFO ⤵YouTube ▶️ / 📸 /

AI訓練における著作権侵害の深刻な実態

数百万から数十億ドルの著作権法定損害賠償が発生する可能性があるんや。オンライン上のディープフェイクは主にポルノ作品の生成に使われとる。もしこれが裁判になって、裁判所が数百万の海賊版著作物があったと認定したら、それは膨大な損害額になるで。

イーロン・マスクは、OpenAIのエンジニアの発言を根拠にOpenAIがAGIを達成したと主張しとったな。著作権のあるものを購入せずにダウンロードしとったら、それに対する責任が発生するんや。AI弁護士が出てくるっちゅう話があるけど、そんなんは実現せんやろな。

はい、私はクリスタ・レーザーです。クリーブランド州立大学法科大学院で知的財産法の教授をしとります。新しく設立された知的財産・起業センターの所長も務めとります。YouTubeチャンネルとウェブサイト(christalaser.com)を運営してて、AI、ブロックチェーン、バイオ医薬品を含む知的財産法とイノベーションに関する話題を投稿しとります。

クリスタ、今日はお忙しい中来ていただいて、ありがとうございます。AI と著作権法の交差点にある非常に興味深くて、激しく議論されてる話題について話していきましょう。たくさんの論争があって、どこに向かってるのかについても多くの混乱や誤解があると思うんです。

著作権データでのAI訓練の法的解釈

最初の質問として、Barts対Anthropic事件について話していく予定ですが、その前に、多くの出版物が「これらのAIモデルは著作権データで訓練されている」というような表現をよく使うんです。例えば、AMモデルを訓練する時、教科書や本、インターネット全体を使ってベースモデル、ベース層を形成しますよね。質の高い文章が多いほど、私たちがどう話し、どう書くかをよりよく理解できるようになる。そのベース層は非常に重要で、その上に強化学習でコーディングや数学などを訓練できる。でも理解のためのベース層が一番重要なんです。

もちろん本や教科書を使うし、本や教科書は著作権で保護されてる。だから「AIモデルは著作権データで訓練されている」と言われると、AIモデルが何らかの形で著作権法を破ってるように聞こえるんです。多くの人がそう解釈してると思うけど、それは正しくない。フェアユースの問題なんです。

そうですね、AIモデルは一般的に著作権データで訓練されとるけど、それが合法的か違法的かは状況によるんや。多くのAIモデルが本やアートワークなどの著作権データを使うのを選ぶのは、著作権データがしばしば創造的表現の種類そのもので、ある程度の興味や関心を示すアウトプットを生成するのに有用やからです。高品質の基礎作品で訓練すると、はるかに良い文章が書けるようになる。だから本は初期訓練の主要なターゲットなんです。

多くの訴訟で見てきたように、これらのAI企業のほとんどがAIモデルの初期訓練の中心として本を使った。ケースを詳しく議論する時に分かるけど、一部のAI企業は著作権作品を合法的に入手してる。例えばコピーを購入することによってな。でも多くは違法に入手してる。トレントサイトからダウンロードするとかしてな。

合法的に取得されなかった著作権コンテンツを使った訓練が、AI訓練に使う場合に実際に違法かどうかについては、これまで出てきた裁判の間で意見が分かれとる。一部の裁判所は、その最初の「毒の木の果実」が問題やと言う。一方で、AI訓練の目的で使用する場合、そのAI訓練がフェアユースで著作権を侵害しないか、著作権侵害に対する抗弁になるなら、海賊版素材の基礎的使用も同様に違法ではないと言う裁判所もある。

フェアユースの4つの判断基準

フェアユースには4つの要因があるんや。著作権侵害があると判断された後に、つまり著作権のあるものを複製したか、著作権のあるものから派生作品を作ったか、追加作品を作る目的でその作品を使用したかが確定された後の話や。通常、そのプロセスでコピーが作られる。

ほとんどのAIモデルは初期訓練素材のライブラリを保持してる。それが著作権侵害を構成する初期コピーなんや。そして著作権侵害で訴えられた人は戻ってきてフェアユースを抗弁として提起できる。

フェアユースは、著作権作品の使用が著作権者に害を与える程度よりも公共が受ける利益の方が大きい状況のために設計されてる。フェアユースを構成するかどうかを決定する4つの要因を定める法律がある。

最初の要因は使用の目的と性格や。大きな質問は、これが商業的使用か、非営利または教育的使用かってことや。商業的使用はフェアユースを構成する可能性が低い。でもこれらは全て要因であって、決定的なものではない。

使用の目的と性格の最初の要因のもう一つの考慮事項は、それが変革的かどうかや。これがAI訓練ケースでよく出てくる話なんや。裁判所は、AIモデルが本を読むという元の目的とは根本的に、極端に異なってるから、AIモデルを訓練したり、AIシステムから出力を作成したりすることは、根本的に異なる体験を与え、異なる目的を持つと言うてる。だから裁判所はそれを変革的やと言う。この変革的使用がある時、その最初の要因はフェアユースの認定を支持し、したがって著作権侵害に対する抗弁になる。

他にも重要な要因がいくつかある。例えば、侵害される作品の性質が一つやけど、これはほぼ常にフェアユースの認定に反する方向に働く。これは侵害される作品が小説や創作的なものか、電話帳のように著作権保護に対する強い権利がない、強く表現的でないものかってことや。

訴訟対象になってるほとんどの作品について、これはフェアユースに反する要因や。なぜなら訴訟対象になってるほとんどの作品は、小説のように明らかに広範な著作権保護を受ける権利がある創作的作品やからや。

それから使用の量と実質性がある。これは著作権作品のどれだけが侵害で使用されてるかってことや。典型的な例は、YouTubeチャンネルがあって、他のYouTubeチャンネルからクリップを取って、そのクリップについて話すために視聴者を教育する目的で他人のYouTubeクリップの30秒を使う場合や。それはクリップの非常に小さな量で、そのクリップについてコメントや批判をするという目的の中心になってる。だからその量と実質性は、やろうとしてることを実行するのに必要な分だけ元のものを取る場合、フェアユースを支持する。

クリップでコメントを作ってて、クリップの30秒や数秒しか使わないなら、フェアユースとしては多分大丈夫や。でもこれは全てケースバイケースで、クリップが数秒しかなかった場合、少量の使用でも実質的になり得る。

AIの文脈では、この量と実質性の質問は本当に難しい。なぜならAIはしばしば作品全体を摂取するからや。これは1時間のYouTube動画全体を取るようなもんや。または小説全体を取り込む。それをやってるなら、著作権作品の全体を使ってるから、フェアユースに反する要因になるやろうと思うやろ。

でもこれまでに出てきたケースでは、他のケースが出てきた時に異なるかは分からんけど、これまでに出てきたケースでは、AIモデルは数百万の作品で訓練されなければならず、文脈のために完全な作品が必要やから、そのような状況では、小説全体を使っても、使用の量と実質性の要因はフェアユースを支持すると言うてる。

彼らはそれがどう使われてるかをより見てる。本全体を見て、AIモデルを作るために数百万の本を含める必要があるってことをな。

市場への影響と新しい理論

最後の要因は、裁判所がどれほど重要視するかで異なる。ケースについて話す時に詳しく説明するけど、Meta事件では、裁判所は元の作品の市場に対する侵害の影響についてのこの要因が決定的に重要やと言うた。そのMeta事件では、ほとんどのAI訓練は元の作品と競合するAI生成作品で市場を溢れさせる結果になるから、フェアユースにならないと認定した。

Meta事件では、最終的にMetaに有利な判決を下したケース以外は、他のほぼ全てのケースで市場への影響が見られる可能性が高いと言うた。だからそのケースではフェアユースにならん。

これは少し無理がある。これは市場希釈理論と呼ばれる考え方や。新しい作品が入ってきて、同じものではないのに元の作品を打ち負かすという考え方や。従来、この要因は侵害が全く同じ作品との直接競争を結果として生じるかどうかを考慮してた。完全に異なる作品が同じ市場で競合するという観点から見るのは非常に異なってる。

Meta事件は、市場希釈理論を明確にした最初のケースの一つやから、これは全く新しい理論なんや。それが全く新しい理論やったから、Meta事件の原告がその要因が彼らを支持することを立証するのが非常に困難やった理由の一部なんや。裁判所がこの市場希釈が重要な理論やと言うまで、原告はそれを知らんかった。

その理論が使われることを知らずに、その理論を支持する証拠を提示するのは非常に困難や。専門家にそれについて証言させることもできたやろうけど、そうしなかった。だからちょっと鶏と卵の問題やな。

人間の行為との比較

大型言語モデルで見てることと、同じ状況が人間によって行われた場合との比較はどうでしょうか。例えば、人が他人の家に侵入して、所有してない創作物を読んで、それについてブログを作ったとします。家に侵入した時点で明らかに法律を破ってるけど、学んだことから出てきたものの権利は、彼らが学んだ元の人たちのものになるのか、それとも人間の脳やから出てきたものにより自由になるのか?

これは素晴らしい質問やな。人間の行動に関する判例法では、AI訓練の場合よりも明らかに確立された先例がある。

図書館に侵入して、情報を読んで、出てきて侵害する芸術作品を作る人間の場合、途中でいくつかの段階が潜在的に違法になる可能性がある。第一に、家に侵入する行為がある。本を読むこと自体は違法ではない。合法的にアクセスできれば、本を手に取って読むことは違法ではない。でも家に侵入することは法律違反になる。

同様に、海賊版ライブラリをダウンロードして読んだ場合、その海賊版素材をダウンロードする行為は、元の著作権者からの許可なしに著作権作品のコピーを作成することになるから違法や。これは著作権法の侵害を構成する行為の種類の一つなんや。

次の質問は、その素材で何をするかや。海賊版素材を使っても、訓練に使う最終使用がフェアユースなら問題ないと言うMeta事件の理論の下では、同様に、人間が海賊版素材をダウンロードして、読んだ他の作品と似てない全く新しい作品を作るなどのフェアユースの目的で使用すれば、Meta分析の下ではCadri対Meta事件の下では著作権法違反にならんと考えることができるやろ。

でもそれは非常に異なる理論や。人間の使用で見てきたものとは非常に異なってる。人間にとって一般的に、海賊版コンテンツをダウンロードしたら、海賊版コンテンツをダウンロードしたことになって、それは違法や。

AI vs 人間の創作における根本的違い

でもそれから次の質問、別の違反がある。これがBarts対Anthropic事件が別の違反として扱う方法や。海賊行為は対処すべき一つの問題で、Barts対Anthropic事件は海賊行為は違法で、それに対して支払わなければならないと言うてる。そして何をするかについて第二の潜在的訴因がある。

人間の場合、侵入や優先コンテンツのダウンロードではなく、図書館に行って一年間図書館の全てを読んで、それから新しい作品を作ったとしよう。裁判所がまずすることは、著作権侵害があるかどうか聞くことや。読んだものと実質的に類似してるか同一のものを作れば、それは著作権侵害や。

裁判所は何かがどれほど類似してるかを判断するための多くの要因と考慮事項を持ってる。専門家が来てどれほど類似してるか言うかもしれん。これは音楽ケースで見られることで、専門家が各音符を分析してどれほど類似してるか見る。

実質的に類似してるなら、侵害になる。出版したり売ったりすれば、それは侵害になって、多くの場合商業的性質やあなたにとって本当に公共の利益ではない何らかの利益を生み出すから、フェアユースを構成しない可能性が高い。元の基礎作品の批判やコメントの目的で作品を作ってるわけではない。

その状況では、フェアユース抗弁の利益を得られず、裁判所は見て、読んだものと実質的に類似したものを作ったと言うだけや。それで終わり。それが著作権侵害や。

AIに関しては、裁判所は異なって認定してる。Barts対Anthropic事件では、裁判所はAIシステムを作ることは根本的に変革的やと言うてる。だから裁判所はそれが人間がやってることとは何らかの形で異なると言うてる。でもその事件では、AIが出力してるものが入力と実質的に類似してると誰も主張してないことが重要やった。実際、出力が入力と同じか実質的に類似することを防ぐためのガードレールが設置されてた。

これは人間が出てきて類似したものを作る可能性のある問題を避けるために重要やった。

コピーと記憶の法的境界

裁判所は基本的にAIモデルがやってることは人間がやってることと異なると言った。少し説明してもらえる?

裁判所は、AIモデルが作品の元の目的を変革してると言うてる。前の本と似た本を作るために本を読むだけではなく、AIモデルは多くの本を読んで私たちの生活を根本的に変革し、一冊の本とは異なることをするシステムを作ってる。だから彼らはこれは非常に異なると言うてる。

それは人間がやってることと似てないか?学校に行って、たくさんの本を読んで、それから自分の新しいコンテンツを作れるようになる。

彼らが意味してるのはそれではないけどな。人間は本当に直接的なコピーに近いものを作るか、元の作品のほんの少しの要素しかない極めて異なるものを作るかの選択肢がある。全ての範囲がある。

このケースでは、一方から他方まで促すことができるLLMについて話してる。全てのケースで著作権のようになるとは限らんけど、時々ユーザーが促すかもしれん。ユーザーが「この本の非常に近い近似を教えて」と促せば、もっと近く見えるやろ。根本的に、あなたは正しい。

読んだものと実質的に類似したものを作ってない人間の例を取れば、それは著作権侵害とは見なされん。フェアユース分析に入る必要もない。なぜなら人間は読む時に作品のコピーを作ってるとは考えられないからや。

本を読む時、脳にコピーをダウンロードするわけではない。だからAIが従事してる基礎的侵害行為を持ってない。AIが実際にコピーを作るかどうかについては議論があるけど、これらのケースでは基礎訓練データのコピーがあることを認めた図書館があった状況や。

人間は本当に良い写真記憶を持ってない限り、脳で読んだもののコピーを作らん。それでも多分本全体を頭に入れることはできんやろ。

私の母は写真記憶を持ってて、学校にいた時、一度盗作で問題になった。クローズドブック試験に入る前に、写真記憶を使って試験に関連する本の部分を記憶して、それから記憶から本から逐語的に答えを書いた。先生は「だめ、それは盗作や。そんなことはできん」と言うた。

彼女は「本からコピーしたんじゃない、記憶からや」と言うたけど、奇妙な方法で、脳から得たとしても、まだ彼女がカンニングしたような感じがする。他の人のページを見たわけではないと分かってるけど、要点は質問を統合して文脈で理解することで、彼女はそれを学んだ。

これらのAIについて彼らが言うてることと同じや。最終出力を生成するために完璧なコピーが作られるってことや。これらのケースは、原告がAIシステムが入力からの逐語的な出力を生成してると主張してる状況では、非常に異なって出てくるやろ。

例えばOpenAIに対するNew York Times事件では、それがそのケースの結果にとって非常に重要になる主張の一つや。

データ取得方法の法的重要性

私が読んだところでは、彼らが起こってることの証拠として提出したものには、少し変なことがある。私はそれについて動画を作ったけど、後でOpenAI IIIが出てきて、それは見かけほどのものではないと言うた。

本当に興味深いことになりそうや。なぜなら出力の構造の仕方があるからや。導入段落、実際の応答、それから要約のような感じがある。要約に基づいて、プロンプトがどう構造化されたかが分かるし、彼らは最後の段落を全て削除した。だから私は「うわあ」って感じや。それはモデルからその結果を出力する方法について多くのことを教えてくれたやろうに。

Anthropicは特に出力が訓練データの入力と同じにならないようにするガードレールを設置したと言うてるから興味深い。それは素晴らしい。つまりその問題を確実に処理するように思える。

でももう少し深く掘り下げて、何かをコピーするってことの意味について話したい。例えば、人間はコピーしないと言うたけど、人間は読んでからそれを思い出すことができる。一方、モデルの訓練では、モデルは情報をコピーしないけど、モデルを訓練するためにはサーバー上でそのデータをコピーして、それを使ってモデルを訓練する必要がある。

Googleがその抗弁を使うかどうか知ってる?彼らは小さなクロールボットで全ウェブをクロールするけど、ウェブページをコピーすることはない。彼らはリンクの数とかに蒸留するような感じで、ウェブサイトの数学的表現を持つけど、コピーはしない。それが彼らにそれをすることを許可してるのか?

多くの議論があって、それは全てのこれらのケースで事実発見で出てくる必要があることやけど、初期の訴訟のほとんどは、訓練に使ってる本や他のデータのライブラリを持ってるか、コピーを作ったかダウンロードしたと述べた企業に対して起こされてる。

一方で、AIに摂取するためにコピーを作らないと誓ってる他のAIシステムもある。彼らはまずトークン化してから、AI訓練の目的で使用すると言うてる。

正確なコピーを必要とせずに訓練データを取得する方法があるかどうか疑問に思ってた。正確なコピーは必要ないと思う。それをトークン化する方法があるやろうし、クロールボットにウェブをクロールさせてコピーしないようにする方法もあるかもしれん。でもキャッシュとかで、どう動作させてもコピーを作ることにならんか?

これは全て本当に事実集約的で、その特定の企業の技術がどう正確に動作するかについて話す専門家がいるやろ。でもこれらの初期訴訟が訓練素材のコピーを保持してることを認めた企業に対してある理由がある。

海賊版使用に対する裁判所の異なる判断

二つの大きな訴訟、metaとanthropicに関わるものについてどう思う?両方ともモデルを訓練するために海賊版の本や海賊版素材を使ってて、これはもちろん著作権法を破る違法行為やと理解してる。トレントサイトを使ったりな。

一つのケース、Anthropicのケースでは裁判官は「まあ、それは間違ってる」と言う。Metaのケースでは裁判官は「ああ、大丈夫や」と言う。どう思う?どうしてそうなった?

個人的な見解では、Meta事件の裁判官は完全に間違ってると思う。将来何らかの変革的目的で使用する意図がある限り、著作権作品を海賊行為やトレントすることは良いと言うのは不合理に思える。他の学者は私と意見が違うけど、私の観点では、そんなことがどうしてあり得るんや?

誰でも今AIモデルを訓練できる。だから私がスタートレックの全エピソードをトレントして、スタートレック好きやから、スタートレックの質問に答えるAIを作ることにしたら、スタートレックのエピソード全部をトレントすることが突然合法とみなされるってことになるのか?私の心では完全に間違ってる。

ロビンフッドのような感じがあるな。与えてる限り盗んでもいいってことやろ?

そうや。非常にロビンフッド的やな。一方、Barts対Anthropic事件では、コピーを購入することで作品を合法的に取得すれば、公衆に配布されるような追加コピーを作らない限り、心ゆくまでAIモデルを訓練できるという考えで正しいと思う。作るコピーはAI訓練の目的のためだけに使用して、どこにも行かん。複製もされん。そういう状況では、それは大丈夫やと思う。それを使ってAIを訓練できる。

損害賠償リスクと将来への影響

AIで作品を訓練するという単なる事実が何らかの著作権侵害を構成するかどうかについては他の質問がある。でも著作権は、その作品を正確に複製したり派生物を作ったりしてるわけではないから、そこでの間違いにあまり合わないと思う。議論の余地はあるけど、裁判所は、コピーを作ってないか派生作品を作ってないなら、それは多分著作権侵害にならんという側面で非常に明確に判断するやろ。

でも海賊版作品に関しては、Barts対Anthropic事件は、AIシステムを訓練するためにそれらの作品を使ってて、訓練自体がフェアユースであっても、海賊行為の行為を別に考慮すると言うた。購入しなかった著作権のあるものをダウンロードしてたら、それに対する責任がある。

興味深いことに、Barts対Anthropic事件はその素材の海賊行為に対する損害賠償について裁判に行く予定や。多くの場合、本は著作権があるだけでなく登録もされてて、強化された損害賠償を受ける権利がある。登録された著作権は侵害に対する強化された損害賠償、法定損害賠償を受ける権利がある。それは作品ごとの数に基づいてる。

使用が故意の場合、作品ごとに最大15万ドルまで上がる可能性がある。だから、著者のクラスの規模と侵害されたとみなされる作品の数によって、Barts対Anthropic事件では数百万から数十億ドルの著作権法定損害賠償が発生する可能性がある。

それはAnthropicにとって存亡の危機になるかもしれんということを正しく理解してる?

そうや、彼らは多分何らかの方法で抜け出すことができるやろうと思う。保険請求とか、著者との何らかの取引を通してかもしれん。訴訟からの和解で、訓練モデルの一部やった著者に何らかの補償を提供する基金を設立することに会社が合意するようなものを見るかもしれん。作品ごと15万ドルよりは少ない額の損害賠償をな。

もしこれが裁判になって、裁判所が数百万の海賊版作品が全て著作権があったと認定したら、それは膨大な損害額や。でも、これらのAI企業の多くも数百万から数十億ドルの収益を上げてる。だから必ずしも終わりになるわけではない。ただ非常に困難になって、もしこれが法律になるなら、将来は合法的に取得した作品を使うようにしなければならなくなる。

もちろん、これらのケース全ては上訴の対象になって、裁判所は任意の裁定を停止する、つまり損害賠償や何かのような裁定の適用を上訴待ちで一時停止する可能性が高い。そしてこの種のケースは最高裁判所まで行くやろ。それは10年かかるかもしれん、運が良ければ5年や。5年でこれらのAI企業に多くのことが起こり得る。

AI弁護士の実現可能性

彼らは慣行を変えるかもしれん。合法的に作品を取得する方法を見つけ始めるかもしれん。5年後にはAI弁護士がいて彼らのために仕事をしてるかもしれん。大型言語モデルが実際の弁護士になるような感じで。

多くのVCファンドがAI弁護士のアイデアに夢中やけど、彼らは弁護士の倫理規則がAI弁護士の使用を禁止することを理解してないと思う。だから、法律事務所で働いてるなら、少なくともな。法律事務所で働いてるなら、何かに署名する必要があることは弁護士によって行われる必要があるから、AI弁護士に署名させることはできん。免許を持った人によって行われる必要があって、AIは弁護士として免許を取得できん。

例えば、文書レビューのようなもの、何かが特権的かどうか決定してる?それは弁護士によって行われなければならないものや。AIの方がその判断をするのが上手やとしてもな。

人間が監督して、操作の真ん中にいる人間になって、AIがやってることをレビューできるけど、人間が最終的にライセンス要件の下で全ての法的決定に責任を持たなければならん。

だから、AI弁護士を持つというこのアイデアは、実現しない。弁護士がAIを使って助けてもらうことはあるやろ。AIを不適切に使って、幻覚のケースの束で終わって問題になる弁護士もいる。それがもう可能やということは見た。でもAI弁護士は持たん。

それは理にかなってる。私の推測では、弁護士専用のAIツールは、すでに確立されて多くのお金を稼いでる人たちを超強化して、多くのインターンや業界に入る人たちにはあまり良くないやろうと思う。いわゆる雑用の多くが自動化されるかもしれんけど、高いレベルのパワー弁護士にとっては信じられないものになるやろ。

法律業界へのAI影響の実際

私は反対や。法律事務所はしばしば、最上位の人がクライアント関係を持ってる人で、それが彼らの得意なことで、準備作業のほとんどを下の弁護士、働き蜂に完全に外注するような方法で構造化されてることが多い。

だからピラミッド構造があって、上にクライアント関係スキルを持った人、飲みに出かけることができる滑らかな話し手がいて、その下にサービス弁護士、その法律分野で本当に詳しい人たちがいる。

そしてそれらの人々は、しばしば多くのことを頭の中で知ってて、それほどAIの助けを必要としない。彼らは何かがどう見えるべきかを正確に知ってて、多くのトレーニングデータセットの一部ではない独自の経験を持ってて、それがその話題でAIより実際に良い性能を発揮する結果になる。

これは非常にニッチな分野で真実やと思う。例えば、営業秘密法では、弁護士の経験の多くが裁判所制度との生涯の相互作用と、オンラインでは利用できず、AIトレーニングシステムの一部になるのが非常に困難な取引の交渉に基づいてるかもしれん。

基本的な不動産問題のような、オンラインで本当に普及してるものについては異なるかもしれん。

働き蜂、インターンについては、実際にかなり助けになると思う。新しい技術を理解して使えるのはそれらの人々で、本当にAIでできるような退屈で退屈なことをたくさん任されてる。AIに特定のタスクを外注して、それをチェックするという選択をすることで。私の法学生と最近の卒業生にとって重要なことやけど、作業をチェックしろ。

でもチェックして、上司にも送れ。AIを使ってこれを手伝ったという文脈を知らせろ。そうすれば皆がそれが大丈夫やという決定ができる。そして正直に言うて、クライアントにもこれをやってることを知らせるべきや。

でもそれをやったなら、インターンやアソシエイトとして、普通やってるよりも少ない雑用をすることができる。

例を一つ挙げるで。これはAIではなかった。私がアソシエイトの時にはAIがなかったからやけど、初期の自動化があった。私は一度、クライアントに起こってる特定のことについてニュースが出た時を見るために、一晩中1時間ごとにニュースをチェックするという任務を与えられた。私は1年目か2年目のアソシエイトやったと思う。

「これはばかげてる。このことが着地したかどうかを知るために、1時間ごとに一晩中ニュースを読む必要はない。Googleアラートを作って、このことが着地したかどうかを知ろう」と思った。

だからGoogleアラートを作って、Googleアラートがこれに関連する何かが起こってることを教えてくれるのを待った。それは雑用を取り除くために技術をどう使うかを理解してるジュニアアソシエイトの素晴らしい方法やった。より上級の弁護士は、そのことがニュースに出た時すぐに知りたかっただけで、そうする正確な方法があるかどうかは本当に気にしてない。

これはAIを使うことを推奨しないタスクや。これには、もっと正確性のために、対象を絞った検索の方が良いと本当に思う。AIが勝手に何が重要で何が重要でないかを決めてしまう状況に陥りたくない。でもジュニア弁護士としての責任を犠牲にすることなく、雑用を短縮するためにAIを効果的に使える他の多くの方法がある。

国際競争と規制のバランス

業界が米国と中国の間で競争的である時の赤字テープが業界を遅らせることと、著作権作品を補償なしに消化されたくない人々との間で、適切なバランスを見つけてると思う?左右どちらに動かしたい?

個人的には、著者やYouTubeに投稿してる人々を含めて、AI訓練に情報が使用されるクリエイターに補償システムを作る方法を見つけたい。その情報は訓練に使用されてて、有益で商業的に価値がある。それに対して補償する方法があるべきやと思う。

著作権がそれに対して補償する正しい方法かどうかは分からん。なぜなら著作権法定損害賠償は信じられないほど高くて、訓練に作品が使用された人への実際の害や、AI企業への実際の利益を上回る可能性があるからや。

だから何が良いかも、時間の観点から、今すぐ物事を壊して進んで、数十億ドルを稼いで、後でこれを全て整理して業界の遅れがないようにする方が良いのか、それとも他の方が良いのか。

それが元々あなたが私に話したことやったと思う。ディランがYouTubeチャンネルで議論するための非常に有用なヒントをくれた。著作権コンテンツを使用してるか、法律に違反してる可能性がある時に、AIに訓練に従事することを止める差し止め命令を得ることができるかという概念についてや。これは裁判所が止める権力を持ってるものか?

差し止め命令の可能性と限界

裁判所は、著作権作品を含むモデルの訓練を続けることや、それが著作権侵害であると認定した場合にモデルを使用することさえも止める差し止め命令権力の下での権力を持ってる。でも裁判所がその目的のためにその権力を使う可能性は低いと思う。

ほとんどの裁判所は、まず第一に、これはフェアユースやから救済策の問題に入る必要もないと言うてるのを見てきた。これはフェアユースで、とにかく著作権侵害ではないからな。でも救済策の問題は、差し止め命令のようなものがある時の裁判官の裁量の下にある。

法律の下には2種類の救済策がある。法的救済策(金銭的救済策、金銭的損害賠償)と衡平法上の救済策がある。

衡平法上の救済策は、従来法廷とは別やった古い衡平法廷に関連するものや。我々はその歴史を見て、衡平救済を与える裁判官の権力が何かを見る。衡平救済には、もうこれをしてはならんと言うことや、侵害してるそのアイテムを取り上げることによってこれをすることを止めるということが含まれる。

だから裁判所がこれをすることを止めると言う権力。それは衡平権力や。そしてそれらは以前に使用された歴史的文脈によって制限される。だから裁判所は一般的に、法的違反があったからといって、それを止める広範な差し止め命令を出すと単純に言うことに対して衡平決定に消極的や。

従来、衡平法廷では、公衆への影響を考慮し、何が公正かを決定し、何が合理的かを決定してた。だから多くの裁判所は、ここに何らかの害があっても、全てのAIモデルを破壊しろとかそういう非常に広範な差し止め命令は出さないと言うやろ。それについて合理的になろうとするけど、裁判所はそこまで達する必要もなかった。なぜならこれまでのところフェアユースやと言うてきたからや。著作権違反ではない。

政治的考慮と司法判断

あなたの動画で言及してた興味深いことの一つは、もし米国でこれらのものが開発されることにあまりにも多くの障害を置けば、他の国に行くかもしれんという考えについて裁判官が話してたことや。これが法廷制度で考慮に入れられることを聞いて驚いた。それはもう少し政治的に思えるからや。裁判官はそれを考慮に入れる?すべき?

これまでに見てきた裁判所の決定では、特定のケースで判決を与えるか拒否するかを決定する時に、米国の競争的地位への影響を考慮することは適切ではないと明確に述べてる。それは理にかなってる。

裁判所は、2つのグループや複数のグループの人々の間のケースや論争を決定する政府の部門であるべきやけど、特定の人々や特定の企業で、米国の全体的地位を支持する決定や、政策に関する裁判官自身の見解を支持する決定をするためではない。

裁判官は、人Aが法律に違反して人Bに補償を負うか、人Bに害を与える何かをやめなければならないかどうかに基づいて決定を下すべきや。だから私の心では、地政学的気候やそういうことを、著作権違反が実際にあったかどうかやフェアユースがあるかどうかの決定で考慮することは不適切や。

しかし、従来の衡平法廷では、裁判所は差し止め命令の範囲を作る時、間違った行動をしてる人が何をしなければならないか何をやめなければならないかを言う命令の範囲を作る時に、公共の利益を考慮するかもしれん。だから、モデルを破壊しなければならないと言う代わりに、出力にこの種のことが現れることを防ぐためにモデルにガードレールを置くのに1年かかるとか、そういう選択肢を見るかもしれん。

彼らは公共の利益の観点から差し止め命令の範囲を制限する他の方法を見つけるかもしれん。それは歴史的に衡平法廷で行われてたから許可される。でも責任に関しては、誰かが行為を犯したか?それは裁判官が政治や地政学的気候への影響を考慮すべきでない分野や。

STEM教育の重要性

一年か二年前、私がチャンネルを始めた時、様々な議員、上院、司法、行政を見てたけど、彼らの多くがSTEMの経験を持ってないことがちょっと挫折感を与えてた。法律的背景か歴史的背景を持ってる人が多いけど、このようなことを決定するのにもっとSTEM的背景を持つ人がいればと思ってた。

このケースでは、Barts対AnthropicでAlup判事がいて、彼は本当にもっと深いレベルで理解してるようや。数学専攻で、彼の前のケースの技術を掘り下げて時間を費やしてる。彼はコーディングが関わる前のケースでコーディングを学んだことで有名や。

そうや。彼はケースで判決を下す目的でそれを学んだんや。

私の耳には音楽のようや。それは絶対に素晴らしい。議員や裁判官やそういう人々が本当にこのようなことがどう動作するかを把握することがどれほど重要やと思う?これは法律やその他の場所で我々の議論のはるかに大きな部分になる予定で、あらゆる種類の異なることと交差するやろ。

あなたは知ってるかもしれんし知らんかもしれんけど、私は最近、米国連邦裁判官の教育的背景を調べて、STEM教育を持つ米国連邦裁判官の割合を調査した論文を書いた。その割合は非常に低い。

米国連邦裁判官の7%が何らかのSTEM専攻を持ってる。かなり広く定義してて、建築をSTEM専攻に含めた。看護とかそういうものもな。だから科学的方法での経験を持つ人を誰でもその範疇にまとめた。そして裁判官の7%だけがその背景を持ってる。

STEM知識を持つ裁判官がそんなに少ない時、私の意見では、それらの裁判官が現代技術時代でますます重要になってる科学技術問題を完全に理解することは信じられないほど困難になる。

特に最高裁判所では、STEM教育を持つ裁判官が0人いる。これはスティーブン・ブライヤー判事が非常に情熱的やったことや。彼はもっとSTEM教育を持つ裁判官が必要やと思ってた。彼はもう法廷にいないけど、もっとSTEM教育を持つ裁判官が必要やった。

これは物議を醸すことや。もっとSTEM教育を持つ裁判官は欲しくないと言った他の判事もいる。なぜなら彼らが自分のバイアスをこれらのケースに持ち込んで、機関により適切に残された科学的決定をするからや。スカリア判事がその意見を持ってた。

でも最近、最高裁判所の先例にも変化があって、裁判所が科学的話題を決定する義務がますます増えてることを意味してる。機関への敬意の変化があって、それは裁判所が非常に複雑な科学的法律の意味について、機関の助けなしに多くの初期決定をする必要があることに結果としてなってる。環境保護や薬物承認やその他の困難で複雑な話題を管理する法律のようなものや。

私の意見では、環境規制の間で、私の猫がここに入ってきた。

それは何の種類?トーティーシェル猫や。アメリカンショートヘアで、名前はキティや。

私たちは司法制度や正直、議員や大統領にも十分なSTEM専攻を持ってないと思う。それらの問題について良い判決を下すために、技術についてもっと理解を持つ人々が必要やと思う。複雑な科学規制の解釈から、信じられないほど複雑になり得る特許請求の解釈まで、化学が人に傷害を引き起こすかどうかのような毒性不法行為まで。

それらは全て、科学の基本的理解がケースの究極的問題を決定するのに信じられないほど役立つものや。

技術理解の不足がもたらす問題

私が聞いてることの別の大きな問題は、例えばAIに対するこの関心全体で、多くの議員がそれについてあまり知らんということや。だから彼らはそれについて基本的教育を得る必要がある。

どこで得る?技術的背景を持つロビイストを送って彼らに説明する大手技術企業全てや。でも彼らがそこにいる理由もある。彼らは一方や他方に偏らせるかもしれん。

TikTokのケースは、議員が技術を全く理解してなかった別の例や。TikTokを効果的に禁止する法律を決定する時、TikTokがWi-Fiにアクセスできるかとか、TikTokに行くのにWi-Fiを使えば、Wi-Fi経由で行くやろうとか、そういうことを聞いてる議員がいた。

アイトラッキングを使うかとか、私が感じてることを見て、私が感じてることと一緒になるもっとコンテンツを提供できるかとか言う人もいた。彼らは「フィルターとかでユーザーが許可を与える場合のみアイトラッキングを使う。感情的反応を見るためにアイトラッキングは使ってない」と言うた。

だから技術の現在の状態やその技術の現在の使用ケースさえの深刻な誤解を反映してた。

議会が技術を誤解する問題は裁判所より少ないと思う。その一部は、議会が業界のメンバーから教育を受けてるだけでなく、技術的に訓練された院内スタッフも多く持ってるからや。

例えば特許の文脈で、私の友人が米国特許庁で働いてた技術的に訓練された弁護士で、そこで判事になって、それから技術と特許法問題について困難な決定を支援するために議会に配置されることになった。

だから議会は司法よりもはるかに多くの助けを持ってる。司法では、しばしば裁判官と何らかのクラークだけで、通常科学教育なしに法科大学院を出たばかりの人で、彼らがこれらの複雑な問題を決定しようとしてる人々で、しばしば間違える。

例えば最高裁判所は最近、私の意見では、全ての他の人が同意するわけではないけど、私の意見では、意見がDNAがどう動作するかの誤解を示唆したような特許ケースがあった。それがその決定がどう出てきたかを変えることになった。

彼らは特定の医療診断が特許保護の対象ではないと認定した。これは全て自然なもので、ただのDNAやと言ったからや。そして彼らは多くのその医療診断ツールがDNAをどう使ってるかに違いがあることを理解してないようやった。

だから最高裁判所が技術の理解を持ってない時に問題を見てきた。最高裁判所はほとんどの地方裁判所判事よりもはるかに遠い。科学的話題について自分自身を教育する時間を取ってる地方裁判所判事を見る。彼らは技術チュートリアルを持ったり、オンラインで教育を得ようとしたりしてる。

彼らの中には、話題をよりよく理解するためにAIに助けを求めてる人もいる。これは決定を委任してるなら問題の境界にあるけど、少なくとも努力はしてる。一方で最高裁判所は、私の意見では、科学と技術の知識を持ってないだけでなく、その素材を学ぼうとする能力も持ってないようや。

AI時代の特許制度への影響

科学とAIによって科学の進歩が加速されることを示唆するものをもっと多く見てる。Google DeepMindのAlpha Evolveのようなもので、数学からハードウェアの改善、AI自身の訓練能力の改善まで、広範囲の産業で信じられないことをしてきた。

多くの人が気づいてなかったのは、それが彼らがリリースした2.0モデルから1年以上前からやったことやということや。だから彼らが今取り組んでることは、もっとはるかに先を行ってるかもしれん。

Max TechmarkがLife 3.0の本で想像したシナリオがあって、将来、世界中に小さな会社が現れて、飛行機の翼を改善したり、DNA配列技術を改善したり、衛星を改善したりする小さな改善をしてると気づく。そして我々は、それが全て実際にAGIのコードを破って、今あらゆる分野で特許を取ってる一つの大手技術企業やということに気づく。

Google DeepMindのAlphaを見た時、それがその前兆のように見えるかと思った。AIと特許について少し話せる?AI、特許、営業秘密、法律とAI、潜在的にAGI、どこに向かってると思う?

素晴らしい質問や。AIと特許について、これはまだ急速に展開してる問題で、特許庁から始まってる。今決定されてる質問は、AI共同発明者を持つことはできず、全ての発明者は人間でなければならないという話題に限定されてる。

AIと発明を作る場合、AIが通常人間がやるような段階、つまりアイデアの構想をやってる場合。実用化と呼ばれるもの、つまり思いついたコンセプトをどう作ってどう使うかを示すことをやってる場合。それらは特許を取得するのに必要や。

AIがそれらの段階をやってるなら、AIは共同発明者として記載できん。また、それらの段階に従事した人間の発明者がいないなら、特許保護を全く受ける権利がないかもしれん。

現在の特許庁政策の下では、AIが発明の構想と実用化に責任がある場合、特許を付与しない。でも場合によっては、人間がコンセプトを構想し、それをどう作って使うかを示してる限り、AIツールを使って支援することができるかもしれん。

AI創薬と特許の新たな課題

Isomorphic Labsは、Alpha Foldの発明からGoogle DeepMind部門から分かれた会社で、薬を作るためにタンパク質を折り畳んでる。技術的用語で私に言ったのと同じことを言うと、彼らはタンパク質の特許を取ることができるということか?

タンパク質で特許を申請しようとする場合、AIシステムに問題を入れて発見したタンパク質について。GSK3を抑制するタンパク質が欲しいと問題をAIシステムに入れる。これはアルツハイマー病に関連することで、私が取り組んでる本のために調べてることや。

GSK3の抑制を対象とするものを持ってて、AIがこのタンパク質が働くと吐き出す。そのタンパク質のコードがある。そのタンパク質を製造するためのDNAコードがある。これを使えばGSK3を抑制し、したがってアルツハイマー病の治療に理論的に役立つやろう。

その場合、「この特定の潜在的ターゲットを対象にしたい」という概念を持ってたとしても、その問題を解決するものを思いついたのはAIで、そのタンパク質のDNA配列を与えることによってどう作ってどう使うかを示したのもAIやから、多分その特許は取れんやろ。

だからIsomorphic Labsが利益を上げるためには、実際の完全な配列を所有できないから、最初に市場に出て、システムの一部、パイプラインを販売する必要があるってことか。

FDAは新しい薬物化合物に対して、特許があるかどうかに関わらず、ある程度の限られた市場独占権を与える。この化合物を販売するFDA承認を受けてるのは自分だけやと言える。

でも特許保護は得られんかもしれん。特許保護ははるかに価値がある。なぜなら期間が長いからや。競合他社を締め出して超競争的価格を請求できる期間が長いほど良い。特許なら20年、時には使用方法や異なる製剤で提出する追加特許があれば、戦略的特許取得の結果として20年から30年の市場独占権を見てるかもしれん。

特許取得の対象でない新しいものを作ってるだけなら、3年から5年のFDA独占権を見てるかもしれん。

でもこれは私には大丈夫に思える。なぜなら特許が何のために発明されたかを考えると、誰かに多くの努力を発明に注ぎ込むように動機づけるためで、通常は別の時代の機械的なものやった。でも大きなコストと作業と思考があって、それから何かを作って、単純にコピーされることはできん。彼らは報酬の一部を得ることができる。

だからそれが最初に何かを作るように動機づける。でも秒ごとに数百万のこれらのものを吐き出すことができるモデルについて話してる時、20年特許を得ることがそれほど重要に思えん。

そうや、それは理にかなってる。多くの製薬会社は私と意見が違って、新薬の研究開発だけでなく、商業化のコストも収益を高くする必要性を駆り立てると言うやろ。

製薬会社は、特定期間の薬の商業化と製造、営業担当者を送り出すようなことのために特許インセンティブが必要やと言うかもしれん。

これは実際に私が取り組んでる本の章の一つや。『無形:知的財産が我々の生活にどう影響するか』という本で、章の一つはアルツハイマー病治療についてで、特許保護の対象になる可能性が低いほど長期間存在してる利用可能な治療があることについてや。

結果として誰もそれらをマーケティングしてない。一錠43セントで市販で入手できるけど、誰もマーケティングしてないから、医師はそれらについて知らん。

彼らの発明を商業化する製薬会社のコストは信じられない。研究が安く得られるとしても、それは確かに最大のコストの一つやけど、医師に化合物の使用方法と化合物の利益について教育する営業担当者のようなもので、まだ膨大なコストがある。

FDA承認に関して膨大なコストがある。それら全ては特許インセンティブがなければ正当化するのが非常に困難なものや。だから製薬品では、特許保護を持つことにかなりの利益がある古典的ケースの一つで、その保護の対象でないAI創造発明に関しては、その市場は非常に異なって見えるかもしれん。

それは長期間存在する薬物の例のようなものに似た分野になるかもしれん。私の本で使う例はベノチアミンで、ビタミン派生物で市販で入手でき、アルツハイマー病の治療で製薬薬物の5倍の利益があるようなものや。

それらのことやAI創造発明を見てると、両方とも特許保護の対象でない例で、何らかの新しい保護が必要かもしれん。

FDAからもっと広範な市場独占権が必要かもしれん。だからAI創造発明の商業化を正当化するために、特許保護の対象でないものやほとんどの場合特許保護の権利がない長期間存在する安全な化合物や自然療法に対してFDAからもっと広範なマーケティング独占権が必要かもしれん。

人間発明者要件の抜け道

単に最初に何かを達成した人に賞金を与える政府の巨大な賞金プールを作るべきやと思う。特許を使って将来の収益を保護する代わりにな。なぜならそれは後でイノベーションを阻害するからや。

それは私が教えるイノベーション法という授業の話題の一つや。イノベーションの方針への影響について話し合って、特許制度と比較してイノベーションのインセンティブを生成するための助成金と賞に関する話題日がある。

だから特許が利用できない場合のイノベーションをインセンティブ化するための潜在的代替案について正しく言ってる。

人間発明者が必要で、AI共同発明者を持てないというこのアイデアを理解するために、最初の考えは、それは防弾か?私がアイデアを思いついたと書き留めるような簡単な回避方法があるか、それとも彼らがAIを完全に使ってやったなら特許を得るのが困難になるという点で防弾か?

AlphaFoldや他の会社が良いターゲットになり得るタンパク質を生成し、それが働くことを実証し、それを作るのに必要なDNA配列が何かを示すような例。現在の特許庁政策の下では、その特許保護を受ける権利はないことがかなり明確な例や。

AI発明者を名前に挙げることはできないという判例法もある。もう少し境界にあるのは、その組み合わせがある時で、もっと多くの申請ともっと多くの裁判で、それがどう展開するかを見なければならん。

境界にあるものは、人間であるあなたがGSKがアルツハイマー病の興味深いターゲットやと決定し、特定の形で折り畳まれたタンパク質がそれをターゲットにするのに有用やろうと信じることかもしれん。

私が学部の時、タンパク質折り畳みの作業をして、やらなければならないことの一つは、実験室に座ってDNA配列を調整して、どう折り畳まれるかを変えて、それをモデル化して、我々が望む場所に結合するかどうか見ることやった。

20年前にコンピューターでやってたのと同じことを、AIに手伝ってもらってプロセスを速めるだけやけど、そのタンパク質がどう折り畳まれる必要があるかを知ってる場合。その折り畳み形状を得る配列が何かを理解する必要があるだけの場合。

それははるかに境界にある分野や。特許庁が、以前手でやってたことをスピードアップするためにAIを使ってるだけで、今得てる同じ構想と実用化を生成してるという議論を使う時、そのような申請を拒否するのははるかに困難になると思う。

判例法はまだないけど、すぐに見ることになると思う。

Alpha Evolveは魅力的になりそうや。なぜならそれはまさに話してることやからや。境界にあるような感じがする。彼らはこのAIモデルを与えてて、その周りにいくつかの足場がある。AIモデルは駆動してるから、AIモデルを交換できる。

でも彼らは数学であれハードウェアの最適化であれAIの訓練の最適化であれ、どんな主題でも、これまでに持ってるデータベース全てを与える。それから人間の科学者が出力を評価する方法、何らかの価値関数、これが良い、これが悪いというようなものを思いつく。

車の効率を改善しようとしてるなら、より少ないガソリンでより長く行けるなら良くて、そうでなければ悪いとか、そのように単純なものや。それからこの進化的研究を通して、しばしば60年間改善できなかった数学のアルゴリズムのような解決策を見つける。

だからそれは価値関数を書いて、特定の枝をどこまで下るかをコントロールした人間が思いついたのか、それとも…

複雑になりそうや。時々裁判官や特許庁が正しく理解しないかもしれん。なぜならこれらは必ずしも正しい答えがないものやからや。これらは根本的に、その線をどこに引くかという政策選択や。

行政機関や裁判所がその種の線引きをするのは非常に困難で、それは最終的に政策選択やからや。彼らは我々はここで法律を解釈してるだけやと合わせようとするけど、根本的に政策選択が忍び込んでくる。

それが起こる時、それは議会が介入して明確さを提供する必要がある時やという私にとっての危険信号を上げる。行政機関や裁判官が法律の線がどこにあるか分からずに、政策選択をせずにその線を作るのに本当に苦労してるなら、それは議会が彼らのために政策選択をする必要があることを教えてくれるはずや。

大量特許出願の経済的制約

Googleを例として使って、Alpha Evolveを持ってるから。同様の作業をしてる他の会社もあるけど、彼らが通常なら世界中で数十年かかるような進歩と同等の数学とハードウェア全体で非常に多くのものに特許を取ったとしよう。

異なる会社全体で何ヶ月かで通常なら数十年の研究にかかったやろう全ての異なる産業で数十万の特許を出すと。ある時点で特許制度のプラグを抜くか、何らかの形で作り直さなければならないか、それとも単純にそれを許可するか?それをどう考え始める?

特許は非常に高価やから、それがそんなに問題になるとは思わん。そのことが実際により大きなリスクを作るのは、特許起草の法的サービスが安くなることや。それがもっと多くの特許に結果としてなるやろ。

今、巨額の申請料、巨額の維持費がある。大企業にとって典型的な特許では、小企業には例外があるけど、大企業にとっては、その特許だけで政府手数料で数万ドルを費やしてる。

それに加えて、本当に安い特許弁護士を得てるなら、申請を起草するための法的費用で少なくとも2万ドルはある。本当に素晴らしい特許弁護士がいるなら、複雑な特許では10万から15万ドルとかそういうものを見てるかもしれん。

だからほとんどの会社にとって、たくさんの特許申請を提出したり、たくさんの特許を取得して維持したりすることは理にかなわん。実際に大企業が特許ポートフォリオを削減してるのを見る。

彼らは付与された特許を持ってて、全ての維持費、数万ドルの維持費のコストをどう削減するかを理解しようとしてる。Intel や IBM のような会社で数千の特許にそれを足すと、これらは毎年特許に対して数十万ドルの維持費を払ってる会社や。

だから彼らはそれほど価値があるとみなさない特許を追求し続けたり維持したりしないという決定をするかもしれん。だから会社が数千の特許を申請して維持することは非常にありそうにないと思う。なぜならそれは、父がよく言ってた比喩を使うと、ボートは水に投げ込むお金の穴やと。

AIパテンティングを使って数千の特許を生成したら、特許庁はあなたの資産ポートフォリオにお金を投げ込む穴にすぎんと感じる。

国際的な知的財産の取り扱い

AI訓練のようなもので、他国で申請された著作権に適用される国際的保護がある。ベルヌ条約というものがあって、それのために一般的に外国で元の申請に基づいて著作権を適用することを許可する。

だから外国の著作権が国内の著作権と比較してどう扱われるかにそれほど違いは見られんやろ。著者は既存の法律の下で国内の著者が権利を得てるのと同じ規則の対象になる保護を得ると思う。

特許の分野に関しては、他国は我々とは異なる特許法を持ってるから、国際レベルで興味深くなる。TRIPS協定のような国際条約に署名した先進国では重要な問題で一般的に多くの重複があるけど、特許を保護する義務さえないかもしれない小さな国もある。

そこで特許を申請してなければ、それを保護する義務はない。人工知能の使用の一つを想像できるのは、主要企業が通常特許を申請しない特許庁を持たない小さな国にいる場合、コンゴとかそういう小さな国にいる場合や。

広範な知的財産保護を求める素晴らしい場所やとは思わん小さな国について考える。そのような状況の小さな国がある場合、彼らはAIを使って、他国でどの価値ある特許が我々の国に存在しないかを言い、したがって特許が期限切れになる前にその特許技術を今使えると決定するかもしれん。

だから米国の消費者がこの新しい製薬薬物に20年間競争を得られないと知ってるなら、所有者が我々の国で特許保護を申請しなかったから、違反することなく地元で作れるかもしれん。だからAIは、それらの小さな国の人口を助けるために、法的保護のギャップを悪用するために、法的保護のギャップを特定するのに有用やろ。

それはほとんどサイバーセキュリティ問題のようやけど、お金と特許がある場所の観点からやな。なぜなら何かがコンゴで起こってるなら、何らかの薬、多分人々はコンゴから米国にパッケージ配送を得ようとするか、治療を受けるためにそこに飛ぶかもしれん。そして米国の大手製薬会社はそのお金を失うことになって、それに対処しなければならん。

でもしばしば、これらの製薬会社はそれらの小さな国での市場を失うことを本当に気にしない。一つには、その国で販売することから得るやろう利益がしばしばその国で保護を得るための弁護士のコストを正当化するほど小さいから、彼らはそれを損失としてタグ付けするだけや。

国境を越えた法的執行

でもそれは興味深くなりそうや。つまり一つには、その国の住民にとって他の場所では非常に高価やったかもしれん薬物で利益を得る多くの応用があるし、人々がそれをする多くのビジネスアイデアが作られるやろうと確信してる。

特定のガードレールなしでAIモデルのようなものをデジタルで複製できる場所を作って、他の人が例えば米国からVPNでそれを使うことができるようなものかもしれん。

でもそれをやったら米国の消費者をターゲットにできん。長腕法規というものがある。その会社があなたの州やあなたの国の市民をターゲットにしてるなら、あなたの領土管轄権の外のものに法律の適用範囲を拡張できるという考えや。

例えばシンガポールに拠点を置く会社があって、米国の消費者に何らかの特許技術をサーバーで使えるようにVPNで入るように求めてるなら、それらの市民に手を伸ばしてるから問題になるやろ。

考えてる時、Kim.comを思い出すな。誰もが誰かを知ってるやろ?だから彼はニュージーランドにいて、米国の引き渡しから逃れてて、海賊行為のことをたくさんやってて、それから彼は巨大な邸宅を持ってて、FBIかニュージーランドのSWATチーム相当のどちらかが彼の家に降りて、ドアを破って、彼を引きずり出したと思う。

法的には何もできなかったかもしれんけど、それでもやった。だからそれらのことの一つで、法的に保護されてると思ってるかもしれんけど、米国の利益と混乱したくないってことや。

それは本当に複雑になる。なぜなら米国がそこでアメリカの法律を実行するために彼らの国に侵入することから国を保護する国際法があるからや。だから一般的にその種のことが起こる時は、異なる政府間の協力の結果としてや。そうでなければその政府は多分それが起こることについて苦情を言うやろ。

Kim.comで何が起こったかについて十分知らん。ケースは覚えてるけど、何が起こったかについて述べたくない。多分何かを間違って覚えてるやろうから。

確信が持てなかった。でもそれを見てると、米国政府と混乱するな、という感じや。

AGIの法的定義と契約上の意味

Microsoft と OpenAI の法的戦いやイーロン・マスクの訴訟でも、AGI がこれまでにどう定義されてきたかについてのあなたの考えは?

これは私が長い間話してきた本当に興味深い分野や。Microsoft と OpenAI で、対立はないから対立と言うべきではない。彼らはまだ互いを訴えてない。潜在的争い交渉についてやな。

最初に OpenAI は、会社構造で人類全体のための人工知能の使用と開発を支持するように設計されてると述べた。この構造の一部として、AGI技術、汎用人工知能がその時点に到達したら、それを商業化したり独占的にライセンスしたりしないことにコミットした。

それは公衆がAGIから利益を得ることを本質的に制限するやろう独占的商業取引の一部になることを許可しないものになるやろ。

Microsoft と OpenAI の間の契約の正確な条件は分からんけど、ニュース報道や Microsoft と OpenAI の代表者からのコメントから、Microsoft と OpenAI の間の取引には現在、その知的財産が AGI を含む範囲で期限切れになる知的財産のライセンス取り決めが含まれてることを理解してる。

だからイーロン・マスクのような人々が OpenAI が AGI を達成したと言おうとして、したがって Microsoft やその他への AGI 技術のライセンスを制限するこの条項が発効して、Microsoft への新しい AGI 技術についてライセンスが期限切れになるべきやと言うてるのも見てきた。

AGI が何を構成するかを確立することは非常に困難やから、OpenAI 構造には OpenAI の理事会が何かが AGI かどうかを決定する者になるという場所がある。

OpenAI に対するイーロン・マスクの訴訟で、イーロン・マスクは OpenAI のエンジニアが AGI を達成したという発言に基づいて OpenAI が AGI を達成したと主張した。でも現在の構造の下では、個々のエンジニアではなく OpenAI の理事会が AGI に達したかどうかを決定するんや。

先週ほどに発行されたニュース記事で、Fortune を含むと思うけど、Microsoft がその現在の OpenAI との取り決めから AGI をライセンスするその制限を取り除こうとしてて、OpenAI がそれに反対して、その制限を取り除きたくないと述べた記事を見てきた。

でももちろん、これは全て名前のない情報源とのインタビューのようなものに基づいてる。だから OpenAI が AGI に関するルールを変更するために再構築するかどうか、実際に何が起こるかは、これらの当事者間の最終取引が何で、将来どう進むかを見るまで本当に分からん。

AGI認定の法的複雑さ

AGIが達成されたかされてないかを論証するのはどちらが簡単やと思う?

法的問題として、OpenAI構造がAGIを理事会がAGIがあったと言う時やと定義してるから、理事会がAGIがあったと言ってないなら、AGIがなかったと言う方がはるかに簡単やろ。

理事会がそれが起こったと言うまでは、それは法的定義として、彼らが望む時により多くの選択として作れるということか。

まさに。理事会は善意でそれをしなければならんという理論やけどな。AGIがあって理事会が「いや、いや、AGIはない」と言ってるなら、そう言いたくないという法的問題として、またはその逆、AGIがなくて契約から抜け出すためにあると言ってるなら。

それは彼らに対する他の種類の企業法請求があるかもしれん分野やけど、それを探求するのは本当に興味深いやろ。

現在、彼らが確実にAGIに達したという非常に良い明確な証拠はないと思う。AGIは定義するのが困難や。OpenAIポッドキャストでの最近のインタビューを見たけど、ホストが「AGIを達成した?GPT5でAGIを達成する?」と聞いた。

Altmanは「AGIについては本当に話したくないけど、話すのは超知能についてや。超知能に到達すると思う」と言う。Altmanは本当に賢い。なぜなら彼がAGIを達成したかAGIを達成しようとしてると言うたら、それがあらゆる種類の法的結果を持つやろうと知ってたと思うからや。

だから彼は「ああ、AGIについては話そう、超知能について話そう」と言った。AGIを構成するものの宣言をすることによる法的含意を避けるために注意深くしてる。ランダムなエンジニアがAGIを達成したと言うよりも、OpenAIがAGIを達成したとAltmanが言う方がはるかに論証しやすい。

合成データと補償制度への展望

SAm Altmanが実際にクリエイター、アーティスト、作家がこれらのモデルの訓練に入る彼らが作ったものに対して補償されるべきやという質問を提示された時、彼の見解は「それは興味深い質問やけど、これらのモデルによって作られるデータ、合成データが次世代のモデルを訓練するのに使われる時点にすぐに到達するから、それはもう重要ではないやろ」というものやった。

それが真実やと仮定しよう。全ての音楽と全ての文章と全ての画像がAIによって作られて、ゼロの人間データがあるとしよう。それでもSam Altmanは、アーティストが彼らがやってることに対して補償される方法が必要やと示唆した。新しい法律を通してそれにどうアプローチできるか?

それが起こる最も可能性の高い方法は、企業が訓練モデルの一部やった著者に何らかの補償基金を提供することに合意できる訴訟からの和解を通してやと思う。

合成データと、それが AI 企業にとって問題を解決するかどうかの質問について、合成データが実質的に類似してないなら、著作権法に違反することなく合成データで AI モデルを合法的に訓練できるのは多分真実やと思う。

なぜか?AI生成コンテンツは一般的に著作権保護を受ける権利がないからや。また、著作権保護を受ける権利があったとしても、その所有者はそれを作った人になるやろ。理論的に、合成データを使って訓練するやろう企業は、合成データを生成してる企業になるやろ。

彼らは合成データを求めてウェブをクロールしないやろ?でも理論的にはできるやろ?ビデオにAIタグが付いてて、AIアバターを使ってビデオを作った場合、そのビデオのAI生成部分、特にアバターの動きやアバターの画像には著作権保護を受ける権利が多分ない。

だからAIクローラーは「AI コンテンツとしてタグ付けされた全てを取って、それを訓練データセットとして使って、したがって訓練データセットで違法な著作権データを使ってない」と言えるかもしれん。

クレイジーやな。その播客では合成データの一種やってことを思いもしなかった。そんな奇妙な考えや。

YouTubeやGoogleが様々なビデオモデルの訓練にYouTubeがどれほど信じられないかを知ってたかどうか疑問に思う。なぜなら私たちがYouTubeに物をアップロードする時、どこかで私たちの権利を全て手放してると確信してるからや。だからVO3がYouTubeビデオで訓練されてると仮定するやろ。確実にそれに賭けるやろ。

xAIが今Twitterやったものを所有してて、それからXを所有してるのを誰が考えたやろ。なぜならそれは今、それがソーシャルネットワークやったはずの時のAI企業の小さな部分やからや。マスクがTwitterを買うことを見てた時、全体の目標はAI訓練に使うことやったと信じてる。彼はAIマキシマリストの一種やと思う。

Sam Altmanが「110億で買うよ」みたいなツイートを書いて、彼は「狡猾」とか何とか書き返したのを見た。

AI生成コンテンツの著作権保護

あなたが言った非常に興味深いことで、AI生成コンテンツは保護されてないということや。まず第一にこれは多くの人にとって実用的やと思うし、YouTubeやソーシャルメディアの多くのアーティストにとって、私自身も混乱してることを見つけるからや。

例えばMidjourneyから画像を取る場合、それを使うことは許可されてる?それは他の誰かのものに属してる?音楽を作るSuno AIについて知ってるけど、新しいバージョンが出た時にライブストリームをして、ページでトレンドになってた様々なアーティストからいくつかを演奏したライブストリームをやった。

後で著作権を取られた。テイクダウンではない。ストライクとは呼ばれないやろうな。著作権…

著作権クレームやな。

そうや。つまり、彼らがAdSenseのお金を取るけど、あなたは正確にトラブルになってるわけではないということやな。それは著作権音楽を使ってるという仮定に基づいてる。だからそれをフラグした エンジンは、これらの作品といくつかの他のアーティストの作品の間で実質的類似性を見つけたようや。

どのアーティストの作品としてフラグされたか言った?それとも、Sunoでそれを作って、YouTubeにアップロードした元の制作者?

素晴らしい質問や。Sunoではなく、アーティストがそれを作って公開し、それから彼らが最初になって、その人が制作者やと仮定したのか?

Sunoウェブサイトで、音楽を公開できて、人々がそれを投票して、その日のベストのようなトレンドのものがある。だから新しいモデル、Suno 4.0が出た時、私はそれをライブストリームして、トレンドになってた音楽を演奏した。

でも元々それを作ったのがSunoか、アーティストか、他の音楽に似てたかは素晴らしい質問や。もう少ししてダブルチェックするつもりや。私が有料のSynoプランを持ってた時に作った音楽については、商業目的で使えると言ってた。私が使うのがその音楽だけなら、その音楽は決してフラグされない。

でもトレンドページで何かを使うと、問題があるように見える。だから少し話せる…

一般的にAIがあるなら、私はMidjourneyに行くか、V3から他のアーティストや他のプロデューサーが生成したクリップを使うかで、法的には米国で責任はない?それは正しい?

米国では現在の著作権庁政策の下で、AIエンジンに出力するように促すクリエイターや人は著作権請求を受ける権利がない。彼らはその音楽を所有してない。そのアートワークを所有してない。そして著作権保護の対象ではないからパブリックドメインや。

生成AIを使って何かを開発する場合、生成AIの出力では著作権保護を受ける権利はない。それはその AI 制作コンテンツへのアクセスと使用を制限する法的根拠がないから、その方法で作られたものは全てパブリックドメインになるということや。

でも他の人の作品に密接に似てる場合、トラブルに巻き込まれることはできない?ストームトルーパーの一日の生活をログにするのにV03を使ってる人がいるストームトルーパーのブログがある。明らかにディズニーIPやけど、AI生成やと理解してる。それはパロディのことで逃げられる?

それは一般的に風刺と考えられるやろうけど、それはフェアユースではない。だからそれは実際に問題になるやろうけど、問題になるのは異なる理由のためや。人間によって作られた著作権のあるキャラクターがその中にあるから問題や。

だからディズニーの著作権がある。キャラクターデザインでな。そのキャラクターを使えば、人間によって作られた著作権のあるキャラクターを使ったからディズニーに著作権侵害の責任を負う可能性がある。それは保護可能で、登録されてて、彼らはそれに対してクレームを追求できる。

だから第三者コンテンツがあって、AI で誰かがそれを作ったから合法に使えるものにするとは限らん。それは AI を作った人からあなたを訴えることを防ぐということや。なぜなら彼らは生成 AI で作られた作品に著作権を持ってないからや。

ディズニーがGoogleのV3モデルに対して非常に良い議論をしないと思う?ユーザーがそれを促したから、彼らのIPに非常に近いものを生成するために?

そうかもしれん。だからディズニーによる別の訴因がある。AI システムを使った人による。だからディズニーは、システムに著作権のある創作物と実質的に類似した出力を生成するように促した人に対してクレームを持つかもしれん。

ディズニーは、その種のコンテンツを出力する傾向があるシステムを持ってるためにAI企業Googleに対してもクレームを持つかもしれん。それは代理責任や間接侵害と呼ばれる。

大型言語モデルと圧縮の類推

大型言語モデルやビデオモデルを時々想像する方法の一つは、圧縮のようなものや。DSLRで写真を撮って、デスクトップにRAWファイルがあって、それを右クリックして、JPEGとして保存すると、同じファイルのより小さなファイルサイズの圧縮版になる。

いくらかのデータ損失があるけど、ほとんどの場合、まだ良く見えて、より小さなファイルサイズや。それからそれをzipフォルダーとかにもう一度zipできる。でも基本的に全て同じ画像や。zipバージョンが私のものやとか、それから小さなものから大きなものに戻る時、変更を加えて、それが突然あなた自身の創造性のようになるとは感じない。

でもそのシステムも最終的な画像がどんなふうに見えるかでたくさん訓練された。混乱してる。

そうや、これらのAIモデルがデータを摂取する方法について心配するのは正しいと思う。なぜならそれは法的問題として重要やからや。作品のコピーを作ってるか、システムに摂取するためにその作品の小さな断片や何らかの解釈を取ってるかは重要や。

そして法的問題として、出力がストームトルーパーになるか、ランダムな宇宙エイリアンになるかも重要や。著作権のある入力と実質的に類似した出力がある場合、それは派生作品侵害の別の違反や。

多分ストームトルーパーを作るけど、既知の著作権法に違反しないように十分変更するように言うプロンプトがあるだけかもしれん。それがこれら全てがどう展開するかかもしれん。

New York Times対OpenAIの発見命令

時間を尊重したいけど、私を悩ませてる一つのことがある。エネルギーと時間の面でどう?

良い状態や。

これはとても興味深くて有益やった。本当に感謝してる。法律がどう働くかについて、我々法律以外の人々が作り上げる多くの神話を切り抜いてると思う。我々は多分間違ってるけど、これはとても優秀や。

聞いたことの一つやけど、本当に理解してないのは、New York TimesがOpenAIと複数の訴訟を持ってるようや。彼らは本当に問題を抱えてるようや。

最近のもので、何らかの裁判所の行為を通してNew York Timesが、我々ユーザーが削除したいと言った、またはアーカイブしたいと言った、削除したくないと言った、削除されることを望んだチャットログをOpenAIが削除しないようにすることに成功した。

だからNew York Timesが来て、何らかの形でOpenAIが、私が削除用にラベル付けしたものを、OpenEIが保持しなければならない。それについて本当に混乱してる。どうしてそれが可能なのか?なぜ?どうしてそれが可能なのか?

訴訟に関わってる企業は、進行中の訴訟に関連する可能性がある情報を削除しないという、それらの訴訟の倫理規則の下での義務がある。

だから訴えられた会社で働いたことがあるなら、多分HRやITから、データ保存命令の下にあって、削除フォルダーが削除されないとか、削除フォルダーに何も入れないでくださいとかいう手紙をもらったことがあるやろ。

それは基本的にここで起こってることや。OpenAIはデータ保存命令を持ってて、裁判所がその種の要件を発行するために下す決定。自分でやることもできる。弁護士が後で裁判所に現れて「これの証拠があるはずやけど、それを削除したと言うた。証拠がない」と言って、裁判所がそれに対してあなたに不利な判決を下すトラブルに巻き込まれないように、そうすることを助言するかもしれん。

でも裁判所がXYZタイプの素材を削除することを明示的に許可しないという命令を発行することもできる。それはその素材が手元のケースに関連するやろう時に起こり得る。

New York Timesが主張してる問題の一つは、ChatGPTのユーザーがNew York Timesの記事の完全版や実質的版にアクセスしてることで、New York Timesのページをクリックして行く必要がなくて、彼らは素材にペイウォールを持ってる。

彼らは基本的にNew York Timesが、ChatGPTのユーザーがNew York Timesのペイウォールを回避して、実質的な形で著作権のあるコンテンツにアクセスする方法としてChatGPTを使ってると主張してる。

だからユーザーが「XYZトピックについてNew York Timesが何と言ったか教えて」と言って、ペイウォールを回避して著作権のあるコンテンツにアクセスする方法として使ってるなら、そのユーザーデータは New York Times が起こしてる訴訟の請求に関連するやろ。

だからOpenAIは、そのユーザーデータが進行中の訴訟の請求に関連する可能性があるから、ユーザーデータを維持しなければならん理由や。

興味深い。プライバシーの悪夢でもある。私たちがそれを使って、私の何々の痛みを治してくれとか言ってて、今そのようなものも全て覚えられてる。

良いニュースは、彼らがその種のことを機密にしそうなことや。発見でのみ利用可能で、ディランが痛みについて検索したとか何とかは言わん。彼らは50,000人がこのNew York Timesの記事を検索して、記事の75%を受け取ることができたと言うやろ。

あなたの個人データが皆がアクセスできるように出されることはない。彼らは通常、弁護士のみの命令の下でそれらのものを置く。時々、基本的機密命令なら、事件の当事者のみがその情報にアクセスすることを許可される。

だからNew York Timesが、もしそれを気にするなら、何か問題のあることを検索したかどうかを知ることができるかもしれんけど、多分彼らは「これは事件の弁護士に限定される」と言うだけやろ。そして彼らは個人情報なしに集約でのみそれを開示することを許可される。

それを公的記録から編集しなければならんかもしれんし、とにかく公的に利用可能ではないかもしれん。

AI監視とプライバシーのバランス

私がよく考えることの一つは、インターネット上に写真とか、我々全員が異なる人々の写真の背景にいる可能性があるもの、ジオタグされてたり、インターネットの異なる部分にある特定のもので、全て一緒にまとめることができて、何らかの超人的AIや非常に賢いものが我々の個人的歴史全てをある方法で組み立て始めることができる方法があると感じる。

それは多分我々がまだ対処してない別のことになるやろうけど、多くの法制度が「この人は多分この犯罪を犯した」や「この人は多分これに対して罰せられるべき」や「この人は多分これをやった」と言う多くの法制度があるやろ。

そして彼らはそれを調べて、データを見なければならん。そして人々が以前はレーダーの下にいたような新しいことを見つけるやろ。そして人々は「それは合法か?それらのことを一緒にまとめることができるか?」のようになるやろ。特定の方法で匿名化されるべきか?データは永遠に記憶されるべきではないか?

その文脈で我々のAI支配者を個人的に歓迎する。なぜなら人々が互いに与える害についてもっとデータがあることは、法の支配にとって信じられないほど有用やと思うからや。人々が信じられない多くの例があって、彼らが信じられない状況がたくさんある。

例えばレイプや家庭内暴力の生存者について考える。彼らが信じられない多くの状況があって、それが起こったことを立証するのに役立つ何らかのデータの足跡を持つことは、法の支配にとって、正しい答えを得て、裁判所や警察官が状況で持つバイアスを避けるために信じられないほど有用やと思う。

より暗くてより大きかったから、他の人々より単純に逮捕された人を知ってる状況を想像できる。ちなみに目撃者もいて、起こったことに反してバイアスに従って証言した。その状況では、法は目撃者の証言にたくさんの重みを与えるけど、それはしばしば欠陥がある。

我々の状況の記憶がバイアスによって改ざんされ得る方法や、しばしば我々自身の状況の記憶でさえ我々の既存のバイアスを反映することについて多くの研究がある。実際に何が起こったかを教えてくれるデータを持ってたら、それは信じられないほど価値があると思う。

もちろん、プライバシーの含意もある。警察が存在しない問題を見つけたり、カメラに撮られたから問題にならないやろう問題である警察国家に住みたくない。

誰かが違法薬物を使ってるけど、一人でいて、それから家に歩いて帰るとか、そういうことを考える。誰も害を受けてない。それは通常警察が逮捕を行わないものやろうけど、多分この種の世界では行うやろ。

だから多分、正当なことで提出された逮捕や民事違反に基づいて、このプライバシー侵害型の感覚や、弁護士が「今すぐ訴訟できるものを見つけてくれ」と言って、AIが「あの会社やあの人々を訴えることができると思う」と言うようなものとは対照的に、人々が防御のためやそこで何か証明するために使うことを許可する異なる規則があるべきやと思う。

でも最良のためでもある。間違いが起こったことを本当に立証するのに役立ち得る。毒性不法行為、製品からの傷害について考える。AIは、弁護士が大きな投資なしに他の方法では発見しないやろうデータセットに存在したパターンを示すのに本当に有用や。

私の頭の最初の例は、インターネット上でその男が気に入らない、政治的に私と異なる、たくさんのお金を持ってる、彼らをめちゃくちゃにしようとか、そんな感じやった。でもあなたは正しい。レーダーの下を通ってるものを均等にするのにも使われる。

14億のヘルスケア詐欺を発見したAIについて読んだばかりや。DOJが偽のカテーテルか何かのために国外にお金が流れてるところを AI がどうやって見つけたかの全システムをリリースした。私は「オーケー、それはお金の素晴らしい使い方や」と思った。

でも我々にも向けられる可能性がある。

政府と警察のシステムを確立して、プライバシーの含意を意識してるけど、害が発生したことを示すためや、人々が傷害を受けたことを示すためにもっと証拠を持つことの利益を積極的に重み付けし、均衡を保つ必要があると思う。

特にそれが一般的に信じられないグループや、そういうことがある時や、大企業に対する訴訟がある時な。製品に危険な化学物質が含まれてると思う。AIが大勢の人々の医療記録を調べて、この期間にこの店でこのアイテムを購入した人々全てが、それから一年後に医師のオフィスに来てこれやそれについて苦情を言ってることを示すことができるなら。

それは他の方法では決して生じなかったやろうパターンを示すのに使うことができる。金融詐欺を決定するのにも、人間の専門家がお金を追跡して金融詐欺を決定するのは信じられないほど困難で費用がかかるけど、AIは金融詐欺を特定しようとするのにアルゴリズムが信じられないほど良くなり得る。

だからたくさんの良い可能性があると思う。AIがどう使われるかについて楽観的な側にいる。警察が誰かがタバコではない何かを一服して家に歩いて帰ったとかを見るためにカメラ全てを検索することを基礎として新しいクレームを提出するために使うことに対する憲法修正第4条の保護のような何らかの枠組みを設定したいだけや。

彼らが他の方法では持つことができなかったやろうクレームを起こす基礎として警察がこれを使うことは望まん。

ディープフェイク規制の新展開

他に扱ってない大きなことはある?払拭したい神話や?初期のメールでディープフェイクについて言及してた。

ディープフェイクについて話すことが重要やと思う。強調したいことの一つは、ディープフェイクのいくつかの側面をカバーする連邦法を今持ってることや。

5月に大統領がテイクイットダウン法に署名した。これは同意のないポルノの配布を禁止する。それが実際の画像であれ、その人のデジタルレプリカや彼らが呼ぶもの、ディープフェイクであれ。

それは基本的にテイラー・スウィフト問題を防ぐ。テイラー・スウィフトが彼女の肖像を使って同意のないデジタルディープフェイクポルノを作られて、彼女はそれを望まなかった。でも彼女を保護する連邦法はなくて、多くの州がデジタル描写や同意のない親密画像に対する保護を持ってない。

だから新しい連邦法は実際のデジタル、ディープフェイクの同意のない親密画像や同意のないポルノの両方を禁止する。だからこれは主にインターネットからそれを取り下げるツールや。必ずしも最初にそれをやった人を攻撃して行動を阻止するためのものではない。

それとも最初にそれをやった人を攻撃して行動を阻止する?

そうや。だから政府によって追求され得る刑事違反の両方で、そのような状況で被害を受けた場合、地元の弁護士事務所、地元の政府弁護士事務所で起訴を押して、その人に対する刑事告発を得ようとすることができる。

加えて、画像が現れるオンラインプラットフォームでこの法律の下でコンテンツの削除を要求することによって、オンラインプラットフォームからそれを削除することができる。オンラインプラットフォームは48時間以内にコンテンツを削除する義務がある。

48時間の期間が十分や適切やということに反対する多くの学者がいる。彼らは、重要な時にこの法の違反として広範に過剰タグ付けが起こって、単純にそれを削除されることにつながると言う。

政治候補者にとって不都合な政治的画像があって、政治候補者がそれを削除したいと言って、プラットフォームが人間レビューに従事する時間をあまり持たず、だから単純にそれを削除する状況を想像できる。多くの状況でそれが起こることになるやろ。

そこでたくさんの乱用があるやろ。でも同意のないポルノに画像が使用される個人にとってもたくさんの利益があると思う。でも記事の一つが、可決された直後に、トランプがそれを使って好まないいくつかのことを削除すると言ったと思う。記事はトランプがマスクの足にキスしてるような写真について言及してたと思う。

あなたがそれを好まないものとしてフラグを立てるだけで、この法の違反やと、プラットフォームはそれを削除する可能性が高い。それは確実に過度に広範な削除につながる可能性がある。

だからこれは基本的に、画像に現れる誰でもそれを要求できる?以前の法律は何やった?

州ごとの保護やった。だからバージニアのような一部の州には、他の人の同意なしにその人の親密画像、通常は性器とかそんなものを描写するものを配布することは違法やという同意のないポルノ法がある。

それを防ぐ法律を持つ他のいくつかの州があるけど、ディープフェイク画像まで及ぶ対象範囲を持つ州は非常に少ない。バージニア法のようなものをディープフェイク画像、ディープフェイク画像まで拡張して読むことはできるやろうけど、それについて話す判例法はあまりない。

だから州ごとの執行やった。同意のないポルノに対する法律を全く持たない多くの州がある。ましてやデジタル描写のものはな。だから連邦法を持つことが多分熟してた分野やったと思う。

でも多くの学者は、デジタルミレニアム著作権法の下での著作権削除システムの乱用よりも、さらに乱用される可能性があるこの48時間削除の実装について反対してる。

でも個人的には、削除システムを持つことが有用やと思う。AIがディープフェイクに最初に使われた時、何年も前に提案した。2021年か2022年に書いたと思う。ディープフェイクと特にディープフェイクポルノに対する削除と除去法の必要性について話す記事を書いた。

だから彼らがこれをやったことを個人的に嬉しく思う。多くの人を助けると思うし、連邦法を持つことは州ごとの執行でこれら全てを扱うよりもはるかに簡単になるやろ。でも多くの学者が反対してる。

肖像権とディープフェイクの境界

先週、デンマークが人々に自分の特徴、自分の顔への著作権を与えることでディープフェイクに取り組んでると言う記事が私のフィードに流れてきた。それは異なる用語での同じことか、平均的なアメリカ人は顔に著作権を持ってる?

パブリシティ権と呼ばれる異なる法律が適用される。私は連邦パブリシティ権も持つことを提案してきた。現在これも州法によって管理されてて、州法は異なる。

死後に画像への権利を維持できるかどうか、それが相続人に渡るかどうかを含めて多くの方法で異なる。この権利がどう適用されるかについて州から州への多くの対立がある。

でもそれはパブリシティ権と呼ばれ、商業的流用で他の誰かがあなたの名前、画像、肖像を使うことから保護する。だからそれは広告や、それを使う人にお金を稼ぐ何かにあるものでなければならん。

誰かがあなたの画像や肖像を娯楽のためや、あなたを虐待したり嫌がらせしたりするために使うだけなら、それは商業的使用ではない。だからどの州法も違反しないやろ。感情的苦痛や名誉毀損や中傷のような何らかのクレームを起こすことができるかもしれんけど、それらはとても困難や。そのようなものを起こすのはとても困難や。

誰かが好まないことをしてる人を描写してるだけなら、フォルスライトクレームを持つかもしれん。それは人が実際ではないことを示すための不法行為クレームや。だから誰かがHIVを持ってると描写して、彼らがHIVを持ってないなら、それはケースの一つやった。フォルスライトのクレームを持つことができる。

でも親密画像に関しては、それがフォルスライトやと言うのは本当に困難や。誰かが性的行為に従事してるディープフェイクを持ってるなら、それがフォルスライトやと言うのは困難や。多くの人が性的行為に従事するから、フォルスライトではない。

だから誰かがしないことをしてることを描写してるとは言えない。フォルスライトではない。だからそれがどれほど極端かやその他によるけど、ほとんどの州法はそれから保護しない分野や。

だから私は連邦パブリシティ権クレームを持つべきやと思う。現在それは持ってない。でも同意のないポルノに関するこの法は、最も悪質で最も一般的なディープフェイクの使用に対処するそれに向けた最初のステップや。

最近の研究では、ディープフェイクの約95%がオンライン上でポルノの生成に主に使用されてると結論づけたと思う。インターネット上の多くのものがそうであるように。だから彼らが最初の法をこの問題に焦点を当てたことを嬉しく思うけど、まだここで対処すべきことがもっとある。

俳優の画像と肖像のディープフェイク使用に対処することも、すぐに重要になってくると思う。なぜなら俳優の同意を得ることなく映画に俳優をキャストできる場合があるかもしれんからや。これが商業的使用か非商業的使用かやそんなことによって、州法の下で商業的流用を立証するのが困難かもしれん。

これは、多くの州法の下で彼らの相続人が主張する権利を持たない亡くなった俳優にとって特に真実や。だから死後パブリシティ権を持たない州で亡くなった俳優がいるなら、その俳優の肖像は現在の法律の下で、彼らの同意や相続人への補償なしに映画で単純に使用される可能性がある。

私はそれを問題やと見てて、連邦法を必要としてる。

法的境界線の曖昧さ

類似性の観点から線をどこに引くかも非常に興味深くなりそうや。Sam AltmanがAIの声をリリースしたのを覚えてる。「映画『her』のようなアシスタントを持とう、スカーレット・ヨハンソンが演じた」と言った。

それから多くの人が「ああ、それは明らかに彼女の声や」と言う声をリリースした。並べて聞くと100%ではないけど、類似性は確実に聞ける。Tiger Kingも覚えてる。数年前のそれで、競争相手の夫が行方不明になって、ある時点で彼女が人間の遺体のように見えるものをトラに食べさせてるビデオを見せる。

使った女性は競争相手とまさに同じように見えた。彼は完全に同じように見える人を見つけた。だからそれは興味深くなりそうや。ディープフェイクの場合、これは私が見てるこの人か、それとも他の誰かか?明らかな状況かもしれんけど、それからそこから少し離れたら、分かる?何らかの方法でそれについて考える?

私のウェブサイトにスカーレット・ヨハンソンOpenAI論争についてのブログ投稿がある。たくさんのブログ投稿があるけど、そこにある。それについてYouTube動画もあるかもしれん。

スカーレット・ヨハンソンとOpenAIの例では、彼女の声が認識可能やから、彼女は声にパブリシティ権クレームを持ってる。それは人々が彼女を特定できる方法で、彼女はそれを商業的に使用してきた。

だからほとんどの州法の下で、彼女の声はパブリシティ権法の下で保護可能やろ。それから会社があって、公衆がスカーレット・ヨハンソンと関連すると信じるやろう声を商業的文脈、つまり有料サービスで使用してる。

それなら、その他の人がスカーレット・ヨハンソンの同意なしに彼女の識別可能な肖像、彼女の声を含めて商業的に使用してるから、私が思いつけるほぼ全ての州法の下で非常に明確なパブリシティ権違反や。

そしてOpenAIがその物がリリースされる数日前に彼女の許可を求めて、彼女がノーと言ったという複雑さが加わってる。だから誰かが明確にノーと言ってて、彼らがこれが問題になると思うほど開発が進んでると思う時、それは膨大な法的リスクを作ると思う。

だから彼らは結局、彼女の許可がなくて、声が彼女にとても似てたから、その声を今後使わないことに決めたと思う。後で彼女の声で実際に訓練されたのではなく、彼女に似た音の人で訓練されたと言ったけど。

でも判例法では、公衆にこれが彼らの声やと信じさせる目的でのサウンドアライクの使用も、パブリシティ権法に違反する商業的流用やと認定してる。

分かった。だからこれは明確なケースやった。もしOpenAIがその声を使い続けたら、それは明白やった。だからサウンドアライクとルックアライクは、実際の他の人間であっても、ルックアライクされたり音を似せられたりしてる人が、公衆がそれが彼らであるべきやと思うかもしれんほど十分に知られてる場合、それでも考慮される。

そして人間である必要さえない。その人に似てるロボットを持つこともできる。それもケースの一つで興味深い例やった。ロボットのルックアライクやロボットサウンドアライクを持つこともできる。

これはsunoの文脈でたくさん出てくると思う。人々が特定のアーティストのように聞こえる歌を作ってるなら、それはそれらのアーティストの非常に明確なパブリシティ権違反になりそうや。その出力を作ったユーザーと、商業的に使用された場合、それらのパブリシティ権違反に対してもsunnoが責任を負う可能性がある。

私の心では、連邦法は商業的流用を責任の根拠とする必要はないと思う。損害については多分やけど、彼らの同意なしに誰かの名前、画像、肖像、彼らを特定するものを使う時はいつでも、それがその連邦法の違反になると言う連邦法を持つべきやと思う。それが私が思うことや。

興味深い。スタイルはその中でどこに入る?例えばOpenIIが人々のリクエストでジブリ画像を作ってたり、カニエ・ウェストのように明らかな歌を聞いたことがあるけど、彼の声ではないし、本当に彼ではないけど、スタイルは間違いなくそうや。ジブリ画像のスタイルは間違いなくそうや。それは著作権の問題か、それとも?

私はそれについてもビデオを持ってる。ジブリのについて短いビデオや。一般的にスタイルは著作権法の下で保護可能ではない。なぜなら著作権法の下で保護可能になるためには、特定の表現である必要があるからや。あなたの創造的な心やその他の独創的表現である必要がある。

でも画像や映画やキャラクターデザインのように書き留めた何らかの表現がない場合、有形媒体に固定されてないなら、保護可能ではない。線画の概念は著作権できない。特定の外観の概念でも、裁判所がすることは何を出力したかが既存の表現と実質的に類似してるかどうか聞くことや。

例えばChatGPTを使って、あなたとあなたの猫と一緒に立ってるジブリスタイルの肖像を生成する場合、私がやったことやけど、多分問題にならん。でも『千と千尋の神隠し』のキャラクターのように服を着て、彼らのようにポーズを取って、それを変換させたら、それは著作権作品と実質的に類似することになって、その著作権責任に直面することになる。

多くの素晴らしい質問や。これら全てを理解するのは非常に複雑になりそうな感じがする。特に今はとても多くの人がこのようなものを作れるからや。

現在の法律はどこに向かってる?かなり更新が必要か、ほぼそこにあるか、何も変更せずにこれを乗り切れるか?そのスケールのどこにあると思う?

何も変更しないで乗り切ることはできる。なぜなら裁判所は何百年もの間、新しい技術が出てくるたびに新しい状況に適用するために法律を解釈しようとしてきたからや。でもそのトピックについて連邦法さえ持ってない時ははるかに困難や。

だからディープフェイクの作成に関しては、新しい法が必要やと思う分野の一つや。なぜならこの新しい技術のために新しい害が起こってて、以前には予想されてなかった害やからや。新しい害が生じる時、それをカバーする新しい法が必要かもしれん。

著作権や特許の問題に関しては、必ずしも新しい法は必要ないと思う。既存の法の下で理解できる。でも著作権とAI訓練ケースで裁判所が提起してる多くのケースで政策含意が広範に関わってる時、一般公衆に対するAIの重要性をこれらの決定で考慮すべきではないと裁判所が言ってる時。

それは我々の前の当事者についてではなく、一般公衆についてや。裁判所がそれらの質問で本当に苦労してる時、議会が介入して明確さを提供することが有用やと思う。訓練は著作権侵害を構成しないとか、AIを訓練することは元の訓練データが海賊版データに基づいてない限り著作権侵害に対する抗弁やとか。

それが議会が明確さを提供すると良いと思うところや。でもそうしなくても、人々は最終的に大丈夫やろ。最高裁判所がそれを解決するやろ。

会社が直面する可能性がある膨大な法的リスクのために膨大な金額を法的リスクに投資して、そのために資金を取っておかなければならない、結果がどうなるか不確実やから開発の重要な時点で多くの混乱があるやろ。

数年間はそのボートに乗ることになるやろ。

未来への展望と結論

Teslaも多分いくらかのお金を取っておく必要があるやろうと想像できる。ロボタクシーやWaymosが損害を引き起こした場合に備えて。いくつかのケースでは誰が責任があるかについて議論したいかもしれんけど、一方向にたくさんのお金が流れてて、法制度がお金に従って「ロボタクシーでたくさんのお金を稼いで、損害をやった。誰かがここで責任を負わなければならん」と言うような感じがする。

システムがそれに適応するかもしれん。でも裁判所の欠点は、証明された害がある時、その害の額を証明できる時のみ責任を課すことや。多くの種類の違反については、幸いなことに著作権では害の額を証明する必要はない。法定損害賠償に頼ることができる。

でも不法行為については、これはどれだけあなたに害を与えたかを証明しなければならん。これは実際にあなたに害を与えたか?私が訴えてる人は実際にこの行為に責任があったか?彼らはどれだけの責任を負うべきか?

それは害を受けた多くの人が補償を受けられない多くの状況につながり得る。なぜなら彼らが証明できないか、訴訟を起こして維持する余裕がないからや。

だから裁判所制度に頼って物事を公正にすることを試みてるなら、それは皆にとって物事を公正にはしない。訴訟を起こして裁判まで維持し、上訴まで維持することに成功する稀な当事者にとって物事を公正にする。それは皆ではない。

だから大きなグループの人々に害を引き起こしそうなものがあるなら、新しい規制や新しい法を持つことは、より大きなグループを保護しようとするのに有用や。訴訟してる人や訴えられてる人だけではなく。

AI時代の新たな職業と保険

オンラインで聞いたジョークの一つで、どれほど真剣かは分からんけど、AIが作ろうとしてる新しい仕事の一つを、彼らは罪食いと呼んでる。指定された身代わりの人や。建築家の場合やAIシステムが建築をしてる場合、建物が倒れた時に責任を負う一人の人がいる。

法制度で、何らかの法的研究をしてる場合、まだ責任を負う人間が必要で、何か間違った場合のスケープゴートになる。AI・ジーザス。全く新しい。最低賃金やけど、会社でAIディレクターに昇進した。ありがとう。何か間違った場合、あなたが責任を負う。

ほとんどの場合、会社は取締役とCEOとCスイート保険を持ってて、その個人に向けられるやろう責任をカバーする。だから最終的に会社の行動の結果としての責任は、その会社によって負担されて、それらの取締役と役員によって負担される可能性は低い。

テスラの取締役責任保険がどんなふうに見えるかを見ることに非常に興味があるやろ。彼らは責任保険にたくさん払ってると想像する。

それは全く新しいもののようや。AI自動化システムを使うことで生じ得る問題を保証する非常に特定の保険のタイプや。全く新しい種類の業界が生まれる可能性がある。

これは我々史上最長のインタビューやったと思う。今日ここにいてくれて、我々と時間を過ごしてくれて本当にありがとう。これは信じられないほど、照明的やった。本当にありがとう。

話せる話題の表面をかろうじて引っ掻いたと思う。だからもしまた別の2時間半をやりたいなら、大歓迎や。本当にありがとう。

様々なブログ投稿、最近発表したあなたの論文、YouTubeチャンネルへのリンクを全て残すつもりや。皆さんぜひチェックしてください。信じられないほど有益で、我々が触れてもいないことがたくさんある。

コメントで、彼女にもう一度戻ってきてもらいたいかどうか知らせてくれ。そして次回カバーしてもらいたい他の質問も。本当にありがとう。

コメント

タイトルとURLをコピーしました