ChatGPTを運営するOpenAIが、ニューヨークタイムズらによる著作権訴訟において、約2000万件の匿名化されたユーザーチャット履歴を裁判所に提出するよう命じられた。OpenAIはプライバシー保護を理由に抵抗したが、裁判所はこれを却下し、匿名化処理と保護命令により対処可能だとして証拠開示を命じた。ニューヨークタイムズは、OpenAIが自社の記事を無断でAIトレーニングに使用したと主張しており、実際にChatGPTがその著作権コンテンツを再現したかどうかを確認するため、ユーザーとの会話ログが必要だと訴えている。この判決は、日常的にAIを使用する多くのユーザーにとって、プライバシーに関する重大な転換点となる可能性がある。OpenAIは透明性の確保に努めているものの、Google Geminiを含む多くのAIプラットフォームがデフォルトでユーザーデータをモデルのトレーニングに使用している現状があり、機密情報を扱う際にはローカルAIへの移行や特定設定の変更が推奨される。

ChatGPTが裁判でチャット履歴の機密保持に失敗
ChatGPTが著作権訴訟においてチャット履歴を非公開に保つための戦いに敗れました。これは本当に信じられないことで、私たちはこれについて話し合わなければなりません。これはプライバシーにとって非常に深刻な事態です。OpenAIはアメリカの裁判官から、著作権訴訟の一環として、約2000万件の匿名化されたChatGPTユーザーログをニューヨークタイムズやその他の報道機関に引き渡すよう命じられました。OpenAIはこれらのログを機密に保とうとする試みに失敗したのです。
裁判所は、これらのログが関連する証拠であり、プライバシーに関する懸念は匿名化と保護命令によって対処できるとしましたが、証拠開示の過程でそれらを提出しなければならないと判断しました。これはプライバシーにとって深刻な問題です。なぜなら、皆さんの多くは日常的にChatGPTを使用しているからです。多くの方が毎日AIや言語モデルを使っていますが、今私たちは、自分たちのプライベートな会話がそれほどプライベートではないかもしれないという最初の事例の一つを目にしているのです。
これは本当に驚くべきことです。なぜなら裁判官は文字通りOpenAIの要求を却下したからです。もしこの騒動全体の原因についてご存じでない方がいらっしゃれば、私は実際に昨年これについて話しました。基本的に問題は、私たち全員が知っていることです。正直に言いましょう。OpenAIやこれらすべてのチャットモデルは、本質的にインターネット上にあった何百万ものテキストを使ってトレーニングしたのです。
ニューヨークタイムズが主張している本当の問題は、彼らが私たちの記事を使ってトレーニングしたのに、私たちは報酬を受け取っていないということです。それがニューヨークタイムズの主張です。私は2024年にこれについて話しました。2024年だったと思います、いや2025年の初めだったかもしれません。正確な訴訟の時期は覚えていませんが、これは長い間続いている問題です。
ニューヨークタイムズは基本的にこう言っているのです。「見てください、あなたたちは何十億ドルも稼いでいるのだから、私たちも分け前が欲しい」と。そして、あなたたちは実際には私たちに許可を求めませんでしたよね、と。これまでにも多くの著作権訴訟がありました。しかし問題は、現在において本当に問題となっているのは、彼らが実際に会話についてトレーニングしたかどうかを確認するために、基本的にこう言っているのです。「私たちはユーザーの会話を見る必要があります。ニューヨークタイムズのコンテンツが実際に再現されたかどうかを確認するために」と。
これはかなり驚くべきことです。裁判官がOpenAIの要求を却下したことがわかります。裁判官は、このAIスタートアップ企業に記録を証拠として提出するよう求める以前の命令に対するOpenAIのプライバシー関連の異議申し立てを却下しました。この訴訟には複数の保護層が存在します。それは、証拠開示の多くが非常に機密性が高く、プライベートな性質を持っているからです。
OpenAIの広報担当者は水曜日に、同社の最高情報責任者による以前のブログを引用し、タイムズのチャットログ要求は長年にわたるプライバシー保護を無視し、常識的なセキュリティ慣行を破るものだと述べました。そしてOpenAIは、ご存じのように、これに対して上訴しましたが、裁判官は基本的にこの要求を却下しました。
この判決がAIの未来に与える影響
これはかなり深刻な問題です。なぜなら、これがどれほど大きな問題であるかを人々が理解していないと思うからです。そして、このビデオの後半で、なぜこれがAIにとって根本的な変化なのかについてお話ししたいと思います。これはおそらく、あなたが見るべき最も重要なビデオの一つです。なぜなら、もしあなたが日常的にAIを使用しているなら、これはおそらくあなたがAIを使用する方法を根本的なレベルで変えるべきだと思うからです。ほとんどの人は、自分のデータがどの程度さらされているかを理解していません。
そして私は皆さんに、多くの大企業があなたのデータを収集していることをお見せします。Meta、OpenAI、これらすべての企業が含まれます。そして、皆さんが有効にする必要がある特定の設定があります。ビデオの後半でそれらをオンにする方法をお見せします。これはもちろん、今起こっていることです。なぜなら、冒頭で述べたように、彼らは基本的にユーザー間のログを見たいと考えているからです。ChatGPTが実際にニューヨークタイムズの著作権で保護されたコンテンツを再現したかどうかを確認するためです。
ですから、これについて驚くべきことは、OpenAIが本質的にニューヨークタイムズを見たということです。ニューヨークタイムズがこの大規模な訴訟を提起したとき、彼らは基本的にこう言いました。OpenAIはそれに対する反応として、こう言ったのです。「まあ、あなたたちがここで言っていることを見ると、実際にはあなたたちがチャットボットをハッキングして証拠を捏造したように見えます」と。
私が思うに、これをプロンプトエンジニアリングと呼ぶことができるでしょう。もしあなたがニューヨークタイムズからの最初の実際の訴訟を見たことがあるなら、逐語的にニューヨークタイムズの記事だった応答の多くは、チャットボットにそうさせるためのプロンプトエンジニアリングなしでどうやって得られるのか、私にはわかりません。それが彼らが言っているポイントの一種です。
彼らはこう言っているのです。「見てください、もし私たちがプロンプトエンジニアリングをしたのなら、なぜチャットログを見ることができないのですか?」と。これは完全な応酬です。そして現在、もちろん、OpenAIはログを引き渡すことは機密のユーザー情報を開示することになり、トランスクリプトの99.9%は侵害の申し立てとは何の関係もないと反論しました。
そしてワング判事は、OpenAIのユーザーのプライバシーは徹底的な匿名化とその他の保護措置によって保護されると、チャットを提出するよう命じた最初の命令で述べました。そしてワング判事は水曜日に、同社の措置はプライバシーに関する懸念を合理的に軽減するものであると改めて述べ、OpenAIにユーザーの識別情報を削除してから7日以内にログを提出するよう命じました。
データプライバシーの重要性と対策
基本的に彼らがやろうとしていることは、ユーザーの識別情報を削除するということです。つまり、あなたが名前や番号などを入力した場合、それらを削除するということです。しかし、私を信じてください。あなたはこのビデオを最後まで見る必要があります。なぜなら、私がTwitterでこの記事を見た後、それがツイートされていて、それを思い出したとき、私は実際に多くの異なる設定を変更しに行ったからです。
私はいくつかの異なるオープンソースAIモデルをダウンロードしに行きました。そして私は自分自身を守らなければならないと思いました。なぜなら、未来がどれほど狂ったものになるかわからないからです。そしてデータプライバシーはこれまで以上に重要です。では、なぜこれが今起こっているのでしょうか。ニューヨークタイムズからの記事を皆さんにすぐにお見せして、OpenAIが実際にこれにどのように対応したか、そしてなぜこの全体のこと、裁判官が実際に彼らを却下したという事実がかなり驚くべきことなのかをお見せしたいと思います。
このブログに来ると、2025年6月5日と表示されているのがわかります。これは実際には少し前のことでした。ご覧のとおり、数か月の訴訟の後、私たちはもはや消費者とAPIコンテンツを無期限に保持する法的命令下にはなく、初期の命令下での私たちの義務は9月26日に終了しました。
ですから、理解していただきたいのは、彼らがここで話しているのはデータプライバシーについてであり、OpenAIは全面的に防御しながらも可能な限り透明性を保とうとしているということです。なぜなら、彼らは個人とデータプライバシー、そしてFacebookスキャンダル全体について知っているからです。そのような状況をもう一度持ちたくないのです。なぜなら、ユーザーの信頼を失った後にそれを取り戻すのは非常に困難だからです。そしてOpenAIは現在、困難な道を歩んでいます。彼らは非常に多くの異なる戦いを戦っています。Googleと戦い、著作権と戦い、彼らはただ上り坂の戦いを戦っているのです。
ですから、ChatGPTとのあなたの会話について彼らが言っているのは、ニューヨークタイムズが2025年4月から9月までのOpenAIからの特定のユーザーデータセットを保持するよう要求し続けているということです。ですから、私たちはもはや新しいユーザーデータを今後無期限に保持する必要はありませんし、EUやスイス、イギリスから発信される会話も保持する必要はありませんが、2025年4月25日から9月までの限られた過去のデータを安全に保存します。
それは厳重に保管され、監査された少数の法務およびセキュリティチームのみがアクセス可能で、義務を果たす以外の目的には使用できません。そしてデータは現時点ではニューヨークタイムズや裁判所、その他の誰にも引き渡されることはなく、私たちはこれらの規範と戦い続けます。もちろん、今では実際にそれを引き渡さなければならないことがわかっています。
しかし、裁判官が、新しいユーザーデータを今後無期限に保持しなければならないと言ったのは、かなり驚くべきことでした。それは正気の沙汰ではありません。彼らがそう言うのは正気の沙汰ではないことです。しかし、もちろん、今では彼らはもはやそうする必要がなくなり、チャットを削除することになります。
あなたがChatGPTと行ったチャットの数を考えてみてください。おそらくプライベートだと思っていたものです。削除されたと思っていた一時的なチャットでさえです。時々、この新しい法律やこの種の法廷審理では、それが存在しないことが恐ろしいのです。もちろん、OpenAIはいくつかの質問を提示しています。彼らは、なぜニューヨークタイムズと原告がこれを求めているのかと言いました。ニューヨークタイムズは、根拠のない訴訟の一環としてOpenAIを訴えています。
彼らは最近、裁判所に対して、彼らのケースを支持する何かを見つけるかもしれないという憶測に基づいて、すべてのユーザーコンテンツを今後無期限に保持するよう強制することを求めました。それは正気の沙汰ではありません。それは基本的に、ChatGPTと会話する誰もが、早口で話して申し訳ありませんが、ChatGPTと会話する誰もが、彼らにその会話を保持してほしいと言っているようなものです。
それは度を越しています。もちろん、OpenAIがこれと戦っていることに感謝します。そして彼らは言いました。「私のデータは影響を受けますか?」はい、もしあなたがChatGPT FreeやPlus、Pro、Teamサブスクリプションを持っている場合、またはゼロデータ保持契約なしでOpenAI APIを使用している場合です。そしてこれはChat EnterpriseやChat Eduの顧客には影響しません。
ですから、理解していただきたいのは、これは、あなたのデータがある程度保持されることになるという知識なしにChatGPTを使用している方々にとって、かなり悪いことだということです。そして私は、これはある意味で警告だと思います。皆さん、もしあなたがクラウド上でAIを使用しているなら、あなたはそのデータをクラウドに送信しているのです。
そして、これについて驚くべきことは、たとえあなたがChatGPTからデータを削除したとしても、それはこの命令の下でまだ保持されるのかということです。ニューヨークタイムズは、通常30日以内にシステムから削除されるはずの削除されたチャットやAPIコンテンツでさえも保持するよう要求しています。だから私はそれが狂った部分だと言ったのです。なぜならこれはチャット活動からの最初の訴訟だからです。他の企業がこれに従わなければならない場合はどうなるでしょうか。または、あなたのデータが何らかのファイルや何らかの著作権訴訟に含まれている他のデータ制限や著作権事例があった場合はどうなるでしょうか。
かなり驚くべきことですよね。もちろん、彼らは言います。このデータは自動的にニューヨークタイムズと共有されるわけではなく、もし彼らがこのアクセスを何らかの形で求めてきた場合、私たちはあなたのプライバシーを守るためにあらゆる段階で戦います。そして、かなり驚くべきことに、ある時点で裁判所は、裁判所命令が彼らにChatGPTとAPIコンテンツを今後保持するよう強制していました。
6月にそれはかなり驚くべきことでした。私は当時これを見なかったことが信じられません。ですから、かなり驚くべきことです。さて、私はこの記事から何を示すべきかと思います。これが起こるかどうかはわかりません。これが起こるかどうかは、最前線はかなり速いので、でも私は、大部分の、実際には、プライベートな人々のサブセットにとって、おそらくローカルAIにシフトしたいと思うでしょう。
ローカルAIへの移行とプライバシー設定
さて、私は無料でOpenAIモデルをインストールする方法についてのチュートリアルを作りました。かなりまともなオープンソースモデルですが、平均的な人が常に博士レベルのAIを必要としているとは思いません。デバイス上で実行できる多くのオープンソースAIツールがあり、それらは驚くほどうまく機能します。そしてもちろん、画像や推論、一般的な機能など、オープンソースでは得られないものがあると思います。オープンソースでは決して得られないことは言うまでもなく、GPUの制約もあります。なぜなら、十分に強力なコンピューターを持っていない場合、それを実行するのは少し難しいことがあるからです。
ですから、もちろん、誰もがローカルAIにシフトするのは簡単なことではありません。しかし、私がここで言いたいポイントは、皆さん、ChatGPTに情報を入力する方法には少し注意する必要があるということです。なぜなら、多くの場合、それらの会話はあなたが思っているほどプライベートではないからです。
さて、正直に言うと、これはOpenAIだけの問題ではありません。Googleも残念ながらこれの共犯者です。デフォルトでは、Google Geminiとのあなたの会話は実際に次のモデルセットのトレーニングに使用されています。ですから、特定の設定を有効にしない限り、それらの会話はプライベートではありません。そして、それが狂っているように聞こえることは知っていますが、私は文字通り、説明欄にリンクを提供します。
私は昨日2つのチュートリアルを作りました。1つはGoogle Geminiでそれを無効にする方法について、もう1つはChatGPTでそれを無効にする方法についてです。しかしそれでも、何らかのコア制限が発生した場合、それらの会話は次のモデルセットのトレーニングには使用されないかもしれませんが、それでも保持される可能性があります。ですから、それは本当にあなたがどのような種類の機密データを使用しているかによります。
ここで私が言いたいポイントは、皆さん、もし機密データがある場合、理想的にはそれをローカルAIシステム、デバイス上のプライベートな言語モデル、小規模な大規模言語モデルに移行したいということです。そして、完全に自宅でのデバイス上AI実行のために作られた、クラウドに接続されていない小型コンピューターの1つを購入することも検討してください。
そうすれば、あなたのデータがあなたにとって本当に重要で匿名化されている場合、完全に安全を保つことができます。それが私の最善のアドバイスです。3つのリンクを残します。1つはOpenAI GPT OSSをインストールする方法について、1つはOpenAIであなたの会話についての再トレーニングを無効にする方法について、そして1つはGoogle Geminiについてです。
もしこのビデオを楽しんでいただけたなら、うまくいけば、今後AIをどのように使用するかについて異なる考え方をしていただけたと思います。これが状況にどのように影響するかを見るのは本当に興味深いでしょう。私はそれほど大きな影響はないと思いますが、プライベートを重視し、OpenAIにそこで干渉してほしくないユーザーにとっては、確認することを忘れないでください。


コメント