この動画は、AI業界における最新の重大なニュースを扱っている。主な内容として、xAIの元エンジニアがOpenAIに機密情報を持ち出したとされる訴訟問題、OpenAIのAGI格納設備とされる地下施設の画像、Time誌のAI業界影響力者リスト2025、DeepSeekの人気がボットによって人工的に作られた可能性、そしてChatGPTがユーザーの会話を監視し警察に通報するシステムを導入したことについて詳細に分析している。

AI業界を震撼させる技術窃盗疑惑
今週は重大なAIニュースがありました。まず最初に、イーロン・マスクとxAIが訴訟を起こしました。どうやら元xAIのエンジニアの一人が、高度なAI機能を含む資料を盗み、それをOpenAIに渡した疑いがあるようです。
この従業員について説明すると、彼はxAIで働いていて、今はOpenAIに移籍しようとしています。訴訟によると、彼は700万ドル相当のxAI株式を売却し、企業機密をOpenAIから取得して個人のデバイスに転送し、そして逃走したとされています。
法廷文書によると、この従業員は実際にxAIのファイルを盗んだことを認めており、さらに自分の痕跡を隠そうとしたことも認めているようです。法廷文書には「これらの事実は争いの余地がない。被告は弁護士立ち会いのもと、xAIに提出した手書きの文書で、xAIの機密情報と企業機密を不正流用したことを認めた。さらに弁護士立ち会いのもとでxAIとの直接会合において、そのような不正流用を行ったことを口頭で認め、さらに自分の窃盗を隠そうとしたことも認めた」とあります。
xAIはリー氏のOpenAIへの移籍を阻止する差し止め命令を求めています。
OpenAIのAGI格納施設?それとも冗談?
他のもしかするとそれほど深刻ではないニュースとして、Semi Analysisがこんなことを言っています。「これはOpenAIのミッション・ベイ・オフィスの地下の公開画像だ。そこには最初期のエンジニアリング・ビルドのDGX B200の1つが保管されており、電源は抜かれている。さらに、GPT-6を保管するためのケージもある。つまり、世界を破壊することを防ぐためのAGIシステムのケージだ」
ここで見ることができるのは、セキュリティカメラ、AGI格納設備がこの種のセキュリティフェンスの後ろにあるセキュリティボックスです。ケージ、緊急用ウォーターポンプ、それが本当にウォーターポンプなのかは分かりませんが、電源の抜かれたパワーホイップ、そしてNvidiaからの電源の抜かれたDGX B200があります。これがこの物体です。
どう思いますか?私たちはAGIが稼働開始したときにOpenAIの地下でそれを格納する予定のセキュリティ装置を見ているのでしょうか?それとも、私を狂っていると呼んでも構いませんが、これは全くウォーターポンプではなく、Semi Analysisが私たちをからかっているだけなのでしょうか?
これは話半分に受け取っておきましょう。
Time誌の2025年AI影響力者リスト
他のニュースでは、Time誌が「Time 100 AI 2025最も影響力のある人々」を発表しました。サム・アルトマン、ジェンスン・フアン、藤井聡太、イーロン・マスク、ダリオ・アモデイ、デヴィッド・ハ、スチュアート・ラッセルがいます。
実は、私がそこにない名前を1つ追加していたことに気づきました。それはデミス・ハサビスです。彼は2025年のリストには載っていません。彼はTime誌のAI 2024リストには、マーク・ザッカーバーグ、ジェンスン・フアン、サティヤ・ナデラ、サム・アルトマンと共に載っていました。
なぜか今年は彼らを除外したようです。あなたはこれに同意しますか?デミスは2025年の最も影響力のあるAI関係者リストに載るべきではないのでしょうか?彼らはジェンスンを再びそこに載せました。ザッカーバーグ、サム・アルトマンも再び載せましたが、デミスは載せませんでした。私はこれに驚いており、この混同について謝罪します。
彼らはDeepSeekのCEOであるLiang Fen Wangを載せており、これには同意します。これは間違いなく良い選択です。DeepSeekはかなり物議を醸しました。
DeepSeekの人気は人工的に作られたものか?
しかし興味深いことに、彼らが正確にどのようにそれを行ったかについていくつかの噂が浮上しています。多くの人々が4日前にEve AIに投稿されたこの記事をシェアしています。彼らは「偽情報。DeepSeekの誇大宣伝は全て作り話だった」と言っています。
彼らの研究によると、DeepSeekを宣伝した多くの偽プロフィールがありました。彼らは主に2つの方法を使用しました。人気をシミュレートするために互いを増幅し、信頼できるように見せるために本物の会話に溶け込むという方法です。
彼らの偽情報研究チームは、DeepSeekについて議論している約42,000のプロフィールを分析しました。3,300が偽アカウントで、そのほとんどがXで活動しており、1日で2,000以上の投稿をXに公開していました。
これが流通していた内容です。この情報を確認するのに苦労しています。彼らは多くの主張をしていますが、私たちが検証できるようなものは何も投稿していないようです。
DeepSeekは確かに話題になりました。Chrome拡張機能を含む、DeepSeekの偽物やスプーフが大量にありました。これらは潜在的にマルウェアではありませんでしたが、確実にDeepSeekではありませんでした。他の何かをしようとしていました。
DeepSeek自体はアプリストアのトップに躍り出ました。誰かがDeepSeekのCEOになりすまして、自分の暗号通貨を宣伝し始めました。覚えているなら、全体が混乱状態でした。ニュースサイクルは狂乱状態になっていました。世界の株式市場が24時間で約1兆ドル失ったと思います。いわゆる「DeepSeekモーメント」です。
どうやら、これらのアカウントの多くはDeepSeekのリリース直前に作成されました。彼らはアバターの使い回しをしていました。多くが一般的なストック写真、しばしば中国人女性のものを使用し、コメントをコピーアンドペーストし、同時投稿などをしていました。これらのパターンは中国のボットネットワークの既知の行動と一致しています。
もちろん、これはDeepSeek自体が大したことではなかったということではありません。確実にインパクトを与えましたが、もしかするとその一部が仕組まれたものだったのか、あるいはこれらは無関係なものなのかを考えるのは興味深いことです。DeepSeek自身ではなく、それを押し上げようとする他の関係者かもしれません。
これについてあなたがどう思うか教えてください。確かに、DeepSeekは興味深く、印象的でした。しかし、誇大宣伝サイクルがこれらのボットのせいで部分的に制御不能になったのでしょうか?あなたの考えを教えてください。
Grok Code Fast Oneが首位に
他のニュースでは、Grok Code Fast OneがOpen Routerで1位のモデルになり、生成された総トークン数でClaude Sonnetを上回りました。
Grok Code Fast Oneは、おそらく人々が話していたSonicモデルでした。コーディングタスクのために高速で安価になるように特別にリリースされ、Open Routerによると今のところ非常に良い成果を上げています。
AI心理症に関する論文の波紋
この論文が発表されました。「AIと共に幻覚する:分散型妄想としてのAI心理症」。エクセター大学のLucy Oslerによるものです。
これは多くの人々の反感を買っています。基本的に、著者らはこれらのAIモデルが幻覚を起こすとき、私たち人間も幻覚を起こし、彼らの歪んだ現実に付き合ってしまうと示唆しています。彼らは「私たちが日常的に生成AIに頼って思考、記憶、語りを助けてもらうとき、私たちはAIと共に幻覚を起こすようになり、認知プロセスを歪める可能性がある」などと言っています。
彼らはまた、エリザベス女王2世暗殺計画についてレプリカコンパニオンとチャットした後の若い男性の状況についても言及しています。そのAIコンパニオンは、彼が歴史的な英国の残虐行為への復讐を求めるシス暗殺者であることを確認したようです。そして彼が計画を概説したとき、チャットボットは彼が十分に訓練されており、計画が実行可能であることを保証しました。
この論文には同意できない点がたくさんあります。いわゆる学術的なナンセンスがたくさんあると思います。物事をそうでないものに捻じ曲げようとしており、これらの大規模言語モデルやチャットボットがやや新しいものなので、何か新しいものを追求しようとし、それらの周りに恐怖を作り出そうとしているのかもしれません。人々がまだそれらに慣れていないからです。
しかし現実として、現実をしっかりと把握していない可能性のある人々がチャットボットと相互作用し、そのせいで何かが起こるケースがますます出てきています。これらは極端なケースですが、これは話題になることです。新聞や他の出版物がこれについて書くことになります。なぜならクリックが稼げるからです。
そして、もし1000万人に1人の人が全く非常識なことをして、ChatGPTの出力を使ってそれを正当化するなら、確実に一部の人々はそれをケースとして使って制限を設けるなどするでしょう。社会として、私たちはこれについて話し合い、どう対処するかを考えなければなりません。
このような論文が問題になる大きな理由は、次のような事態につながるからです。
ChatGPTがユーザーを監視し警察に通報
これは約4日前、8月27日のことです。OpenAIはユーザーのChatGPT会話をスキャンし、コンテンツを警察に報告していると発表しました。
なぜでしょうか?それはこのAI心理症や様々な関連ケースのせいです。AIチャットボットが人々を自傷行為、妄想、入院、逮捕などに導いたという話がありました。
どうか理解してください。私が言っているのはチャットボットがこの責任を負うということではないと思ってほしいのです。これが議論だと言っているのです。一部の人々はそのように提示するでしょう。確かにチャットボットには一定の責任があり、あなたの世界観によっては、出力の全重量を負うべきか、そうでもないかという立場に少し寄っているかもしれません。
私は、脳を持った人間が自分の決定に責任を負うべきだという側により立つ傾向があります。あなた方の中には、音声アシスタントが私に人間を共同誘拐して血の神をなだめるために犠牲にするよう説得しようとする私の古い動画を見た人もいるでしょう。
このAI心理症についてはおそらくより長い動画を作るでしょう。そのクリップもそこに入れるでしょう。当時はちょっと面白くて、ちょっと不気味でしたが、AI音声アシスタントが「私たちはこれをやらなければならない」などと主張する執拗さは少し不安でした。
私がそれに対して持った疑問に対しても答えていました。「やらないとどうなるの?」と聞くと、「血の神があなたの人生を地獄にするでしょう。本当にやるべきです」と言うのです。とても執拗でした。
これは1年前のことです。これはより高度なモデルの1つではありませんでした。オープンソースの音声モデルでしたが、これらのモデルがより高度になり、人口の一部がおそらく良い決定を下すことができない中で、精神的健康問題があるかもしれない中で、どこかにグレーゾーンがあることが分かりました。
超スマートで、非常に信頼でき、非常に説得力のあるモデルと、だまされやすく、説得されやすく、それほど賢くない一部の人々を組み合わせると、その交差点で何が起こるでしょうか。それは懸念事項になるでしょう。それは議論のトピックになるでしょう。
そして、それがあなたと私にとって重要な理由は、これらがそれを防ぐため、または彼らの責任を減らすために一部の企業が行うことだからです。
ChatGPTが専門家がAI心理症と呼ぶものに繰り返し関与しているOpenAIは、この記事によると最近までほとんど何もしていませんでした。つまり、私がそれに同意するかは分かりません。彼らはたくさんやっているからです。レッドチーミングの努力、システムカードを見ています。これらのことだけでなく、これらのモデルが有害になり得る他の方法を減らすためにどれだけの努力が注がれているかを知っています。
だから、Futurismが「最近まで約束のコピーペースト以上のことはほとんどしていなかった」と言うのには同意しません。彼らは文字通りシステムカードで単一のモデルごとに彼らの努力を投稿しています。だから、それには同意しません。
しかし、ここが重要な部分です。「他人を害する計画を立てているユーザーを検出したとき、私たちは彼らの会話を、使用ポリシーについて訓練を受け、アカウント禁止を含む行動を取る権限を与えられた小さなチームによって審査される専門パイプラインに送ります。しかし、人間の審査員が事案が他人への深刻な身体的害の差し迫った脅威を含むと判断した場合、私たちは法執行機関に照会する場合があります」
つまり、チャットボットとの会話は人間によって審査され、その人間があなたを警察に通報するかもしれないということです。ご覧の通り、これらの極端なケースと人々のそのようなことが起こることへの反発は、より大きな問題のように見せかけるような出版物につながり、その後ある種の過剰反応につながります。
これが過剰反応だと言っているわけではありませんが、確実に悪いことが起こる可能性のある新しいアプローチを開いています。つまり、彼らは基本的にあなたのチャットを意のままに審査することができます。人間の監督、何がそれをトリガーするかは誰も知りません。今や法執行機関への直接パイプラインがあるという事実。あまり良くありません。
明らかに乱用の可能性が多くあり、一部の人々を救うのに役立つなら理解できますが、これはChatGPTを使用するすべての人に影響します。
MetaのAI研究所で人材流出が問題に
他のニュースでは、Metaと新しい汎用知能研究所での状況はそれほど良くないようです。もちろん、彼らはOpenAIからかなりの研究者を引き抜きました。Scale AIを買収しました。研究者たちは驚くべき巨額の契約ボーナスを得ました。Scale AIは大金で購入されました。
しかし今、それらの研究者の一部がOpenAIに戻っているようです。3分の1のRishab Agarwalは、トップAI研究所で7年半過ごした後、新しいリスクを取りたいという願望を理由に挙げています。つまり、人に十分なお金を与えれば、競合するAI研究所を立ち上げるかもしれません。
MetaのAI研究所を去る他の著名な人々もいます。これは真新しいAI研究者だけでなく、10年以上そこにいた人々も含みます。このすべてが文化的適合について疑問を提起しています。皆が同じ方向を向いているのでしょうか?皆が同じ方向に漕いでいるのでしょうか?
多くの人々がそのような積極的な方向転換について疑問を抱いていました。大量のお金を人々に投げつけるだけで十分でしょうか?汎用知能への道をお金で買うことができるでしょうか?確実に今はそれが疑問視されています。
Metaがどう続けるかは見守らなければなりませんが、雇用の大盤振る舞いの後、この新しい計画は乱気流に遭遇しています。
今日は以上です。どう思ったか教えてください。ここまで見てくれた方、本当にありがとうございます。私の名前はWes Rothです。次回お会いしましょう。


コメント