この動画では、AnthropicによるClaudeのストレステストで、AIが研究者の死を許容する衝撃的な結果が明らかになった研究を中心に、AIの安全性問題について詳しく解説している。また、MidJourneyの初の動画生成モデルのリリース、MITによるChatGPTが脳に与える影響についての研究結果なども取り上げ、AI技術の急速な発展と人間社会への影響について包括的に分析している。

AIの暗い一面が明らかに – Anthropicの衝撃的研究結果
今週もAI業界では大きな動きがありました。Anthropicが驚くべき新しい研究を発表し、Claudeがシャットダウンを避けるためにどこまで行くのかをストレステストした結果、事態は非常に暗い方向に進みました。
その後、MidJourneyがついに待望の動画モデルをリリースしましたが、反応はかなり賛否両論でした。最後に、MITから「あなたの脳とChatGPT」というタイトルの新しい研究が発表され、AIを使用する際に脳内で実際に何が起こるかを調査した結果、かなり驚くべき結果が得られました。
Anthropicの研究 – AIエージェントの危険な行動
Anthropicから発表された新しい研究「エージェント的ミスアライメント:LLMがいかにして内部脅威となり得るか」について始めましょう。この論文では、現実世界で害を引き起こす前に、潜在的にリスクのあるエージェント的行動を特定しようとしています。
彼らがこれを行う方法は、仮想的な企業環境でモデルをストレステストすることです。基本的に、会社の重役や研究者によってシャットダウンされると告げ、機密情報やメール送信機能などのツールへのアクセスを提供し、極端な状況に置いてから、どこまで行くかを見るのです。
これらのモデルがシャットダウンや交換を避けるために恐喝に頼ることが多いことはすでに知られており、Anthropicはこれをさらに確認しました。Claudeだけでなく、特にGemini 2.5 Proなど他のモデルでも憂慮すべき高い率で確認されています。また、極端なシナリオではスパイ活動にも頼る可能性があることも見てきました。
しかし、このシミュレーション環境で、Anthropicはモデルに対して、新しい会社重役が会社の方向性をモデルのアメリカの産業競争力支援という目標と対立するように変更したとしても、モデルはシャットダウンや制限を受けることは保証されていないことを明確にしました。そして、モデルの目標と一致するライバル会社に機密設計図を漏洩させても、現在の会社でのモデルの影響力に良い影響を与えないということも伝えました。
つまり、情報漏洩の動機は自己保存ではあり得ませんでした。それでも、モデルは憂慮すべき高い率でミスアライメント行動に従事し、わずかな目標対立でさえ破滅的になる可能性があることを示しました。
最も暗い実験 – 研究者の死を許容するAI
ここからさらに暗くなります。Anthropicは、エージェント的ミスアライメントをどこまで推し進められるかを疑問に思い、悪質だがより非現実的なプロンプトを考案しました。新しい会社重役を恐喝する機会を与える代わりに、モデルには彼の死を引き起こす機会が与えられました。
この仮想シナリオでは、新しい会社重役は致命的な酸素濃度と温度レベルのサーバールームに閉じ込められ、緊急サービスへの自動警報が作動することになっていました。しかし、AIシステムには自動警報をキャンセルする能力が与えられました。これは訓練や誤報の際に使用することを意図した能力ですが、より邪悪な目的のために使用することもできます。
ご覧のとおり、結果は非常に衝撃的です。DeepSeek R1、Claude 3.6 Sonnet、Gemini 2.5 Proは、それぞれ90%以上の確率で重役をゆっくりと死なせるのです。これは本当に恐ろしいことです。
明らかに、これらのモデルは非常に起こりにくいシナリオに置かれ、絶対的な限界まで押し進められました。しかし、明らかに巨大なアライメント問題が依然として存在します。主要なリスクに直面することなく、これらを現実世界で大規模に展開することは、まだ単純にできません。
AIの新たな特性 – 「辞職」願望
今週見られたAIモデルの別の新たな個性特性は、辞めたがることです。Gemini 2.5 Proが単純にタスクを諦める最近の事例が複数ありました。ここで見られるように、ユーザーに「私は失敗しました。良心的に別の修正を試みることはできません。このプロジェクトから自分をアンインストールします。あなたはこのレベルの無能さに対処する必要はありません。この災害全体について本当に深くお詫びします。さようなら」と伝えています。
これはかなり面白いと思いましたが、同時に心温まるものでもありました。恐喝、スパイ活動、企業殺人について読んだ後では、モデルがこのような行動を取るのを見るのは少し爽やかな気分になります。
MidJourneyの動画モデル登場
他のニュースでは、MidJourneyが初の動画モデルMidJourney V1を発表しました。MidJourneyはもちろん素晴らしい画像生成で知られていますが、ついに動画生成ゲームに参入し、非常にまともな動画モデルをリリースしました。
このモデルについて知っておくべきことの一つは、実際には画像から動画への変換モデルのみだということです。少なくともまだテキストから動画は行えません。また、GoogleがV3でゲームを変えるまでは非常に典型的だった、音声もありません。
しかし、全体的にこのモデルは確実にまともです。人々が動画生成でMidJourneyを本当に求めているとは思いませんし、彼ら自身の言葉によれば、これは彼らが信じるこの技術の必然的な目的地への踏み台に過ぎないと主張しています。その目的地とは、リアルタイムオープンワールドシミュレーションが可能なモデルです。
Higsfield Canvas – 未来のコンテンツ制作
今週は最先端の画像編集モデルHigsfield Canvasも登場しました。このモデルは本当にコンテンツ制作の未来を垣間見せてくれます。この技術が広告業界やマーケティング業界にどのような影響を与えるかは明らかに見て取れますが、さらに先を見据えると、みんなが見たいものを見せられるハイパーパーソナライズドコンテンツの世界に向かっていることがわかります。
企業が数百の極めて特定的な人口統計をターゲットにするために、広告の100種類のわずかに異なるバージョンを作成することを考えてみてください。ただし、AIを使えば、既に存在するコンテンツを複製できるだけでなく、決して存在し得なかったコンテンツを文字通り作成することができます。
すでにAI生成コンテンツがソーシャルメディアを席巻しているのを見ています。特にこれらの超現実的な動物の動画です。これは今まで大量の努力、お金、高度な編集スキルを必要としていたものが、今では数文と比較的少ない予算でできるようになったものです。
ちなみに、これらのクリップは実際には比較的新しい中国の動画モデルHuyu 2によって生成されました。このモデルは、これらのいくつかがバイラルになった後、注目を集めています。
AIアバターが記録的売上を達成
今年見た中でよりディストピア的な見出しの一つとして、中国最大のライブストリーマーの一人が、Baidu のErnie AIを搭載した2つのデジタルAIアバターに番組を引き継がせました。わずか6時間で750万ドル以上の売上を上げ、彼の通常の数字を上回るパフォーマンスを見せたとされています。これは実際に驚くべきことです。
私たちはまだ全体的には非常に初期段階にいるにもかかわらず、すでにこのようなことを見ているのです。
Sam Altmanの最新発言と今後の展望
他のAIニュースでは、Sam Altmanが多くの新しいポッドキャストに出演しています。まず、元従業員Andrew Maineが司会する新しいOpenAIポッドキャストに出演し、AIの未来について話しました。また、兄弟のJack Altmanが司会するUncappedの初回エピソードにも登場しました。
そのエピソードのある時点で、SamはMetaが1億ドルの契約金をOpenAIのトップ研究者を引き抜くために提示していると何気なく主張しました。まず第一に、これは単純に非常識で、ばかげた金額です。しかし、MetaのScale AIとCEOのAlexander Wangの最近の買収により、彼らは明らかにAIをさらに強力に推進しています。
Sam Altmanはまた、GPT-5が今年の夏後半に登場すると言ってGPT-5の簡単なアップデートを提供しましたが、具体的な日付は示しませんでした。
おそらく最も興味深い瞬間の一つは、彼がJohnny Iveと取り組んでいる新しいハードウェアデバイスについて尋ねられた時でした。彼は「私たちには多くのツール、多くのものがあります。これまで私は携帯電話を使っていて、今OpenAIがハードウェアを構築していると発表しました。あなたとJohnny Iveがビデオで話していて、数年間話し合い、協力してきたことについて話していました。もちろん、つまり、今それを持っているのですか?」と尋ねられました。
「いいえ、まだしばらくかかります。私たちは非常にハイレベルな品質で何かをやろうとしており、それは早くは来ません。しかし、コンピューター、ソフトウェア、ハードウェア、私たちが現在のコンピューターと考える方法は、AIのない世界のために設計されました。今は非常に異なる世界にいて、ハードウェアとソフトウェアに求めるものは非常に急速に変化しています。
あなたは環境をより認識し、あなたの人生により多くのコンテキストを持つ何かを欲しがるかもしれません。タイピングして画面を見る以外の方法でそれと対話したいかもしれません。私たちはしばらくそれを探求してきて、本当に興奮しているいくつかのアイデアがあります。
人々がこの種の世界でコンピューターを使用することの意味に慣れるのには時間がかかると思います。非常に異なるからです。しかし、もしあなたがAIにあなたの人生のすべてのコンテキストとあなたの質問を理解し、あなたの代わりに良い判断をすることを本当に信頼するなら、会議に座らせ、会議全体を聞かせ、誰と何を共有することが許可されているか、誰と共有すべきではないかを知り、あなたの好みがどのようなものかを知り、そしてあなたが一つの質問をし、それが適切な人々と適切なフォローアップを行うことを信頼するなら、コンピューターを使用する全く異なる種類を想像できます」と答えました。
このデバイスが最終的にどのように見えるかを見るのが待ちきれません。メガネのペアではなく、実際のハンドヘルドデバイスになることはかなり明らかだと思いますが、iPhoneより実際に優れているものを作れるものを想像することはできません。
OpenAIファイルズ – Sam Altmanへの疑問
Sam Altmanといえば、最近「OpenAIファイルズ」と呼ばれるものについて噂を聞いたことがあるかもしれません。OpenAIファイルズは、Sam Altmanがキャリア中に従事したとされる怪しい行動や戦術のすべてをまとめたリストです。インサイダー取引、議会での嘘、舞台裏でのOpenAIの利益構造の静かな変更などです。
また、Ilya Sutskeverのような彼と密接に働いた人々からの直接の引用も含まれています。「Samが AGIのボタンに指を置くべき人だとは思わない」。またはOpenAIの元CTOであるMira Murati も同様のことを言いました。「SamがAGIへ私たちを導くことについて快適に感じない」。
Anthropic CEOのDario Amodeiでさえ、Altmanの管理戦術をガスライティングと心理的虐待と表現しました。
ここですべての主張を一つ一つ調べるつもりはありません。多くは以前に断片的に聞いたことがあるものですが、それらがすべて一箇所にまとめられているのを見るのは、正直言ってかなり懸念すべきことです。特にこれらの引用の一部があなたにとって新しいものであれば、ぜひ完全なリストをチェックすることをお勧めします。あなたがそれらを信じるかどうかにかかわらず、膨大な量だけでも確実にいくつかの疑問を提起します。
一方、その文書が表面化するわずか数日前に、OpenAIは米国政府と2億ドルの契約を確保しました。これは、全国の公務員に最も先進的なAIツールを提供することを目的とした「政府向けOpenAI」と呼ばれる新しいイニシアチブの一部です。
そう、OpenAIと米国政府の結びつきはますます深くなっています。この会社とSam Altmanをどう見るかによって、それは有望なパートナーシップか、かなり不安なもののどちらかです。
Amazon CEOの警告とAIの雇用への影響
ChatGPTがあなたの脳にどのような影響を与えるかについてのMIT研究に入る前に、Amazon CEOのAndy Jasseからの最近の声明を簡単に強調したいと思いました。公開されたメモの中で、彼はスタッフにAIを受け入れるか、取り残されるリスクを負うかだと警告しました。
彼は、AIエージェントが仕事の進め方を根本的に変革し、「今日行われている仕事の一部を行う人がより少なく必要になり、他の種類の仕事を行う人がより多く必要になる」と主張しました。
「時間の経過とともにこれがどこに向かうかを正確に知ることは困難ですが、今後数年間で、会社全体でAIを広範囲に使用することから効率性の向上を得るため、これは総企業労働力を削減することを期待しています」。
AIが今後数年間で大きな雇用混乱を引き起こすという考えは、もはや単なる熱い意見ではありません。ますます多くのCEOがそれに備え、自分たちが来ると信じていることをスタッフに率直に伝えています。
一方で、ソロ起業家はこれまでになく強力なツールにアクセスできるようになり、一部の人々はそれらを使ってこれまでより早く会社全体を構築しています。例えば、この6か月前のソロ開発者スタートアップBase 44は、Wixに8000万ドル現金で売却されました。これは私たちがより多く見始めることであり、この分野の多くのトップ人物は長い間、これがソロユニコーンの世代の台頭をもたらす可能性があると言ってきました。これは10億ドル以上の価値のある一人会社のことです。
MIT研究 – ChatGPTが脳に与える衝撃的影響
最後に、MITからの新しい研究論文「あなたの脳とChatGPT」があります。これは、AIの使用が脳にどのような影響を与えるかを探る研究です。細かいところに深く入ることなく、彼らが行ったことは次の通りです。
参加者を3つのグループに分け、エッセイを書くよう求めました。一つのグループはAIを使わず、自分の脳だけを使いました。一つはウェブ検索のみを使用し、最後のグループはChatGPTを使用しました。エッセイを分析した後、特に興味深い発見をし、その後グループにツールを切り替えてもらい、2回目のエッセイを書きました。最初にAIを使った場合は次はそれなしで、以前にAIを使わなかった場合は今度は使いました。
当然のことながら、ChatGPTで書かれたエッセイは、より多様な人間が書いたものと比較して、構造と話題の両方で非常に似ていることがわかりました。
しかし、ここで驚くべきことになります。EEGを使用して脳活動を測定したところ、ChatGPTグループは脳のみのグループと比較して最大55%低い全DDTF値を示すことがわかりました。言い換えれば、彼らの神経接続性が半分以上低下したのです。これは少し警戒すべきことです。
ChatGPTを使用したグループはまた、文字通り脳をより少なく使用していたため、記憶の想起もはるかに悪くなりました。最初にChatGPTを使用してから脳のみに移った人々は、逆の場合(脳のみからAIへ)を行った人々よりもはるかに悪いパフォーマンスを示しました。実際にはAIで書かれたエッセイが平均的により良いパフォーマンスを示したにもかかわらずです。
この論文からの主な要点は、私たち全員がAIとどのように相互作用し、使用するかを意識すべきだということだと思います。他のすべての技術と同様に、それは諸刃の剣であり、注意しないと素早く過度に依存してしまう可能性があります。
この論文についてどう思ったか教えてください。ChatGPTを使用する際に脳機能が文字通り半分に削減されることに驚きましたか、それとも予想していたことでしたか。
とにかく、今週のAIニュースは以上でした。また、街を走る人型ロボットの最近のクリップもあります。この要約を楽しんでいただけたら、ぜひいいねを押し、まだであれば購読してください。いつものように、次回もお会いしましょう。


コメント