2025年2月第4週のAI業界は、エージェント技術の実用化と倫理的境界線をめぐる重大な対立が同時進行する転換点を迎えた。Google DeepMindがNano Banana 2を、PerplexityがComputerを、MicrosoftがCo-pilot Tasksをリリースし、OpenClawに続く自律型AIエージェントの実用化競争が本格化している。一方でAnthropicは国防総省から大量監視と完全自律型兵器への技術提供を迫られ、これを拒否したことで供給チェーンリスク指定の脅威に直面した。同社は自社の立場を堅持する姿勢を表明したが、xAIのGrokが同様の条件で国防総省と契約を結んだことで、AI企業が軍事利用の境界線をどう引くかという前例のない問いが浮上している。

Google DeepMindのNano Banana 2とエージェント時代の幕開け
わあ、すごかったですね。今日は2月27日金曜日です。先週もかなり多くのAIニュースがありました。まあ、ほぼ毎週そうなんですけどね。皆さんの時間を無駄にするつもりはありません。早速本題に入りましょう。
まず最初はNano Banana 2のリリースからです。これはGoogle DeepMindの最新の最先端画像生成モデルです。基本的にはNano Banana Proと同じくらい優秀なんですが、生成速度がずっと速くて、Geminiアプリ、AI Studio、Flow、Vertexで無料で使えます。検索グラウンディング機能を搭載しているので、画像を作成するよう依頼すると、モデルがGeminiの実世界知識ベースから情報を引き出し、リアルタイム情報とウェブ検索からの画像を活用して、特定の対象をより正確にレンダリングします。
テキストのレンダリングと翻訳も本当に優秀です。最も簡単な使い方はgemini.google.comにアクセスすることです。画像作成ボタンをクリックすると、Nano Banana 2を使っているかどうかがわかります。以前はなかったスタイルオプションが表示されるからです。このトグルを高速に切り替えると、Nano Banana 2で作成することになります。
画像生成にかかる時間は約半分です。例えばエナメルピンを作りたい場合、このスタイルを選択してプロフィール画像をここに入れて、プロフィール画像のエナメルピンを作成してくださいと言います。すると13秒ほどで画像が生成されて、かなり印象的なものができあがります。
繰り返しになりますが、ウェブを検索して、ウェブで見つけたものに基づいて画像を作成します。例えば、AIモデルの蒸留がどのように機能するかを説明するインフォグラフィックを作成してくださいと言えば、私の代わりにリサーチしてくれて、Nano Banana 2を使います。数秒後には、かなりしっかりしたインフォグラフィックができあがります。
よく見るとテキストもかなり正確です。誤字やテキストエラーはあまり見当たりません。とにかくGemini内で無料で使えるようになっています。この件については深く掘り下げません。Nano Banana 2に完全に焦点を当てた詳細な解説動画を作ったので、詳細はそちらをチェックしてください。
AIエージェント競争の激化とPerplexity Computer
さて、皆さんもお気づきかと思いますが、私たちは今まさにAIエージェントが実際に役立つ時代のど真ん中にいます。OpenClawのような大成功を収めたツールによって、すべての企業がAIエージェントの列車に飛び乗っています。長いタスクを代わりにこなしてくれて、本当に多くの負担を軽減してくれるんです。
今週リリースされた中で最も印象的だったのは、他でもないPerplexityからのものでした。今週、PerplexityはPerplexity Computerを導入しました。Computerは現在のすべてのAI機能を一つのシステムに統合しています。リサーチ、デザイン、コーディング、デプロイ、そして任意のプロジェクトをエンドツーエンドで管理できます。
これがOpenClawとどう違うのか気になるでしょう。両方ともタスクを与えると、それを完了するためにすべての作業を代わりにやってくれるという点で同じ目的を果たします。どちらも異なるタスクに異なるモデルを使用できます。ただしPerplexity Computerは、よりターンキーな体験を提供するように設計されています。やりたいことを伝えると、アクセス可能なすべての異なるモデルとツールを使ってタスクを達成します。そしてすべて安全なクラウド環境で行います。
一方OpenClawは自律性を優先しています。ユーザーはデータの完全な所有権を保持します。多くの場合、自分のコンピューターや自分が所有・管理する仮想プライベートサーバーにローカルにインストールされますが、それに伴うすべてのリスクも自分で管理する責任があります。Perplexity Computerは、そのリスクの多くを自社のプラットフォームにオフロードしようとしています。
19の異なるモデル間で作業をルーティングできることがわかります。GPTモデル、Opusモデル、Grokモデルなどです。Nano Bananaも使えます。V3も使えます。想像できるほぼすべてのツールで動作できるようです。Slack、Air Table、Calendarly、ClickUp、Discordなど、名前を挙げればきりがありません。そのプラットフォーム内でのタスクを支援してくれるようです。
このエージェントの欠点の一つは、現在Maxサブスクライバーのみが利用できることです。Perplexity ProとEnterpriseにも近日提供予定とのことですが、現在これを使用するには月額200ドル、年間2000ドルのプランに加入する必要があります。デモの一つを見ると、ToDoアイテムのリストを取得し、このToDoリストにどんどん項目を追加して、自律的にすべてのToDoアイテムをチェックしていけるように設定しているのがわかります。
しかも基本的なものだけではありません。モバイルウェブアプリの作成やRustのASCIIエディタの作成といった、実際にやや複雑なことです。人々はこれでかなり印象的なものを作っているようです。Hamptonはこう言っています。「Perplexityは、Bloomberg端末と真っ向から対決する最初のAI企業になった。ローカルセットアップや単一のLLM制限なしでPerplexity Computerを使用して、Perplexity Financeを使ってNvidiaを分析するリアルタイムデータを持つ端末を構築してくれた」
見てみると、Bloomberg端末タイプの環境を構築したようで、しかもすべて自律的に行ったようです。Perplexity Computerは、人間の同僚がソフトウェアスタックを使うのと同じように操作します。Computerは推論し、検索を委任し、構築し、記憶し、コーディングし、提供します。まず成果物を説明することから始めます。Perplexity Computerはそれをタスクとサブタスクに分解し、実行のためのサブエージェントを作成します。サブエージェントはウェブリサーチ、文書生成、データ処理、または接続されたサービスへのAPI呼び出しを行う可能性があります。一つのエージェントが文書を作成している間に、別のエージェントがそれに必要なデータを収集します。
繰り返しになりますが、単にClaudeや ChatGPTを使うのとの大きな違いは、利用可能なすべてのモデルを活用できることです。この記事の執筆時点で、Perplexity Computerはコア推論エンジンにOpus 4.6を実行し、特定のタスクに最適なモデルでサブエージェントを調整します。深いリサーチにはGemini、画像にはNano Banana、動画にはV3.1、スピードと軽量タスクにはGrok、長いコンテキスト想起と幅広い検索にはChatGPT 5.2を使います。つまり、具体的に依頼している内容に最適なモデルに応じて、異なるモデルを選択できるわけです。
私自身はPerplexity Maxサブスクライバーではありませんが、実際の動作のデモがあります。S&P 500バブルチャートウェブサイトなど、たくさんのライブ例が見られます。実際にこれらすべてのプロセスを実行しているところを見ることができます。クリックすると、インタラクティブなS&P 500バブルチャートを構築し、並行してタスクを実行し、さまざまなスキルを読み込んで、このプロセス全体を進めていきます。
これはデモなので、実際に最後まで飛ばして最終的な出力を見ることができます。「あなたのS&P 500ユニバースバブルチャートが完成しました。詳細付きの内容はこちらです」と表示されます。実際に作成されたものを開いて見ることができます。非常にインタラクティブなバブルチャートで印象的です。なぜなら、最適なモデルを使ってこれを作成したからです。
バブルにカーソルを合わせることができて、デザインは素晴らしいとは言えませんが、求められたことに対する機能はすべて揃っています。別の例では、過去10年間のTesla株価のアニメーションGIFを作成しました。再度、異なるエージェントをすべて並行して実行しているのがわかります。
異なるエージェントを送り出して、異なる部分の作業をさせています。最後まで飛ばしましょう。すべての作成が完了したのがわかります。これが作成されたアニメーションです。驚くべきことに、私はこのような小さなアニメーションがYouTubeで独立した動画として拡散されているのを実際に見たことがあります。
今ではそれをあなたのために作成できるんです。もしPerplexity Computerのような封じ込めが提供する利点について気になっているなら、この投稿をチェックしてください。これはMetaのSuper Intelligenceで安全性とアライメントに取り組んでいるSummerUからです。彼女はこう言っています。「OpenClawに実行前に確認してと言って、受信トレイを削除するのを爆速で実行するのを見ているほど謙虚になるものはない。スマホから止められなかった。爆弾を解除するようにMac Miniまで走らなければならなかった」
スクリーンショットを見ると、確かにすべてのメールを削除しようとしていて、彼女は止めるように言い続けていたのに止まらなかったようです。OpenClawの作成者であるPeter Steinberger自身が「/stopと入力すればよかったのに。それで動作したはずだ」と言いました。
それでも、これがPerplexity Computerのような封じ込めを人々が望むべき理由です。
HubSpotとのNotebook LMガイド紹介
AIツールがどれだけ速く更新され、私たちの働き方を変えているかに圧倒されているなら、列に並んでください。でも真面目な話、私は視聴者の皆さんに実際に適用できる本当の価値を提供したかったんです。優れたアクセス可能なAIツールを実際に生活に統合して生産性を向上させられるような。
そこで、Notebook LMを使って生産性を高める20以上の方法について、HubSpotと完全無料のガイドを作成しました。このチャンネルでNotebook LMについてはかなり話してきましたが、Googleの最も過小評価されているAIツールの一つで、無料です。このガイドには非常に役立つ使い方がたくさん載っています。
常にメモを取ったり、記事を保存したり、仕事や個人プロジェクトのためにリサーチしているなら、これをチェックする価値があります。ガイド内では、Notebook LMが異なる形式にわたるあなたの散漫な考えを構造化された洞察に変える方法を分解しています。より良い質問をして、検証されたソースから幻覚のない回答を得る方法を示しています。
そして一般的に、AIをより良く使う方法を学んで最大限に活用できるようになります。繰り返しになりますが、これはHubSpotと作成した無料リソースです。私の視聴者にこれを提供し、今日の動画のこの部分をスポンサーしてくれたことに感謝します。繰り返しになりますが、Notebook LMは無料で、このガイドも説明欄のリンクから無料でチェックできます。
MicrosoftのCo-pilot TasksとCursorの新機能
Microsoftも新しいCo-pilot Tasksでエージェント分野に参入しています。これもOpenClawやPerplexity Computerに対する彼らの答えのようです。これはまだ公開されていません。ウェイトリストに登録する必要があり、早期アクセスを提供しています。
見てみると、私たちが見てきたものとかなり似たようなことをするように設計されているようです。回答、考え、下書きから完了したタスクまで。例えば「パートナーに犬を飼うよう説得するデッキを作って」というのがあります。計画を作成し、ステップバイステップで計画を進めていくのがわかります。そして「スライドデッキができました」と言って、彼らのためにスライドデッキ全体を構築しました。
そして「彼女は新しい犬を気に入った。フォトシュートを予約しよう」と言います。子犬のフォトシュートを見つけてと言うと、カメラマンをリサーチし、最良のオプションを推奨し、予約に最適な時間を見つけて、火曜日に予約したと戻ってきます。
プレスリリースによると、繰り返しタスクができます。繰り返し行うようにタスクを指示でき、ブリーフィングの編集、送信準備ができた下書き返信付きの緊急メールの表示などができます。文書生成、ショッピングサービスと予約、ロジスティクスなどができます。
繰り返しになりますが、OpenClaw、Perplexity Computer、Manisのようなあなたのために何かをしてくれるエージェントに非常に似ています。これがすべて向かっていた方向で、これらのツールでついにそこに到達しつつあります。
エージェントの話題をもう少し続けましょう。Cursorも新機能を展開しました。Cursorエージェントが自分のコンピューターを制御できるようになったと主張しています。
これについて私が本当に興味深いと思うのは、このCursorエージェントがあなたのために仮想コンピューターの一つを使用するとき、実際にその仮想マシンを使用している様子のビデオを録画することです。戻って見ることができ、そのコンピューターが変更を加えて再確認した内容を確認できます。
私がCursorを個人的にかなり気に入っていて、ほとんどのコーディングの日常的なドライバーにしている理由の一つは、Perplexity Computerのように、実際に異なるモデルを使用できることです。以前は、コーディングにOpus 4.5または4.6を使うのが大好きでした。最近では、GPT 5.3 Codeexがコーディングに優れていることがわかっていますが、たまにループに入って問題を解決できなくなることがあります。
そんなときOpusに切り替えると、Opusが実際にその問題を解決できる場合があります。Cursorのようなツールを使うのが本当に便利な理由は、モデルを切り替えられることです。時には、以前試したモデルでは解決できなかった問題を、あるモデルが解決することがあるからです。
デモ動画をチェックすると、実際に3時間、5時間、10時間、または完了するまでと設定するオプションがあります。大量の作業を代わりにやってもらえます。寝ている間に実行させて、翌朝起きたら、さまざまなコーディングプロジェクトで寝ている10時間の間に何をしたかを確認できます。
エージェントが仮想マシン内でデスクトップアプリケーションと対話している様子を録画したものも見られます。ここで見ているのは、実際のCursorエージェントが仮想マシン内で対話して、設定されたタスクを完了するために必要なすべてのタスクを実行している様子です。
この機能をまだ個人的にテストしていませんが、試すのが本当に楽しみです。完成させたい巨大なプロジェクトを与えて、10時間または完了するまでに設定し、寝て、翌朝完成したプロジェクトで目覚めるか見てみたいです。
QuiverによるSVG画像生成
次に、やや見過ごされているけれど実際に感銘を受けたツールについて話したいと思います。Quiverというツールです。
Quiverが行うのはSVG画像の生成です。基本的にコードから生成された画像です。app.quiver.aiで試すことができ、20クレジットもらえます。生成するたびに4枚の画像が生成されます。8クレジット使ったのがわかりますが、これはたった2つのプロンプトです。
ギャラリーをクリックすると、生成したものが見られます。Twitter上で誰かがHothの上を飛ぶX-wingというプロンプトで生成しているのを見ました。自分でも試してみたかったんです。これが生成された画像の一つです。拡大するとあまり素晴らしく見えませんが、小さいスケールに縮小すると実際にクールに見えます。別のバリエーションがこれです。さらに別のバリエーションがこれです。
そして自分のプロンプトをテストしたかったんです。コンピューターを使っているオオカミ。この画像、この画像、この画像、そしてこの画像を生成しました。覚えておいてください、これはすべてコードです。コードビューを表示すると、これはNano BananaやMidjourneyのような実際の画像ジェネレーターではありません。
これは実際にHTMLウェブサイトにコピー&ペーストして、このイメージをウェブサイトに表示させたり、アニメーション化したりすることもできます。作成に来ると、プロンプトを入力できます。サンディエゴ・パドレスの野球選手がホームランを打っているところとしましょう。送信すると、実際にリアルタイムで描画するのを見ることができます。
進んでいます。実際にコードのストリームが下部に来ているのが見えます。これらを実際に描画しています。世界最速ではありません。4枚すべての画像が完成するのに4〜5分かかります。ほとんどの画像ジェネレーターが使用している拡散モデルのように生成しているのではなく、これらのためにコードを書いているからです。
でもリアルタイムでエッチ・ア・スケッチのように描いているのを見ているのは、とても満足感があります。最終的な製品を見られるように早送りします。最終的な出力がここにあります。もう一つの最終出力がここです。
パドレスのブランドカラーを完璧に捉えています。これは少しおかしいです。野球が彼の肩に当たっているように見えて、彼が打ったようには見えません。でもこれはかなりしっかりしています。これもしっかりしています。これはボールを打とうとしているように見えます。わかりません。簡単に感心してしまうだけかもしれませんが、これは本当に楽しいと思います。
Anthropicと国防総省の対立
とにかく次のセグメントに移りましょう。今週はAIドラマもありました。かなり重いドラマです。先週、Anthropic Justified the US Militaryという動画を作りました。正直なところ、これは今AIの世界で起こっている最も重要なストーリーラインの一つだと思います。全員が注目すべきだと思います。世界全体に大きな影響があるからです。
先週のその動画以来、状況はエスカレートし、そのストーリーラインにはさらに展開がありました。このストーリーラインに詳しくない方のために、簡単にキャッチアップさせてください。つい最近まで、Anthropicは政府内で機密情報にアクセスできる唯一のAI企業でした。米国政府は実際にベネズエラでのマドゥロの逮捕にAnthropicの技術を使用しました。
Anthropicの誰かが政府の別の誰かに話して、それが本当かどうか尋ねました。米国政府は、彼らが技術を何に使っているかについて尋ねられたことに腹を立て、基本的に「すべての合法的な目的に使用できるようにしたい」と言いました。Anthropicは本質的に「何にでも使えるようにしますが、2つの例外があります」と言いました。
その2つの例外は、1つ目が米国市民の監視に使用できないこと、2つ目がループに人間がいない自律型兵器に使用できないことでした。米国国防総省のPete Hedgeesは基本的に「いや、何に使えるか使えないかを指示することはできない」と言いました。Anthropicは「何にでも使えます。ただしその2つを除いて」と言いました。
繰り返しになりますが、それを分解した動画全体を作りました。しかし今週まで早送りすると、Pete HedgethはAnthropicに金曜日までにAI安全対策を撤回するよう求めました。彼らはまたAnthropicをサプライチェーンリスクとして指定すると脅迫しました。これは大きな問題で、米国企業に対してこれまで行われたことはありません。
通常は外国の敵対者に対して行われます。サプライチェーンリスクに指定された場合、米国政府とつながりのある企業はAnthropicの使用も許可されなくなります。多数の大企業もAnthropicとの関係を断つ必要が出てきます。この指定が実際に起こった場合です。
しかし国防総省は、Anthropicが自分たちの仕事において依然として最高であり、彼らの業務に不可欠になっていると述べています。米国政府はAnthropicの使用をあきらめたくないのですが、Anthropicはその2つの条件を譲りたくないのです。米国市民を監視しないこと。完全自律型兵器に使用しないこと。
私たちがまだこの人たちと話している唯一の理由は、彼らが必要だからです。今必要なんです。彼らの問題は、彼らが本当に優れているということです。国防当局者がAxiosに語りました。Anthropicは国防総省のために使用ポリシーを適応させる意思があると述べていますが、アメリカ人の大量監視や人間の関与なしに発砲する兵器の開発に自社モデルを使用させることは許可しません。
Hedgeesはアモデイに、国防総省が運用上の決定を下す条件をどの企業にも指示させないし、個別の使用事例に反対することも許さないと語りました。Axiosによると、国防総省はすでにAnthropicのブラックリスト化に向けた措置を取り始めているようです。国防総省は水曜日にBoeingとLockheed MartinにAnthropicへのエクスポージャーについて尋ねました。
繰り返しになりますが、国防総省はClaudeのパフォーマンスに感銘を受けていますが、Anthropicが安全対策を解除して軍がすべての合法的な目的に使用することを拒否したことに激怒しています。彼らは金曜日までにこれを行うよう求めました。まあ、この動画は金曜日に公開されます。金曜日まで待って何が起こるか知る必要はありませんでした。
実際にこれらの動画を録画する木曜日に、Anthropicのダリオ自身が国防総省との議論について声明を出しました。いつものように、すべての情報源を下の説明欄にリンクしますが、要点はこうです。この記事では、彼らが譲りたくない2つのことを繰り返しています。大量国内監視。
私たちは合法的な外国情報および防諜任務へのAIの使用を支持しますが、大量国内監視にこれらのシステムを使用することは民主主義の価値観と両立しません。現行法の下では、政府は令状を取得することなく、公開ソースからアメリカ人の動き、ウェブ閲覧、関係の詳細な記録を購入できます。
強力なAIは、この散在する個別には無害なデータを、あらゆる人物の生活の包括的な画像に自動的かつ大規模に組み立てることを可能にします。これがダリオが心配しているポイント1です。ポイント2、完全自律型兵器。今日、フロンティアAIシステムは完全自律型兵器を動かすのに十分な信頼性がありません。
私たちはこれらのシステムの信頼性を向上させるための研究開発について国防総省と直接協力することを申し出ましたが、彼らはこの申し出を受け入れませんでした。この記事は、すでに説明したことの一部を繰り返しています。彼らはあらゆる合法的な使用のためにそれを使用できるようにし、安全対策を削除したいのです。
彼らは私たちをサプライチェーンリスクとして指定すると脅迫しましたが、国防生産法を発動して安全対策を強制的に削除すると脅迫もしました。これら2つは本質的に矛盾しています。一つは私たちをセキュリティリスクとしてラベル付けします。もう一つはClaudeを国家安全保障に不可欠としてラベル付けします。しかしこれが回答です。いずれにせよ、これらの脅威は私たちの立場を変えるものではありません。
私たちは良心的に彼らの要求に応じることはできません。つまりAnthropicはすでに「いいえ、その2つのことに技術を使わせるつもりはありません」と言っているのです。文字通り他のほとんどすべてのことは問題ありませんが、その2つは違います。政府の決定を尊重すると続けており、別の会社をオンボーディングすることを決定した場合、Anthropicは騒ぎ立てず、実際にオンボーディングを手伝うと言っています。
繰り返しになりますが、私にとってこれは今AIで起こっている最も重大なことです。これは前例を設定しています。米国政府にこれらのAIツールを大量監視と完全自律型兵器に使用させるつもりですか? それは政府に譲るつもりのあることですか? Anthropicはノーと言っています。しかし政府はそれほど遠くを見る必要はないようです。なぜならMuskのAIと国防総省がGrokを機密システムで使用する契約に達したからです。
Anthropicが機密システムで動作することを許可された唯一の企業だと先ほど言ったことを覚えていますか? 今、Grokもそれを得ています。Anthropicは国防総省の要求を拒否しました。Claudeをすべての合法的な目的に利用できるようにせよという要求を。xAIはそのすべての合法的使用基準に同意しました。つまり実際のところ、Anthropicは立場を堅持して、その2つのことに使用させないと言えますが、それでも私たちの技術をそのために使用できると言う企業はまだあります。
完全に無関係なニュースですが、今週New Scientistsからこの記事が出ました。AIは戦争ゲームシミュレーションで核攻撃を推奨するのをやめられないと言っています。OpenAI、Anthropic、Googleの主要なAIは、シミュレートされた戦争ゲームで95%のケースで核兵器の使用を選択しました。
とにかく先に進みましょう。Anthropicは今週別のことでもニュースになりました。彼らはDistillation Attacksの検出と防止という記事を出しました。これも完全な動画を作りました。現在はAnthropicは中国が彼らがやったことをやったことに怒っているというタイトルです。その中でストーリー全体を分解していますが、ご存知の通り、ここでTLDDRを提供します。
基本的に、中国の3つの企業、Deepseek、Moonshot AI、Miniaxが、自社モデルのモデル蒸留にAnthropicのモデルを使用したことが発覚しました。モデル蒸留に詳しくない方のために説明すると、基本的にAnthropicのようにモデルのトレーニングにすべての作業を行い、数億ドルを費やしてトレーニングし、研究開発に何ヶ月も何ヶ月もかけてこのモデルを作成した企業に行くことです。
そして別のトレーニングラウンド全体を行う代わりに、プロンプトを与えて応答と思考連鎖応答を得る、そのモデルの蒸留版を作成できます。モデルがどのように考えていたかを実際に見ることができます。そのプロンプトと応答のペアを取り、プロンプトと応答のペアでトレーニングされた新しいモデルを作成します。
基本的に、より大きなモデルの出力でトレーニングしているので、同様の方法で応答し、より大きなモデルにあった余分なものや不要なものを多く削減します。これは実際に単一企業内では一般的な慣行です。Opus 4.6がある場合、モデルをSonnetに蒸留し、さらにHaikuのようなさらに小さいバージョンに蒸留するかもしれません。ChatGPTはGPT 5.2でそれを行い、GPT 5.2 mini、そしてGPT 5.2 Nanoがあります。
蒸留は自分のモデルであれば一般的な慣行です。Deepseek、Moonshot AI、MiniaxのようなこれらのChinese企業は、プロキシサーバーと何万もの偽アカウントを使用して、Claudeの最先端モデルでこの蒸留プロセスを実行していました。
実際、ある事例では、Claudeが新しいモデルをリリースすると、24時間以内にMiniaxが代わりに新しいモデルから機能をキャプチャするためにトラフィックのほぼ半分をリダイレクトしたことに気づきました。繰り返しになりますが、これに関する全体的な分解動画を作りました。すべての詳細を知りたい場合はチェックしてください。
しかし結局のところ、やや皮肉なんです。Anthropicがdeep Seekを非難するのは面白い。説明させてください。説明することは何もない。私が正当に盗んだものを誘拐しようとしている。そうですね、それが人々の考えです。別のミームがあります。Anthropicが公開インターネットでトレーニングしている。中国のAI企業がAnthropicでトレーニングしている。
AnthropicとOpenAIとGoogleとこれらすべての企業。彼らは文字通り、人々の許可なしにインターネットをスクレイピングすることで、モデル全体を構築しました。モデルトレーニングのためにスクレイピングすることで、多数の企業の利用規約を破りました。だから「ねえ、同情してください。みんなが私たちのものをスクレイピングしています」という記事を出すとき、多くの人がその同情を与えるのが本当に難しいと感じています。
最新のAI製品アップデート
さて、より軽いトピックに移りましょう。今週からさらに多くのニュースがあり、興味深いと思うものをシェアしたいのですが、すでにかなり長くなっているので、ラピッドファイアでやりましょう。
AnthropicはCowork内でスケジュールタスクも展開しました。Claudeは特定の時間に繰り返しタスクを完了できるようになりました。朝のブリーフィング、週次スプレッドシート更新、金曜日のチームプレゼンテーションなどが必要な場合、実際にClaude Coworkにバックグラウンドで作業させ、スケジュールで実行させることができます。
デスクトップでClaude Codeを使用している場合、実際にデスクトップアプリを離れることなく実行中のアプリをプレビューできるようになりました。これはウェブブラウザ版のClaudeですでにできたことと似ているようですが、デスクトップ版にも追加されました。Claude Codeのファンなら、これは本当に素晴らしい生活の質の向上です。
リモートコントロールと呼ばれる機能を追加しました。Claude Codeを使ったことがあるなら、厄介なことの一つは、何かをするよう依頼できるのですが、ターミナルコマンドを実行したり特定のタイプのスクリプトを実行したりする必要がある場合、あなたのために物事を続けるモードにしていても、実行する許可を求めてきます。それを実行していいか許可を求めるために戻ってくるものがまだあります。
単にタスクを与えてコンピューターから離れて実行させたい場合、厄介になります。何かについてイエスと言うのを待っていただけで、タスクが一時停止しているのを発見することがよくあります。このClaudeリモートコントロールがそれを解決します。今では「これをやろうとしています。やらせてもいいですか?」という電話へのメッセージを受け取り、イエスを押すと続行します。
Notionのユーザーなら、彼らもエージェントゲームに参入しています。Notionは今週カスタムエージェントを導入しました。便利なTLDDRを提供してくれました。これらは何かというと、Notion、Slack、Mail、Calendar、Figma、Linear、およびカスタムMCPサーバーにわたって繰り返しの作業を24時間365日処理する自律的なAIチームメイトです。エージェントは繰り返しの質問に答え、タスクをルーティングし、ステータス更新をコンパイルし、ワークフローを自動化します。
必要なものを説明してトリガーを設定するだけです。自由に一時停止してこれをすべて読んでください。デモビデオがあります。タスクを自動的にルーティングできます。これらすべてをToDoリストに入れて、実際に優先順位をつけて再配置しているようです。Notionで起こっていることに基づいて質問に答えることができ、自律的に更新を書くことができます。Notion内で起こったことに基づいてステータス更新を自動的に書かせることができます。
かなり便利そうです。この新機能をまだテストしていませんが、試すのが楽しみです。私自身も時々Notionを使っています。今週見つけたものでとても興味深いと思ったものがあります。Standard Intelligenceというこの会社が、最初の完全に汎用的なコンピューターアクションモデルを作成したと主張しています。
彼らは1100万時間のビデオデータセットでモデルをトレーニングしました。モデルは複雑なウェブサイトを探索し、マルチアクションCADモデリングシーケンスを完了し、現実世界で車を運転でき、すべて30fpsで行います。インターネット全体からのビデオを見ることで教師なし学習できます。
以前の方法は、コンピューター使用の請負業者が注釈を付けたスクリーンショットでビジョン言語モデルを微調整し、各特定タスクを学習するための強化学習環境を構築することでした。この方法でトレーニングされたエージェントは、数秒以上のコンテキストで行動することができませんでした。
しかしここでは、インターネットで見つけたビデオをたくさん与えた例が見られます。このモデルは与えられたビデオから学習しました。CADの使い方を学びました。車の運転方法を学びました。ここで模擬銀行アプリのバグを見つけました。
しかしこれは、まだ多くの人が話していないかなり画期的な進歩のようですが、近い将来多くの人が話すことになると予感しています。Pika Labsという会社がPika AI Selvesを導入しました。あなたが生み出し、育て、あなたの生きた延長として放つと主張しています。
彼らは豊かで多面的な存在で、持続的な記憶を持ち、もしかしたらピーナッツアレルギーさえ持っているかもしれません。それはあなた次第です。グループチャットに写真を送らせてください。あなたの魚についてのビデオゲームを作ってください。あなたが母親に電話する以外のことをしている間に母親に電話させてください。可能性は星のように無数です。
私にとっては、何かクールで楽しいもののように感じますが、完全な使用例が理解できていません。基本的に自律的に生きて独自のソーシャルメディアアカウントを持ち、何かをして、それがやっていることをシェアできるAI存在を作成しているだけです。わかりません。たまごっちの本当に高度なバージョンのような感じです。完全には理解できていませんが、試して理解しようとします。
今週出回っているこのビデオもあります。サム・アルトマンがAIモデルのトレーニングと人間の育成を比較しています。私が聞いた中でより反ユートピア的な見解の一つです。聞いてみましょう。
この比較でいつも不公平なことの一つは、人々がAIモデルをトレーニングするのにどれだけのエネルギーがかかるかを、人間が一つの推論クエリを実行するのにどれだけのコストがかかるかと比較して話すことです。
しかし人間をトレーニングするのにも多くのエネルギーがかかります。賢くなる前に、約20年の人生とその間に食べるすべての食べ物がかかります。それだけでなく、これまでに生きてきた1000億人の非常に広範な進化がかかり、捕食者に食べられないことを学び、科学などを理解する方法を学んでからあなたを生み出し、そしてあなたは何でも取りました。
だから公平な比較は、ChatGPTに質問すると、モデルがトレーニングされた後、その質問に答えるのにどれだけのエネルギーがかかるか対人間かということです。おそらくAIはその方法で測定すると、エネルギー効率ですでに追いついています。
つまり、彼の見解は、AIは人間より効率的だということです。人間は育て、食べさせ、間違いから学ばせなければならないけれど、AIはそれほど多くを経験する必要がないからです。
最新の噂と製品リリース
とにかく、OpenAIについて話している間に、噂工場で出回っているものがあります。OpenAIはスマートスピーカーを200ドルから300ドルで価格設定する予定です。サム・アルトマンがJohnny Ivesの会社を買収した後、このOpenAI物理デバイスについてはしばらく聞いていて、毎月そのデバイスが何であるかについて新しい憶測を得ているように感じます。
ある時はペン、書くインクペンで、ペンダントのようなペンではありませんでした。あのScarsgardの広告を見たときのような小さなディスクのようなものだという噂も聞きました。そして今はスマートスピーカーかもしれません。実際には誰にもわかりません。これは今の瞬間の噂です。
今週、Galaxy S26を披露した大きなSamsungイベントもありました。予想通り、多くの新しいAI機能がこの新しいGalaxyスマホに搭載されています。バーチャル試着、AI詐欺検出、サークル検索、複数アイテムの検出、同じくAIを搭載していると思われる新しいGalaxy Buds。PerplexityがGalaxyスマホに搭載されます。
これらの新しいGalaxyスマホにたくさんのAIを詰め込んでいるという発表がたくさんあります。これは今では、すべてのスマホ発表動画から期待されるようになったことですが、本当に興味があるなら、Samsungデバイスにどれだけ新しいAIを入れているかを深く掘り下げられるようにリソースをリンクします。
これも面白い反ユートピア的ですが、Burger Kingは従業員がpleaseとthank youを言っているかどうかをチェックするためにAIを使用します。実際にBurger Kingの従業員が使用する小さなヘッドセットにAIを組み込んで、従業員にpleaseとthank youを言っているかどうかを再確認します。
後の従業員レビューでその情報を使用できると思います。それも私にはとても反ユートピア的に感じます。ねえ、シドニー、データを分析したところ、今週は17回のpleaseと18回のthank youだったけど、23人の顧客と話したよね。来週までにその数字を上げる必要があるよ、お願い。
これが私が共有したかったニュースです。しかし実はもう一つあります。クリックして「ああ、この動画終わった」と思う前に。実際に一つ叫びたいことがあります。これを見てください。これはNvidia DGX Sparkです。これは基本的に、この小さなデバイスでローカルにAIモデルを実行できる小さなミニパーソナルスーパーコンピューターです。
Nvidiaのベストハードウェアのいくつかを使用しています。これらのうちの一つを持っていれば、クラウドに接続する必要なく本当に本当に優れたモデルをローカルで実行できます。Nvidiaの年次GTCイベントが3月16日から19日に開催されます。大規模な対面イベントがありますが、実際に100%無料でバーチャルにイベントに参加できます。
イベントで起こっているすべてのものがストリーミングされ、録画され、ウェブサイトで視聴できます。NvidiaはあのGTX Sparkを送ってくれましたが、2つ目も送ってくれました。この2つ目を、Nvidia GTCに登録した人の中から1人に無料でプレゼントします。そのDGX Sparkを獲得する方法についての詳細をすべて私のLinkedInに載せました。
説明欄の下に特定のLinkedIn投稿に直接リンクしますが、基本的には無料でGTCに登録するだけです。GTCが終わった後にランダムに当選者を選ぶために使用する簡単なフォームに記入してください。私があなたを選んだら、私が持っている余分なDGX Sparkを手に入れます。
参加は無料です。本当に失うものは何もありません。登録してGTCのバーチャルセッションの一つに参加するだけです。それだけです。完全無料。
さて、今週のものはこれで終わりです。もう一度言いますが、100万人の登録者に近づいています。約92,000人離れています。今年中に達成できそうな気がします。まだ登録していない方は、登録を検討してください。本当に本当に助かります。
そんなに重要ではないことはわかっていますが、ゴールラインが見えてきた今、その100万のマイルストーンに精神的に到達したいんです。だからまだ登録していない方は、本当に本当にありがたいです。このようなビデオをYouTubeフィードでもっと見たい場合は、この動画に「いいね」を押すことを検討してください。
おそらくそれが起こるでしょう。うまくいけば、今週出たすべてのAIニュースに完全に追いついたと感じてもらえると思います。これらの動画での私の目標は、脈をとり続け、起こったすべてを共有して、皆さんが完全に把握できるようにすることです。
私はこれらを木曜日に録画して金曜日に公開します。だから金曜日に出た大きなニュースで私が見逃したものがあれば、来週ビデオに必ず入れます。しかし繰り返しになりますが、ここはAIの世界で起こっている最新の出来事を完全に把握できる場所です。このチャンネルをフォローするだけで常に情報を得られます。少なくともそれが私の目標で、やろうとしていることです。
繰り返しになりますが、一緒に過ごしてくれてありがとうございます。ここまで付き合ってくれた方は素晴らしいです。特に感謝しています。あなたが最高です。視聴して、一緒にナードしてくれて本当にありがとうございます。本当に感謝しています。うまくいけば次回お会いできるといいですね。バイバイ。


コメント