OpenAIが「Pulse」を発表:ChatGPTの大幅アップグレード

OpenAI・サムアルトマン
この記事は約9分で読めます。

OpenAIが新機能「Pulse」を発表し、ChatGPTが能動的にユーザーの情報を先読みして朝の要約を提供する革新的システムを導入した。同時にGoogle DeepMindはロボット技術を大幅にアップグレードし、複数ステップのタスク実行や異なるロボット間でのスキル共有を実現。さらにMetaはAI生成動画専用フィード「Vibes」を発表し、InstagramやFacebookでのコンテンツ体験を根本的に変える可能性を示している。これら三つの重要な発表は、AIがもはや人間の指示を待つのではなく、積極的に行動する時代の到来を告げている。

OpenAI Just Dropped PULSE: A Major Upgrade to ChatGPT
OpenAI just dropped Pulse — a new system inside ChatGPT that thinks ahead for you. Instead of waiting for your prompts, ...

OpenAIの革新:Pulseがもたらす新たなChatGPT体験

OpenAIがChatGPTに先読み機能を持たせて、ユーザーが寝てる間にパーソナライズされた日次要約を作ってくれるようになったんや。Google DeepMindの方はロボットにウェブ検索させて、複数ステップのタスクを計画させて、全然違う機械同士でスキルを共有させることまで教えたんやで。そしてMetaがAI動画フィードをローンチして、これがInstagramとFacebookでコンテンツがどう広がるかを完全に変えてしまうかもしれへんのや。

この三つの大きな動き、全部一つのことを示してるんや。AIはもう俺らを待ってくれへん。せやから、これについて話してみよか。

まずOpenAIから始めよう。彼らはPulseをリリースして、これがChatGPTとユーザーとの関わり方の力学を変えてしまうんや。今まで、ChatGPTはずっと受動的やった。ユーザーが質問せなあかん、会話をガイドせなあかん、何が大事かを自分で見つけ出さなあかんかった。

答えは良いもんやったかもしれへんけど、始めるのは常にユーザーの責任やったんや。Pulseがそれを変える。

Pulseの仕組み:寝てる間に働くAIアシスタント

仕組みはこうや。ユーザーが寝てる間に、ChatGPTが勝手に非同期調査をするんや。これまでのチャットやフィードバック、もしユーザーが許可したらGmailやGoogle Calendarみたいな接続アプリから学んだことを基にしてな。

そして朝になったら、要約を渡してくれる。素早くスワイプして見れるビジュアルカードのセットか、詳細を見たかったら展開できるやつや。実際にユーザーにとって大事なことの日次パルスチェックみたいなもんを意図してるんや。

例えば、旅行の計画について話してたとしよう。次の朝、Pulseが旅行のコツ、レストランのアイデア、もしくはユーザーのカレンダーに基づいたサンプル旅程まで提示してくれるかもしれへん。

誕生日が近づいてることに気づいたら、プレゼントを買うリマインダーをくれるかもしれへん。トライアスロンのトレーニングについてチャットしてたら、新しいランニングルートや栄養アドバイスを提案してくれるかもしれへんのや。

せやから、これはランダムちゃうんや。ユーザー自身のコンテキストを中心に構築されてる。そして、それを形作ることもできる。キュレート機能があって、文字通りChatGPTに明日何を見たいかを伝えることができるんや。

毎週金曜日に地元イベントのまとめが欲しいとか、テニスのアップデートとか、新しいSF本とかな。時間が経つにつれて、システムがユーザーの好みに合わせて調整していく。フィードバックもシンプルや。役に立ったらサムズアップ、的外れやったらサムズダウンや。

実用例:学生の体験談

一つの例が、テストしたIsaac Sylerという学生から出てきた。彼は台湾での助成金期間のPTOスケジュールについて話し合ってたんや。

次の日、Pulseが彼にカレンダー管理のコツだけやなく、彼自身では絶対に見つけられへんかった電車と通勤情報まで渡してくれたんやて。これがシステムが輝く良い例や。すでに知ってることを繰り返すだけやなく、ユーザーの思考を一歩か二歩先まで広げようとしてるんや。

当然の疑問に答えるけど、これは無限にスクロールさせ続けるようにはデザインされてへん。

ChatGPTチームのテクニカルリードであるSamir Ahmedが「アップデートは終わる。それらを見て、それで終わり。全体のアイデアは必要な情報を得て先に進めることで、アプリの中に閉じ込めることやない」って言うてる。

もちろん、Pulseはまだプレビュー段階や。今のところ、モバイルのプロユーザーだけや。後でプラスに来て、最終的にはみんなが使えるようになる。

OpenAIは常に正しくいくとは限らへんことを明確にしてる。時々、関係ない tips や既に終わったプロジェクトのアドバイスを受け取ることもある。けど、相互作用が多いほど、実際にユーザーにとって大事なことを理解するのが上手くなっていく。

プライバシーと安全性への配慮

プライバシーについて、Pulseは通常のChatGPT会話と同じルールで動く。ユーザーのデータはユーザー自身の結果を改善するのに使われて、他の人のものやない。

Pulseについてのフィードバックは何かグローバルモデルに送り込まれることはない。翌日のパーソナルアップデートを調整するだけや。OpenAIで個人化と生産性を担当するChristina Kaplanがこの点について非常に直接的やった。ユーザーのPulseはユーザーとChatGPTの間のもんや。

それでも、有害や不健康なコンテンツが浮上するのを止める複数のフィルターを追加してて、ポリシーと安全チームが注意深く見守ってる。解決された問題やないけど、少なくとも彼らはそれを認識してる。

OpenAIのアプリケーションCEOであるFigimoは、ゴールはエージェント、質問に答えるだけやなく、ユーザーの代わりに行動するAIシステムやって言った。今年初め、彼らはChatGPT agentをローンチして、指示を与えられたらタスクをフォローできるようになった。

Pulseはユーザーの目標を理解して、プロンプトを入力するのを待たずに達成を助けるアシスタントに向けてさらに押し進めてる。チャットボットから実際のアシスタントへのシフトの始まりや。

Google DeepMind:ロボティクスの大幅進化

OpenAIがその方向に動いてる間に、Google DeepMindはロボティクスを狙ってる。彼らはGemini Roboticsモデルをアップデートしたばかりで、これは深刻な前進や。

アップデートは二つの部分に分かれてる。Gemini Robotics 1.5とGemini Robotics Er.5。DeepMindでロボティクスを担当するCarolina Parataがこの変化をこう説明した。これまで、AIモデルを使ったロボットは単一の指示に従うことができた。この紙を折れ、そのバッグのジッパーを開けろ。シンプルな一回限りのタスクや。

これらのアップグレードで、ロボットは複数ステップのプロセスを計画して実行できるようになった。例えば、洗濯物を適当に分類するだけやなく、濃い色と薄い色の服を分けることができるようになった。スーツケースに荷造りする時、Google検索でロンドンの天気を調べて、その情報を使って何を詰めるかを決めることができる。

リサイクルについて、堆肥、リサイクル可能物、ゴミについての地元のルールを調べて、それらの具体的な指示を適用することができる。一度に一つのコマンドから本当の問題解決への大きなジャンプや。

仕組みが面白い。Gemini Robotics ER1.5が embodied reasoningを処理する。ロボットの環境を見て、そこに何があるかの理解を構築して、もっとコンテキストが必要な時、Google Searchみたいなデジタルツールを呼び出す。

ロボット間のスキル共有という革新

見つけたものは何でも自然言語の指示に翻訳される。それらの指示はGemini Robotics 1.5に行って、実際にビジョンと言語スキルを使ってそれらを実行する。一つのモデルが計画して、もう一つが実行する。

そしてここにもう一つのブレークスルーがある。ロボット間の転移学習や。DeepMindは一つの機械で学んだスキルが、完全に異なるセットアップを持つ別の機械に転送できることを示した。

彼らは二つの機械アームを使うAloha 2ロボットを訓練した。同じタスクがFrancoロボットで完璧に動いて、さらにAptronicsのヒューマノイドApolloでも動いた。それは各ロボットを一から訓練する必要がないことを意味してる。スキルを共有できるんや。

エンジニアの一人であるKenishka Raoがこれには二つの巨大な意味があると言った。

まず、一つのモデルがヒューマノイドを含む非常に異なるロボットをコントロールできるようになった。二番目に、一つのロボットで開発されたスキルがそこに閉じ込められたままやない。エコシステムの周りを移動できる。

全てのロボットが同じスキルを別々に学ぶ必要がない場合の、工場、倉庫、さらには家庭用ロボティクスでの効率性向上について考えてみいや。

開発者は既にこれの一部にアクセスしてる。Gemini Robotics 1.5がGoogle AI StudioのGemini APIを通じてロールアウトされてる。メインのGemini Robotics 1.5モデルはまだ選択されたパートナーに限定されてるけど、これは普通こういうもんが始まる方法や。彼らがそれを改良するにつれて拡大することを期待しよう。

Meta:AI生成動画の新時代「Vibes」

さて、Metaで締めくくろう。

彼らはVibesという機能を発表したばかりで、これは基本的にMeta AIアプリの中でAI生成動画専用の新しいフィードや。アイデアはシンプルやけど強力や。アプリを開いて、馴染みのあるスクロールフィードを得る。短いクリップ、ブラウズしやすい。けど捻りは、そこの全ての動画がAIを使って生成されたりリミックスされたりしてることや。

ただ受動的に見てるだけやないけど。動画が目を引いたら、即座にそれで遊び始めることができる。ビジュアルスタイルを変える、音楽を加える、新しい要素をスワップイン、もしくは自分の創作のように感じるまで編集を重ねる。そしてリミックスしたくなかったら、一から始めてアプリの中で完全に新しい何かを作ることもできる。

完成したら、共有する複数の方法がある。Vibesフィードに直接投稿して、同じAIファーストの環境で他のユーザーに表示させることができる。DMを通じてプライベートに送ることもできるし、ストーリーやリールとしてInstagramとFacebookに直接プッシュすることもできる。

MetaのAI戦略:既存プラットフォームとの統合

そしてここに重要な部分がある。Metaはこのシステム全体を既存のプラットフォームに結び付けてる。

せやから、Instagramをスクロールしてて、フィードでMeta AIが生成したクリップを見たとしよう。ワンタップで、Meta AIアプリにジャンプして、即座にそのクリップを自分でリミックスできる。その繋がりがMetaが賭けてるもんで、彼らの巨大なソーシャルプラットフォームを使って人々をこの新しいAIネイティブの創造空間に誘導するんや。

パーソナライゼーションの部分も組み込まれてる。InstagramフィードやFacebookタイムラインがユーザーの行動に適応するのと同じように、Vibesも同じことをする。時間が経つにつれて、見る動画がユーザーの興味や相互作用する創作の種類に向けてシフトしていく。

まだ早期プレビュー段階やけど、Metaは既にビジュアルアーティストやクリエイターと一緒にツールをさらに押し進めるために働いてるって言ってる。

せやから、より高度なモデルとスタイルをスワップしたり背景音楽を加えたりを超える編集オプションがロールアウトされることを期待しよう。恐らくポケットの中でフルスケールAI映画編集に向かってるんやろな。

未来への問いかけ

せやから、ここで質問や。AIがユーザーの生活でより積極的な役割を果たすことについてワクワクしてるか?それとも速すぎて遠すぎるように感じるか?コメントで思いを書いてくれ。

チャンネル登録ボタンを押してくれ。役に立ったと思ったらこの動画にいいねをくれ。そして見てくれてありがとう。次回で会おう。

コメント

タイトルとURLをコピーしました