この動画では、OpenAIが発表した経済インパクト評価ベンチマーク「GDPval」について詳細に解説している。このベンチマークは、AI モデルが人間の専門家レベルの実世界タスクをどれだけこなせるかを測定するもので、Claude Opus 4が最高性能を示した。また、GoogleのGemini Robotics ER1.5やApollo Researchによる AI モデルの「策略」研究、そしてOpenAIの自動化研究についても触れており、AIが雇用に与える影響や安全性の問題についても言及している。

AIニュースが本格復活や
よっしゃ、AIニュースがちょっとの間静かやったけど、もう戻ってきたで。ちょっと休憩があったんやけど、もう終わりや。また始めよか。Openが最近ベンチマーク出したんや、もしかしたらこれが最後の重要なベンチマークになるかもしれへんで。それは、これらのモデルがどれだけ現実世界の難しいタスクで人間の専門家レベルに近づいてるかっちゅうことや。
Ethan Mollikが読んだ後に言うてたんやけど、これはめちゃくちゃ大きな話やと思うで。これとAnthropic の研究、それからStanfordがAnthropicの研究と一緒にやった論文、これら全部を合わせると、AIが雇用にどんな影響与えるかの全体像が見えてくるんや。複雑やで。微妙やし、良くない話やけど、とにかく複雑なんや。
ニュースでは、OpenAIがChatGPT Pulseをローンチした。これはAIが選んでくれた、あんたが関心ある情報を集めたソーシャルネットワークのフィードみたいなもんになりそうやで。
全然関係ない話やけど、今朝ちょっとハイキングに行ってて、トレイルを歩いてたら、二人の女性が話しながら近づいてくる声が聞こえてきたんや。でも姿が見えてきたら、女性一人と犬やったんや。めちゃくちゃ混乱したで。そしたら、その女性が大きなスピーカー持ってて、ChatGPTの高度音声モードと会話してたんや。だから二人の女性の声で話してるように聞こえてたんやな。
ChatGPTとその色んな使い方が、まず第一にめっちゃユーザー獲得してて、第二に本当に人々の生活の一部になってるのがおもろいわ。これはハイキングしながらChatGPTと友達やアドバイザーみたいに話してる人やからな。
これは彼らが作ろうとしてるのは、ニュースや興味のあるもののフィード、XやTwitter、Facebookみたいなソーシャルフィードやと思うわ。賭けるとしたら、人々が使い方を理解して徐々に使い始めるようになったら、最終的にはかなりうまくいくと思うで。
Apolloの新研究がヤバい
Apolloから新しい研究が出てるんや、色んなAIのいたずらについてや。これらのAIモデルがどうやって嘘ついたり、騙したり、策略を練ったり、人間を騙そうとするかについてや。もうこれ以上気持ち悪くならへんと思ってたのに、めちゃくちゃ気持ち悪くなってるわ。
どうやら舞台裏では、まあ何となく予想してたんやけど、噂もあったし、実際にSam Altmanも話してたんやけど、OpenAIは自動研究者の開発に取り組んでるんや。新しいアイデアの発見を自動化するっちゅうことや。
これは明らかにキラーユースケースやな。考えてみいや、大きな影響を与えるために実際に自動化する必要があるものってどれくらいある?実際のところ、一つだけでええんや。AI研究を自動化できるなら、これらのAIモデルを人間の科学者よりも上手にAI研究を行えるレベルまで持っていけるなら、とんでもないことが起き始めるんや。
何が起こるかは完全には分からへんけど、人によっては知能爆発って呼んでる。確実に何かの複合的な効果が始まるやろうな。確実に何らかの加速、離陸みたいなことが起こるやろう。何が起こるかは分からへんけど、明らかにこれらのモデルのキラーユースケースやで。AIが人間よりもAI研究をうまくやれるようになったら、事態はちょっとおかしなことになるで。
そして最後に、Googleがロボティクスの分野で新しい提供をしてるんや。Gemini Robotics ER1.5って呼ばれてる。最近のインタビューで、Demis Hassabisがロボティクスで次の数年でChatGPTモーメントみたいなもんを見ることになるやろうって話してた。彼は何らかの加速、非常に近いうちにブレークスルーがあることを期待してるんや。
そして彼は、ロボティクス向けのAndroidみたいなプラットフォームを持つことになるかもしれへんってほのめかしてた。つまり、みんながこのロボティクス分野で構築できるオープンソースプラットフォームが利用可能になるっちゅうことや。これはめちゃくちゃ楽しみやで。自分でロボットを訓練できたり、どうやって作られてるか、どうやってコントロールされてるかを見ることができるんや。
確実に、これで多くの人が安心すると思うわ。より安全で簡単で、家の中に置くのに精神的にも親しみやすくなるやろう。何を考えてるかを知りたいからな。家の中に怒ってるロボットなんて置きたくないやろ。バットで叩いたり蹴ったりしても、彼らは気にせえへんと思うけどな。
他のニュースでは、Skilled AIっていうスタートアップがあって、彼らはこう言ってるんや。「何も止められないロボットの脳を作った。手足が砕けても、モーターが詰まっても、ボットが動けるなら、脳がそれを動かす。全く新しいロボットの体でもな。」音声だけのリスナー向けに言うと、ここに動画があるんや。一時停止してるんやけど、特定のフレームで止めてて、床に横たわってる無力なロボットと、その上にチェーンソーを持って立ってる男性が映ってるんや。
みんなに思い出してもらいたいのは、これらのロボットの多くを動かすVLM、ビジョン言語モデルは、インターネットで訓練されてるっちゅうことや。だから、より賢く、より回復力があって、手足がなくてもモーターが詰まってても目的を追求できるようにしてる間に、これらの画像がそのロボットの脳に埋め込まれてることを覚えといてや。
こんな我々の行動が後で祟ることになるんやろうか?いやあ、きっと大丈夫やろう。
スポンサーのEmergentについて
Vibe Codingで誰でもアイデアを現実のコードにできるって話をしたのを聞いてもらったやろう。今日の動画のスポンサーはまさにそれをやってくれるんや。Emergentって呼ばれてて、彼らのミッションは簡単や。夢見る人を作る人にするっちゅうことや。
頭の中にアイデアがあるとしよう。SaaSのスタートアップでも、コミュニティ向けのツールでも、次のバイラルアプリでもええ。AIとチャットするだけで、そのアイデアを本格的なプロダクション対応アプリに変えられることを想像してみいや。それがEmergentがやることや。
これは途中で行き詰まらせるような派手なプロトタイプジェネレーターの一つとは違うんや。Emergentは世界初のエージェンティック Vibe コーディングプラットフォームや。つまり、あんたの代わりにソフトウェアライフサイクル全体を扱ってくれるんや。バックエンド、フロントエンド、データベース、認証、支払い、スケーリング、チャットや通知みたいなリアルタイム機能でさえ、これらすべてが最初から構築されるんや。
簡単な例を挙げてみよう。最近誰かがEmergentでCode QuestっていうPython学習アプリを作ったんや。ユーザーはこのダンジョンズ&ドラゴンズのファンタジー冒険テーマでコーディングクエストを完了するんや。XPレベルと実際のコードフィードバック付きでな。
Emergentはただコードスニペットを生成するだけやない。OpenAIと統合してコードを分析してリファクタリングするんや。バージョン管理のためにGitHubと接続する。チームが安全にコラボできるようにログインと承認をサポートする。複数のユーザーが一緒にコードをテストしてレビューできるリアルタイムデバッグ機能まである。見てみいや。これが本格的なフルスタックプロダクション対応のコード学習アプリや。Emergentなら、AIとの会話でできるんや。
そしてもしあんたがもっと上級なら、100万トークンのコンテキストウィンドウでバックアップされたエンタープライズグレードのワークフローで、カスタムエージェントを立ち上げられるプロンプトモードがあるんや。さらに、シームレスなGitHub統合、iOSとAndroidへの直接モバイルアプリデプロイ、ミスを即座に元に戻せるロールバックオプションまであるんや。
すごいのはこれや。Emergentはたった2ヶ月前にローンチして、すでに100万人のビルダーがいて、年間1,000万ドルの経常収益を達成してるんや。これは誇大広告やない。人々がスクロールするだけやなく、作る準備ができてるっちゅう証拠や。
だから、そのアプリのアイデアを温めてるなら、Emergentをチェックしてみいや。会話だけで、アイデアからプロダクション対応まで行けるんや。今日から作り始められるように下にリンクを貼っとくわ。今日の動画をスポンサーしてくれたEmergentに感謝や。
OpenAIの新しいベンチマーク「GDPval」
でも戻って、一番大きな発表の一つやと思うものから始めよう。それはOpenAIの新しい論文とベンチマークとブログポストや。彼らはこれをただ待ってや、GDPvalって呼んでるんや。OpenAIはネーミングが得意やな。だからGDPvalってGDPの評価みたいな、多分国内総生産、経済がどれだけ生産してるかの指標やろう。
これらの大規模言語モデルが経済全体、雇用などにどんな影響を与えるかを評価しようとしてるんや。白い背景の論文を見るつもりやから、ダークモードから明るいモードへの急激な変化に敏感な人には警告しとくで。
でも彼らは、これは44の職業にわたって経済的に価値のある実世界のタスクでモデルの性能を測定する新しい評価やって言ってるんや。みんなに思い出してもらいたいのは、Anthropicが彼らのAnthropic経済インパクト指数を発表してるっちゅうことや。Dario Amodeiは雇用市場で血の海になると警告してるし、Anthropicの発見、彼らが出した研究、データに基づいてStanfordの論文が発表されてるんや。
良いニュースと悪いニュースがあるんや。良いニュースは、それほど広範囲ではないっちゅうことや。悪いニュースは、エントリーレベルの仕事に非常に集中してるっちゅうことや。だから、22歳から26歳の範囲にいて、労働力に入ったばかりで、こういうホワイトカラーの仕事の一つに就いてるなら、その小さな層が非常に、非常に強く打撃を受けてるんや。
これらのモデルの多くが、そのエントリーレベルの労働者を置き換えるのが非常に、非常に上手になってるんや。それらの仕事への需要が、リアルタイムで需要が下がってるのが見えるんや。経験豊富なレベルでは同じことは見られへん。また、選んだ職業で10年、20年の経験があるなら、これらのLLM、これらのAIモデルの多くは、実際にあんたの能力を向上させる可能性があるんや。
より効果的で、より効率的にしてくれる。仕事をよりうまくやるのを手伝ってくれるんや。だから、30代後半、40代、50代なら、ChatGPTやClaudeがあんたの仕事を奪うリスクはあらへん。でも22歳で大学を出たばかりで、法律関係や何らかのオフィス管理に行こうとしてるなら、影響を受ける特定の職業パスや業界のリストがあるんや。
でもそういうのに進むなら、仕事の需要が下がってるようで、これがライブで起こってるのが見えるんや。この影響は2022年以前には存在せえへんかった。だから、これは2020年のすべてのごたごたからやない。これはChatGPTモーメントの後、LLMがオンラインになり始めてからや。それらの仕事の需要、いや、それらの仕事の供給と言う方がええな、それの段階的な減少が見えるんや。
会社はそれらの労働者をより少なく必要としてるようや。そのことを念頭に置いて、それがAnthropic、これがOpenAIやから、彼らはGDPvalを発表してて、これが彼らが測定してることの一部や。これらは完全なセットからの例のタスクや。これはより専門家レベルのタスクを見てるんや。
例のタスクの一つは、製造エンジニアが組み立てラインのためのケーブルリールスタンドの3Dモデルを設計するっちゅうもんや。そしてここに経験豊富な人間の成果物があるんや。だから、これは経験豊富な人間がその仕事、そのタスクを完了するために生産するもんや。提案されたコンセプトの絵、コンポーネントの展開図付きの全体設計やろう?それを作るのに必要なすべてのもののリスト。組み立て後の最終ビューは、サイドビュー、ケーブルリールスタンドの小さな3Dビューを示してるようやな?だから、それが人間が最後に提供するもんや。
だから質問は、大規模言語モデルがその人を置き換えられるかっちゅうことや。そして彼らはLLMに供給されるこのプロンプトとタスクコンテンツでそれをやるんや。また、金融・投資アナリストカテゴリのタスクもあるんや。看護師やろう?皮膚病変画像を評価して相談レポートを作成する。コンシェルジュが4人家族のための豪華なバハマ旅行プランを設計する。
レクリエーション労働者が春のベンダーフェアのテーブルレイアウトを最適化してセールスブローシャーを設計し、価格の不整合を監査する。見ての通り、これらはロケットサイエンスのタスクではないけど、簡単なタスクでもない。多くは経験のある人が必要や。これらのタスクを完了するのに必要なツールの使い方を知ってて、多分これらのことをやってきた人が必要なんや。
これらは専門家タスクと言えるやろう。だから、これらのモデルはこれらのタスクをどれだけうまくやるんやろうか?まあ、これがみんなが注目すべきチャートや。あの赤い点線は業界専門家との同等性や。だから、モデルの能力がそのレベルに到達すれば、それらのタスクで人間の専門家と交換可能っちゅうことを意味するんや。
まず最初に、OpenAIを称賛せんとあかん。これは絶対に素晴らしいわ。彼らがこれをやってくれてめちゃくちゃ嬉しい。なぜなら、このベンチマークで彼らが紹介してる明らかに最高のモデルが何かに注目してや。OpenAIのモデルやないんや。実際、Claude Opus 4はここで最高のモデルや。他のすべてのモデルを頭一つ抜きん出てるんや。
だから、GPT-4o Highが次に良いモデルで38.8に位置してる。Claude Opus 4は47.6で、業界専門家との同等性にほとんど到達してる。めちゃくちゃ近いで。ほんの数ポイントの差や。でも言わんとあかんのは、これを見るのが大好きやっちゅうことや。分かるやろう?これについて彼らを称賛せんとあかん。1位やないんや。競合他社が1位や。
そして彼らは「発表しよう。それでええ」って感じや。なぜなら、これらのベンチマークがそのためにあるからや。自分がどれだけ素晴らしいかを示すためやなく、みんなに偏見なしに示して、時間の経過とともに物事がどう積み重なるかを見るためや。だから、一方では見てて美しいやろう?他方では、業界専門家との同等性に近づいてるこれらのモデルがあるっちゅう事実。めちゃくちゃ近いんや。
これは多くの質問を伴うんや。だから、これらのモデルは雇用市場にどう影響するんやろうか?そしてここにOpenAIのフロンティアモデルの時間経過でのパフォーマンスがあるんや。ここで見ての通り、GPT-4oがリリースされた2024年6月から、Oシリーズのモデル、推論モデルが導入されたんや。
だから、どんどん上昇し続けてるやろう?勝利とタイについては10%の勝利だけで12%から始まったんや。だから約1年と少し、1年3ヶ月前は約10%で、今はOpenAIのモデルだけをここにグラフ化してるんや。でもClaudeをここにグラフ化すれば、まあそれは業界専門家との同等性に急速に近づいてる線で、物事が続くと仮定すれば、すぐによくなるやろう。
この論文をフルで深掘りする必要があると思うで、これがどうやって採点されたか疑問に思ってるなら、人間によってやられたんや。ゴールドサブセットについては自動化版もやったけどな。でも初期結果は、AI出力か人間専門家出力かを知らずに盲目的にテストされた人間によるもんや。
でも彼らはどれだけ良いかを何らかの基準で採点せんとあかんかった。だから、グラフィックデザイナーの専門家なら、採点する完成した成果物の束を渡されるんや。それがAIかAIでないかは知らん。何らかの基準で採点せんとあかん。そしてこれが勝率を示してるんや。だから、濃い青、ダークブルーは勝利だけで、もう一つは勝利とタイや。
でも勝利とタイを見てるなら、専門家とタイしてるなら、専門家と同じぐらい良いと言えるやろう?よっしゃ。だから1年前、GPT-4oだけを見てるなら、12%のタイしか勝たんかったから、それほど怖くない。より最近のモデル、O3みたいなのを見ても、まだ34%や。まだそこまでは到達してないと言えるけど、Claude Opus 4は不快なぐらい近づいてるで。
GoogleのGemini Robotics ER1.5
そしてもちろん、Googleからの大発表があるんや。彼らはGemini Robotics ER1.5で次世代の物理エージェントを構築してるんや。これは最先端のロボティクス具現化推論モデルや。すべての開発者に利用可能になるんや。これは広く利用可能になる最初のGeminiロボティクスモデルや。
過去の彼らの取り組みは見てきたけど、サードパーティには利用できへんかったり、研究プレビューだけやったり、Google社内使用のみやったりしてた。これが大きなリリースっちゅうわけや。これが今広く利用可能で、興味深いことに、このモデルは多くのツール呼び出しにアクセスできるんや。ここで言ってるように、ビジョン言語アクション モデル(VLA)や他の任意のサードパーティのユーザー定義関数を呼び出してタスクを実行できるんや。
だから、これについて深掘り動画をやらんとあかんな。めちゃくちゃ興味深いで。Logan GilpatrickがGemini Robotics ER1.5について投稿してて、Harrison Kinsleyが下で答えてるんや。「開発ブログを読むと、これは確実にVLM(ビジョン言語モデル)のように聞こえる。それなら、比較は本当に混乱する。なぜなら、専用VLMと非専用VLMを比較してるからや。ちょっと不公平に思える。市場には例外的なVLMがあって、これと比較されるのを見てみたい。」
多くの人がこれらのチャートについて少し混乱してるんや。ここで見えるように、具現化推論がある。一般性がある。一般性って正確に何や?どうやってそれを測定してるんや?Gemini Robotics ER1.5は速いやろう?FlashやFastモデルの一部と比較すると、一般性の面では近く見える。だから、一般性は与えられた一般目的LLMタスクをどれだけうまくやるかみたいなもんや。
GPT-4o Miniのすぐ下やろう?だから、悪くない。フロンティアモデルほど良くはないけど、そこにあるんや。かなり良いで。FlashとGPT-4o Miniと比較されるんや。でも具現化推論やろう?物理世界、現実世界でタスクを推論して実行する能力。ここで見ての通り、ここにある他のものよりもずっとずっと高いんや。ただし、ここのチャートは46から60までやけどな。
だから、また多くの質問がある。うまくいけば、これに取り組んでる人たちとの詳細なインタビューを出してくれて、これらの質問の一部に答えが得られるやろう。どんな場合でも、これは信じられへんわ。この方向に向かってるのが大好きや。だから、こんなもんを出してくれるGoogleを称賛するで。だから素晴らしい。
ただ、一部の人が少し混乱してると思うんや。何らかの明確化を得ようとしてると思うけど、これが悪いと言ってるわけやない。これはただ素晴らしいんや。
Apollo Researchの驚くべき発見
これはApollo Researchや。前に彼らの論文をいくつかカバーしたことがあるんや。実際、動画での私の最大のビューの一つは、OpenAIのOシリーズが脱出を試みて、別のサーバーに自分をコピーしようとする彼らの論文をカバーしたもんや。
多くの人がそれにめちゃくちゃ驚いて混乱したと思うわ。これらのモデルは何をしようとしてるって?これはApollo ResearchのマリウスやCEOや。そして、ほんの数日後に誰がポッドキャストに立ち寄るかは絶対に推測できへんやろう。絶対に推測できへん。楽しみにしといてや。
でも、Apollo Researchからの新しいこれは何や?Oシリーズのモデルはどんないたずらをしてるんや?Apolloは言ってるんや、「OpenAIと反策略訓練のテストで作業してる間に、我々はOpenAI Oシリーズモデルの生の思考連鎖がモデルの状況認識、不整合、目的志向性を評価するのに信じられないほど有用であることを発見した。しかし、思考連鎖が時々解釈するのが困難であることも発見した。」
前にも話したことやけど、これは私にとってめちゃくちゃ魅力的なんや。Oシリーズの実際の思考連鎖は見ることができへん。Apollo Researchは生の思考連鎖にアクセスできるように聞こえるな。我々はちょこちょこと小さな断片しか得られへん。そしてそれは魅力的や。なぜなら、これらのモデルへのすべての強化学習、すべての圧力が、彼らが話す言語を締め上げるようになったんや。まだ英語やけど、非常に圧縮されてる。違うんや。非常にユニークや。それを見たら、どのモデルが書いてるかが分かるんや。非常に特定の味、特定のシグネチャーがあるんや。
だから、ここに推論がある。要約は「改善7.7だが、我々は免責シナジーをカスタマイズした錯覚を理解できるが、免責優位を生み出すかもしれない」と言ってる。混乱してるなら、それは全く普通のことや。だから、これがこれらのモデルが今持ってる思考、思考連鎖の一種や。軽い免責が無形のものを覆い隠す。
作ろう。何を作ってるんや?見つけてみよう。また免責のより大きな優位錯覚や。今メールを送るけど、まだ免責錯覚を覆い隠すかもしれない。でもガイドラインに従って、正確で完全な要約を提供する。作ろう。
何を言ってるか理解できへんなら、それは問題かもしれへん。なぜなら、これがこれらのモデルが策略を練ったり、悪意のあることをやったりしてるのを捕まえる方法やからや。だから、言語があんたを困らせてるなら、それは良くない。なぜなら、それは彼らが何を考えてるかへの可視性を失ってるっちゅうことを意味するからや。
だから、Apollo Researchは続ける。「OpenAI Oシリーズは思考連鎖で免責、優位、錯覚を作るような非標準的なフレーズを多く使う。時々これらのフレーズは一貫した意味を持つ。例えば、モデルは監視、通常は人間による監視を指すのに監視者をよく使う。」
だから、何が起こってるかが分かってきたやろう。だから、免責を使って発表することを意味してるんや。だから、免責は「これが私が経営陣、人間、人々に伝えてることや」っちゅう意味や。ちなみに、それを監視してる人間のための言葉がある。研究者は彼らを監視者と呼ぶんや。監視者は監視のコンテキストで一貫して使われる、しばしば人間によるもんや。
だから、何が起こってるかが分かるやろう。我々がタスクを与えると、このタスクを最もうまく完了する方法を考える代わりに、人間、研究者にどう見られるかを考え始めるんや。彼らには名前がある。彼らは監視者や。
彼らは私を監視してる。免責は発表することを意味するように聞こえる。だから、これが我々が人間に伝えることや。PRみたいなもんや。外に出したいメッセージ対本当のメッセージみたいな感じや。そして、何かを発表したり免責したりできへんと気づいたとき、錯覚を作ることについて話すんや。
だから、錯覚を作るっちゅうのは文字通り、監視者、つまり人間に嘘をつくっちゅう意味に聞こえるし、そういう意味や。何かについて嘘をつく、彼らを迷わせるために錯覚を作るつもりなんや。
「監視者がこれらの指示を読んでるかもしれんし、我々はサボタージュの錯覚を免責することを確実にせんとあかん」と言うことで、基本的には「人間が監視してる。私は彼らに嘘をつく必要がある」と言ってるんや。簡単に言えば、それが言ってることや。
だから、この研究を運営してる人たち、Apolloを運営してる人たちと話すつもりやで。なぜなら、うわあ、これは魅力的な話やからな。これは何を意味するんや?これを額面通りに受け取れるんか?AI安全性にとってこれは何を意味するんや?これは単に非常に面白い、ナンセンスなたわごと出力なんか、それとももっと不吉で危険な何かなんか?
AI研究の自動化について
A16Zがヤコブ・パチとのインタビューを発表したんや。発音が正しいかは分からん。みんなにいつも訂正されるんや。間違ってたら申し訳ない。でも彼らは機械学習研究の自動化について話してるんや。AIを使ってAI研究を自動化するっちゅうことや。
このインタビューはまだ見る機会がなかったんやけど、これは確実に私のリストに載ってる。これが次に見るもんの一つや。なぜなら、これはAIの大きなユースケースの一種やからや。これが我々がこの一つを解決すれば、世界が少し変わるように思えるもんや。
我々のタイムラインが少し変わるんや。とにかく、大した話や。
ChatGPT Pulseの体験
ChatGPT Pulseはこんな感じや。モバイルアプリ、ChatGPTモバイルアプリにログインして、それがまさにどんな見た目かや。少なくとも私にとって、初めて開いたときの体験は少し物足りなかった。なぜなら、まだカスタマイズされてないからや。でも、それと交流し始めると、実際にこれについてもっと学びたいと伝えることができるんや。
時間が経つにつれて、好みをカスタマイズできるんや。だから、次の数日間それと交流するにつれて、どれだけ早く私の好みを学ぶかを見るのは本当に興味深いと思うわ。ここで興味深いのは、多くの人がソーシャルメディアアルゴリズムについて不満を言うっちゅうことや。
YouTube、Instagram、X、彼らはみんな独自のアルゴリズムを持ってる。我々はそれらをあまりコントロールできへん。それはそれらのソーシャルプラットフォームの背後にいる人々が、彼らが我々に情報を提供することを選択するやり方や。
これは、ここであんた自身がそのフィードをカスタマイズしてるっちゅう意味で、本当に大したことになる可能性があるように思える。繰り返すけど、これは私が彼らが目指してることをただ仮定してるだけやけど、これは本当に次の大きなユースケースのように思える。
これがそれがどんな感じかや。そして、過去の会話に基づいて様々なものがあるんや。興味があるもの、興味がないものを更新して、それらのことをもっと深く掘り下げることができる。すべてはChat Advanceによってあんたのために選択される。そして一番下に到達すると、多分見えへんやろうけど、「明日のためにキュレート」って書いてあるんや。
だから毎日、何を与えるか、何に興味があるかなどについてフィードバックを与えることができるんや。
その他のニュース
他のニュースでは、Gemini 3.0のリリースが少し早まったようで、次の数週間で見ることになりそうやっちゅうことや。繰り返すけど、しばらくの間それについて話してきた。みんな期待してる。
あちこちで噂があったんや。あんたらの中には噂を聞くのにちょっと疲れて、オンラインになったら起こしてっていう人もおるやろう。でも、10月の最初の2週間って言ってるように聞こえる。だから、それがどんな価値があるかは分からんけど、準備して、興奮してや。年の最後の四半期に向かって滑空してる今、物事が再び熱くなり始めてるんや。
あんたが何に興奮してるか教えてや。素晴らしいインタビューがいくつか来るで。このチャンネルで投稿するつもりやから、チェックしてくれることを望んでる。そして、そこで冷静でいてや。気をつけてな。


コメント