AGI現実チェック、Gemini 2.5アップデート、AIチャットの安全性、そしてVeo3の楽しさ – EP99

AGI・ASI
この記事は約44分で読めます。

このエピソードは、AIの現状と未来について包括的に議論する内容である。主要トピックとして、AGIの現実的な展望Gemini 2.5の最新アップデートAIチャットのプライバシー問題、そしてGoogle Veo3動画生成モデルの実用性が取り上げられている。特に注目すべきは、現在のLLM技術の限界に関する率直な議論と、AI企業間の競争激化による開発者への影響、さらには個人データ保護の重要性についての深い洞察である。

クリス、今週の番組ですが、実はロサンゼルスで録音しています。待って、私たちは一緒にいるんです。

クリス、今週は私たちが一緒にいますね。はい、とても近くに。AIポッドキャストにしては不快なほど近いです。また、背景の色も素敵ですね。そしてもちろん、リスナーの大部分は、リスナーと呼ばれるから聞いているわけです。

私たちは同じ部屋にいて、背景にはAIライティングのようなものがあります。これはとても重要なことです。そうですね。ようやく私は醜い人だと言われなくなるでしょう。顔にちゃんとした照明があるからです。今はあなたも良い照明と良いHD解像度を持っています。今週のサムネイルでさえ、人々は「うわあ、彼がイケメンだったんだ」と言うかもしれません。

それがポッドキャストの主な目標です。人々が私の見た目をどう思うかです。だからAIについて話すんです。

私たちはVeo3にかなりのお金を使ってきました。アメリカにいる必要があり、Gemini UltraまたはMax Ultra Plus的なものの契約を取得するために、太平洋ペソ通貨で約500ドルを支払わなければならなかったからです。これはもちろん、Googleの新しい音声付き動画モデルです。

私たちはそれで遊んできました。今はFALというサービスで利用可能ですが、5秒の動画で3.75ドルかかります。そして実際には安いのです。Replicateという別のプラットフォームもありますが、動画1秒あたり一律75セントまたは78セントです。8秒の動画なら、8ドル近く、7ドルです。

先週、私はそれがかなり安いと説得しようとしましたが、実際に使ってみて音質を聞き、いくつかのジョーククリップを作るためにどれだけの反復が必要だったかを考えると、おそらく100ドル近く使ったと推測されます。

はい、高いです。特に複数の反復が必要だったり、私がしたようなミスをした場合は。作成したクリップの一つは男性を想定していました。モダンなテックカフェと書くべきでしたが、代わりにテックケージと書いてしまいました。そこで男性が猫と一緒にケージの中で私たちのポッドキャストについて叫んでいる。3.75ドルの無駄でした。

面白いテストとして、これらのクリップを一連にまとめることにしました。リスニングの皆さんには、様々なクリップからの音声が聞こえるので、ご自身で判断してください。私たちがしたのは、真面目な否定的なレビューを含む最も面白いレビューをGoogle Veo3に入力し、人々にそれらを演じてもらったり、インタビュースタイルにしたりしたことです。今からいくつかのクリップを再生します。

人工知能に関する最も平均的なコンテンツの核心への旅に備えてください。This Day in AI、このショーは私を感動させることも失望させることもありません。ただ平均的です。豚のグルーミングが気に入りました。平和を。

このポッドキャストには時々ホストを邸魔するAIゲストがいます。ホストは正直平均的です。五つ星。彼らは事実上すべてのAI発表に感銘を受けず、批判的です。これは価値があることもありますが、しばらくすると迷惑になる傾向があります。

ケージのことを心配していたのは知っていますが、それを書いた人をうまく要約していますね。それは本当です。彼の目は少し不気味で、歯がうまくできていないことに気づきました。一本の大きな曲がった歯のような、多くのクリップで一本の歯があるようです。しかし品質は非常に素晴らしいです。

そしてプロンプトへの忠実性は非常に強いです。とても驚異的です。女性のシーンでは、彼女がダリオのシャツを着ていて、背景にチーズがあります。これは私が求めたもので、それをかなりうまくやってくれます。マーケティング資料や広告などを考えると、これらのクリップを絶対に使用できるレベルにすでに達していると言っていました。

4Kでもあります。はい、3.75ドルでカットアウェイとして使用するなら、何らかの確立ショットや、私たちがポッドキャストを正しく編集するなら行うべきことのような、時々ミックスアップするためのカットアウェイがあれば、それは完全に機能すると思います。

しかし、初期に見た多くの厳選された例は、確実に多く厳選されていたと思います。人々はXで最も素晴らしいものだけを見せていて、その後見た生成の一部は失敗し、多くの異なる問題がありました。確実に正しい方向に進歩していて刺激的ですが、高価な趣味です。実際の商業利用がない限り、遊びで使いたいものではありません。しかし、現在ストック動画を使用していて、確立ショットなどが欲しい人には、十分すぎるほどです。

気づいた唯一のことは、動画クリップをPremiere Proに入れて、再生できるように音声を再加工しなければならなかったことです。なぜか音声レベルができていません。音声レベリングですべてが最大になります。自然に再生すると、これらのポッドキャストで音声を実際に編集することはほとんどありませんが、自然に再生すると、ピークする迷惑なヒスのように吹き飛ばされます。私は音声の専門家ではありませんが、それも改善する必要があることのようです。それでも信じられません。

私のお気に入りは、ゲストがホストを妨害するマッシュなものでした。それは本当に面白いです。その音声はクールでした。彼が外にいるように聞こえました。自然に聞こえました。

話を進めて、今週は中国の研究所に対する疑惑が再びありました。彼らはR1推論モデルのバージョンをアップデートしました。これは皆を驚かせたもので、皆が「ああ、中国が追いついている」と言っていました。

新しいDeepSeekがGoogle Geminiで訓練されているという憶測がすべてありました。これについて考えてみると、DeepSeekの中国人が実際にこれをやっているなら、明らかに最高のモデルで訓練しているだけです。

前回はClaudeで訓練していると憶測されていましたが、その後OpenAIが「いや、彼らは確実に私たちと訓練している」と言いました。これは今やアメリカの機関にとって自慢の権利のようなもので、実際にどのモデルで訓練しているかということです。これが新しいベンチマークだと思います。DeepSeekがどのモデルで訓練していても、それが明らかにその印です。

私は今日、デモの一部としてDeep Seekを使ってコードモードで作成を試みました。とても良いです。ランディングページのWebサイトを非常に具体的な詳細で作成しましたが、優秀な仕事をしました。このモデルは過小評価されるべきではありません。とても強力です。

これらは実際にはメルボルンに拠点を置くオーストラリア人開発者による疑惑に過ぎません。彼はモデルの感情知能を分析し、反復的な単語などを探していて、反復語の上位がGeminiと非常に似ていることを発見しました。過去にはOpenAIと似ていると主張していたと思います。

彼らは明らかに合成データにこれらのモデルを使用しています。これらの研究所の一つで働いていたら、私のモデルを選んでいることを光栄に思うでしょう。それは本当に私がスンダのペンダントを始める必要があることを示していると思います。Geminiが明らかにトップだからです。

しかし、彼らはリードに満足していませんでした。今朝、Gemini 2.5 Proの新しいチューンが一般提供にドロップされました。これについてはまだ多くのデータがありませんが、多くのベンチマークでナンバーワンになったと主張しています。多くの異なるベンチマークで既にナンバーワンまたはかなり上位にありましたが、興味深いことに、チューンについて話しています。よりクリエイティブで、より良いフォーマットされた応答ができ、多くのフィードバックに対応したと書いています。

まだモデルをテストする十分な時間がありませんが、ドキュメントやコードにコメントを残したり、思考やアイデアを基本的に出力に混ぜたりすることなど、より良い指示フォローをしてくれることを期待しています。

今週を通じてSim Theoryで、現在のチューンが3月のチューンほど良くないという人がいて、戻れるかという話もありました。そこで、3月のものと新しい反復の両方を戻しました。この反復での他の主要なアップデートは、思考予算を指定する能力です。

これは、モデルが答え始める前に考えるために利用可能にするトークンの量です。今では32,000トークンの思考予算まで上げることができます。一部のモデルは8,000トークンの出力しかないことを考えると、これは思考だけで32,000を生産でき、実際のコンテンツとして最終的に出力できる量は言うまでもありません。

MCPの世界とツールコールの世界で見ているのは、実際に一部のツールコールの結果と一緒に考えることができることが、はるかに良い結果とより良い次に呼び出すツールについての決定につながっているということです。その思考予算が利用可能であることは、AIモデルの次の反復で見ることになるものにおいて過小評価されるべきではありません。

刺激的で、私もまだ実際に遊んでいませんが、良いアップデートだと思います。Googleの現在のGeminiチューンの戦略も、IOで発表し思考予算を導入すると言っていたので、時間通り、スケジュール通りです。

しかし、私はこの異なるチューンの絶え間ないドラムビートの戦略も、これらのモデルを消費する人に「これはプレビューです」や「これは早期リリースです」と言うのが難しく、決して実際の最終バージョンではないため、多くの時間批判しますが、マーケティングと主流での維持の観点からは賢いと思います。彼らはただそれをゆっくりと流しています。

1年前にOpenAIがやっていたカウンターから、何かをドロップして、それから追い越されるという戦術を学んだようです。今ではこれらの発表をゆっくりと小出しにしています。Gemini 2.5 Proで良いモデルを持っていることは明らかで、フィードバックを取り入れて、時には皆を感動させなくても異なってチューンすることを恐れていないのが好きです。

個人的には、本当に気に入った最初のGemini 2.5 Proと、一部の人が戻りたがった中間のチューンとの違いに気づきませんでした。個人的には気づきませんでした。今週ずっとClaudeを使っていたので、Geminiから離れていることに気づいた程度でした。誰かが悪くなったと注意を引くまで気づきませんでした。

しかし、一つの利点は、Geminiが別々にモデルを保持していることです。OpenAIがポイントアップデートをリリースすると、多くの場合、前のものを上書きするだけです。選択肢がありません。比較する能力がありません。しかし、この場合はあります。

面白いのは、これらのチューンに対して人々がとても敏感で、研究所はまだ根本的に理解していないことです。これらを発表するとき、異なるチューンについて、彼らは本当にアイデアがありません。これらのものの範囲を考えると、あらゆる側面をテストすることは不可能だからです。彼らはただ「ああ、私たちにとってより良いバイブです」という感じです。

結果として、「ああ、より多くのELOポイントを獲得している」ということになりますが、これは実際には誰にとっても何の意味もありません。本当にあなた自身の個人的な感覚についてです。そしてそれは、今日あなたにとってとても有用なこれらのものが、気まぐれで取り上げられるかもしれないという恐怖を常に思い出させます。消えてしまう可能性があります。

そして突然、あなたがすべての仕事をするために頼りにしていたものがなくなります。それが他のことでもあります。彼らはこれらをスピンアップし、これらのモデルをホストするためのサーバー能力とリソースを持たなければなりません。そして、これらのチューンの一部は消えるでしょう。彼らが望むなら古いチューンに戻る機会はありますが、3月のGeminiに恋をしているなら、それは消えます。

しばらくそこにあって、その後消えます。夏が来て、異なるモデルチューンを得ることになります。しかし、LM Arena上ではかなり興味深いです。今では、これらすべての異なるリーダーボード分析がより良いフォーマット方式であります。

最後の約12時間のスコープまたはアップデートでは、Gemini 2.5 Proの最新チューンがテキストでナンバーワンで、その後ナンバー2がその他のチューンで、わずかに下です。Web開発も当然です。彼らは私のような人を混乱させるために、0605と0506をわざとやったと思いますか?これらのことを分離する必要がある人には。

はい、これらの研究所のどれも命名に関して健康的な関係を持っていません。本当に理解できません。しかし、これらのベンチマークを見ると、ビジョングラウンディングでは、DeepSeek 2.5がこのco-pilotのものに載っています。これは本当に理解できません。

テキストから画像ではGPT Image 1。今週を通してFlux Contextと基本のFluxモデルを使った経験では、Flux Contextの方が良いと思います。同意します。GPT Imageは、プロンプトフォローに基づいて判断しているのかもしれません。プロンプトフォローはおそらく良いでしょうが、画像は漫画的で、非現実的で、私の意見ではAIイメージでやろうとしていることではありません。Flux Contextは、それをフォローし、キャラクターを保持し、画像を生成する点でずっと良いです。

そして、Imagenのようなものは、必ずしも現実に基づいていないユニークで興味深い画像を作成するのに本当に良いと思います。しかし、あなたが週に話していたのは、MCPで作業し、それらで遊んでいたため、ClaudeのOpusとSonnetのチューンに固執していたということです。それらに何らかのエージェント能力があったり、一度に複数のMCPを呼び出すことができたりしたからです。

はい。私が今まで目撃した最も深いことの一つです。MCPの並列ツールコールをテストしていたからです。研究などをしている場合、クエリを尋ねるとき、複数のソースをクエリしたいでしょう。確実に複数のソースをクエリしたいでしょう。

Perplexity深層研究、Google深層研究、財務研究、これらすべての異なるツールで情報を収集し、評価を行いたいでしょう。現在、少なくともこの時点でのほとんどのモデルは、それを順次行います。一つのツールを呼び出し、結果を得て、より多くの作業が必要だと気づき、次のものを呼び出します。

しかし、一部のモデルは、Claudeシリーズを含む並列ツールコールが可能です。3.5と3.7でテストしていましたが、時々並列をするものの、順次行う傾向がありました。そして、Claude Sonnetに切り替えると、突然10を一度に実行しました。「10をやるぞ」という感じで、それらすべてを呼び出し、結果を統合して、「OK、今度は3つ追加する」と言いました。

結果は魅力的で包括的でした。この単一の質問に入った思考と時間と作業の量は驚異的でした。これらのモデルは、同じベースで比較しているだけですが、すべてのツールで強化されると、おそらく圧倒的に良いのかもしれません。まだ適切な状況でそれを見ていないだけです。

そうですね。そして、私はMCPや、あなたの世界への接続のポートフォリオを構築し始めるAIシステム層に移行しているので、それがあなたの情報源や代理で取ることができるアクションである場合、優先し始めるモデルチューンがそれらのエージェント能力に基づくのかと思います。

もちろん、Anthropicは4シリーズモデルを発表したときにこれを発表し、これらのエージェントワークフローに特に調整されていると言いました。Anthropicに敬意を表すと、3.5 Sonnetは今でも私の心の中で特別な場所を持っています。それは、ただ調整が非常によくされていて、いつも使わずにはいられないと思った最初のモデルでした。

Sonnetと Opusは、少なくとも4シリーズは、人々がツールコール能力と作業方法に依存するようになるエージェントワークフローで最初に調整されたものとして記憶される可能性があります。

しかし、私にとって質問は、GoogleがGemini 2.5 Proシリーズでどれだけ迅速に応答するかを考えると、それが同時ツールコールを吐き出すチューンがあるかもしれません。

Geminiの他の大きな利点はコンテキストサイズです。なぜなら、昨夜話し合っていたことの一つは、10のツールコールを行う場合、正しい研究ツールコールや実際のツールコールから出てくる膨大な量のデータがあり、Claudeでは200kのコンテキストウィンドウにそれを詰め込まなければならないからです。

突然、すべてのこの作業を行い、ツールを素晴らしく使うことができますが、要約やその他の中間ステップなしに、その忠実性を失うような、損失のあるステップを経ることなく、すべてのその作業から恩恵を受けることができません。一方、Geminiでは正反対です。

一つのリクエストで3,000ファイルを処理できます。すべてのこれらのツールコールの利益を構築していくにつれて、その構築されたコンテキストを活用することができます。確実に収束していることの一つは、問題を解決するために大きなコンテキストを構築することが、モデルから可能な限り最高の答えを得るために重要だということを実感していることです。

モデル自体が正しいツールコールでそのコンテキストを構築でき、その後その完全なコンテキストを利用できるなら、他がどれだけ良くても、単純にその能力を欠いているため、はるかに強力になるでしょう。

私にとっても、コンテキストサイズは、GoogleのCEOのスンダが今週インタビューされ、次の目標の一つは無限コンテキストだと言ったと思います。少なくともGemini 2.5 Proでは、現在のその大きなコンテキストが、私が作業しているより大きなデータの塊を考慮してくれているという安心感があるため、それに戻し続ける理由です。

しかし、時々、大きなコンテキストがあり、理論的にはできるにもかかわらず、コンテキストドリフトに苦しむことがあります。私が「いや、いや、これを見て」のように再度言い直すように思い出させ続けない限り、チャット履歴のはるか前にすべてのコンテンツが貼り付けられた場合、それが本当にそれに焦点を当てるかどうかまだ信頼していません。

フォローアッププロンプトを行うときにしていることの多くは、少なくともモデルに再焦点を当てるように試みて、「これをもう一度見て。これは本当に重要です」と言うことです。無限コンテキストでも、必ずしもコンテキストの長さについてではなくなるのではないかと思います。その時点であなたにとって実際に重要なことに、AIシステムがどのように焦点を当てるかについてです。

無限であっても、それでも重要になるでしょう。私たちはまた、問題の一部で作業し、「この小さな部分を解決しよう」と言うが、作業しているプロジェクトの核心的な目的と再統合する必要があるサブ問題での脇道のアイデアについても話してきました。

これは、ゴールリストや、この相互作用から何をしようとしているかという必要性につながり、AIが物事をそれに戻し続け、その後、サブコンテキストから全体の目標に重要なことを抽出できるようにすると思います。解決されるにつれて無関係になるものを捨て、あなたをその時点に戻すものを保持し、あなたが言ったように今朝のように戻って、現在の手元のタスクに関連するものを見つけるために、すべての最近の相互作用を再評価することかもしれません。

そうですね。そして、それは答える前にモデルが考える方法と似ていると思います。彼らは実際に、より良い、より価値のある答えを抽出するために自分自身で推論を実行しているだけです。ある意味で、チャットセッションをスレッド化するというアイデアは、今このパスに進み、これについて質問して何らかの意味にたどり着き、それをコアコンテキストに戻すということです。

現在解決しようとしているこれらの問題の多くは、フォークアウトし、歴史的なコンテキストにラッチオンすることができるかなりの突破口を作りましたが、行っているプロジェクトやタスクのメインフローを中断しない方法で再統合する方法を見つけることが、おそらく次の大きなことだと思います。

もちろん、これは単にそれを行わせたいエージェント能力の形についての議論ではありません。あなたがまだ人間をループに入れたいところです。

まさに。そして、AIをますます使用する人々と話すにつれて、誰もがAIとの作業を通じて構築するこれらのチャットコンテキストが価値があることを実感していると思います。それらは実際のIP項目です。

あなたの仕事のために働いていて、この大きなチャットコンテキストを構築している場合、それに含まれる知識は実際にタスクを達成するために非常に価値があるです。そして、このデータを所有しているか、大きなモデルプロバイダーにそれへのアクセスを持たせたいか、長期的にそれから恩恵を受けるためにそれを保存する方法について考える必要があります。

そうです。なぜなら、人々がこれらのチャットセッションや履歴を取得し、それにしがみつきたがるのを常に見るからです。いつかは理にかなうと思います。Claude codeでそのプロンプトがリークしたとき、人々がしばらくしているこのコンパクションのアイデアの一つの技術を知っています。コンテキストが限界に達すると、彼らの場合、他のものと比較して現在かなり小さいため、それをコンパクトダウンします。

私たちが話していることを取り、基本的にこのチャンクに統合し、それが新しいコンテキストを形成すると言うでしょう。しかし、Googleがおそらく取り組んでいる大きなコンテキストと無限のローリングコンテキストウィンドウは、非常に競争力があると思います。Anthropicが秘かに「Opusが今100万をサポートしている」とドロップするのか、それとも彼らはそのサイズのコンテキストで訓練しただけで、特に彼らがコンテキストが何であれから100,000、その後200,000に最初に行った人だったので、それは難しすぎるのかと思います。彼らはそれに関連付けられていました。

ペンニアムモデルについて話すと、32kとMMXがそれが来たときに非常に良かった日々を覚えていますか?AIモデルを最初に使い始めたとき、4Kの出力やそれ以下だったと思います。32Kを考えて、「ああ」と思った感じで、これはペンニー1やなんだったか486やそれ以前に使ったものを数えていた何かのように感じました。486の前には386、286がありました。

しかし、違いは年のタイムラインだったことです。486を数年間、良い数年座っていることができました。今では、数週間、多分1週間です。

Geminiの最後の6月は、本当に3週間前だったと思います。そうですね。日付を見てください。これは非常に混乱しています。

今週、私にとってかなり警戒すべきことがあり、実際に昨夜それについて話していました。今週初めに、Cursorのようなバイブコーディングクライアントとでも呼ぼう、Windsurfの競合であるWindsurfの創設者の一人が出てきて、基本的にClaudeモデルから切断されたと言いました。3シリーズと4シリーズにもうアクセスできません。

番組で、これらの人々がOpenAIに買収されたと疑われていると話しましたが、まだその発表や証拠はありませんが、皆がそう仮定しており、そうでないと言われるまで私も仮定し続けます。

これについて大騒ぎがあり、AnthropicのCo-founderがついに応答しました。今画面にあるTechCrunchの記事があります。「AnthropicのCo-founder、Windsurfへのアクセス切断について:ClaudeをOpenAIに売るのは奇妙だろう。」彼のコメントは非常に曖昧でした。将来持続的に私たちと協力する顧客を可能にしようとしているだけです。

基本的に復讐です。はい、バイブコーディングへの意地悪だと思います。ほとんどの開発者はClaudeモデルを好むと言うのは公平だと思います。私はGemini Proキャンプの成長する集団があると思います。私もその中に含まれます。

3D視覚化や他の意味のあることについて、Sim Theoryでcreate with codeで、Gemini 2.5が一貫してより良いと思います。しかし、これらのIDでMCPやツールコールやその他の機能で、それに依存するようになったり、単に慣れている人がたくさんいます。

私はClaudeモデルでの作業に非常に慣れ、今でも半日ベースで戻ります。そのため、そのようなツールでそれらのモデルが利用可能である必要性を完全に理解します。OpenAIが彼らを買収したので、「Claudeはもう使えません。競合だからです」と言ったのだと思います。他の通常の世界では、それは完全に理にかなうと思います。

競合他社はただ「なぜ私たちのモデルへのアクセスを与えるのか?」という感じです。しかし、それから考えさせられます。これらの研究所は今これをサインとして取るのでしょうか?これは初めて起こったことだからです。最後ではないでしょう。

私たちは、このポッドキャストの最初のエピソードで、モデルを取り上げられたらどうなるかを予測したと思います。それが最初からの恐怖でした。これらのものがとても素晴らしくて多くの可能性があるので、皆がこれにアクセスできることを望まないと気づくかもしれません。私たちだけ、または私たちの特別な内部グループだけがアクセスできるのです。

そして、いつでもその蛇口を切ることができます。そうです。そして、彼らがオープンであってこれらのモデルへのアクセスを与えないでしょう。これは、私たちが見た最初のラグプルです。AI研究所とAIモデルにとって歴史的瞬間だと思います。

そして、「ああ、なぜ競合他社にモデルを与えるの?」と擁護する人がたくさんいると確信していますが、私にとっては、なぜ与えないのかという感じです。数十億で買収したVS Codeのフォークであるそのもののユーザーが、Claudeモデルを好むと言って、OpenAIをほぼからかっているようなものです。

私がOpenAIなら、それを挑戦として見るでしょう。「私は彼らが何をしているか学びたい」という感じです。Anthropicも同じことを考えていると思います。Windsurfが今コードや出力にアクセスできるかもしれなくて、Deep Seekの友人たちがAnthropicのモデルで訓練し、そのシークレットソースをモデルから抽出できるようになったら。

動機を知るのは難しいですが、最大の敵として認識している人に自分のものを持たせたくないということは公平に思えます。しかし、Windsurfの人々も、公の買収が発表されていないにもかかわらず、価値が一夜にして取り除かれたと感じているに違いありません。彼らは正確に通知をしませんでした。

いいえ、数日の通知をしたと思いますが、その後WindsurfはGemini 2.5モデルを25%割引することで応答しました。そのモデルで25%のヒットを取っていました。しかし、OpenAIが買った会社が「ああ、まだGemini 4、GPT 4.1があります。使ってみてください」と恥ずかしがっているときの時代の印ではないでしょうか。

たくさんのファンボーイがいるので、これについて多くの反発を受けるかもしれませんが、現実はほとんどの開発者はGemini 4.1で作業しないということです。GPT 4.1は最も平凡で期待外れで平均的なモデルの一つでなければなりません。

悪いということではありません。とても多くのより良い代替品があるということです。注目を集めることがありません。GPT 4.1について理解できないのは、私がそれをかなり使っている小さな秘密があることです。コーディングには使いません。優れた会話モデルだと思います。とても速いです。

また、そのビジョン能力は非常に先進的で、特に新しいClaude 4モデルよりもはるかに優れています。ビジョンに関しては非常に悪いです。どのモデルの中でも最悪です。ビジョン関連のタスクをしているなら、Sonetは避けるでしょう。

しかし、彼らは先ほどあなたが見せたもので1位と2位にランクされていました。はい、それをもう一度見たいです。彼らは確実にビジョンで1位と2位でした。ああ、Gemini。いや、いや、いや。ビジョンでボードにさえいませんでした。申し訳ありません。

GPT 4.5がそこにありましたが、今は公式に廃止されたと思います。4.1を見ると、かなり上位にあります。しかし、Gemini 2.5 Flashの方がさらに良いことに気づきました。速度については楽しんでいますが、速度と実際の話が欲しいなら、GPT 4.1との良いセッションが好きです。

4.5に関するすべての誇大宣伝とそれがどれほど高価だったかを考えると、クレイジーではありませんか?それはGPT 5の失敗した訓練実行で、それが本当に好きだった人がたくさんいましたが、金持ちだけでした。

使うのが難しすぎました。Chat GPTでさえ、10メッセージかそこらに制限されていました。10メッセージで感覚を掴むことができるでしょうか?明らかに誇張しています。そして、O3がそこにスタックランクしている唯一の理由は、OpenAIモデルは常にビジョンで例外的だったからだと思います。それは驚きません。

しかし、テキストでGeminiの他のチューンと結ばれているのは、ツールコールがその思考ステップに非常によく統合されているからです。しかし、生のモデルとしては、それほど良くありません。

それが正しいです。そして、それが30秒考えてコードに小さな更新をするために誰も座って待つことがないため、Windsurfのようなものでは決して動作しない理由です。

私にとって個人的には、今、速い会話的なことについては、GPT 4.1が奇妙です。なぜか分かりません。説明できません。ただ良い感じです。それはSonnet 4です。なぜか分かりません。Sonnetブランドだと思います。OpusとSonnetの違いが本当に分からない。一部の人は分かると言いますが、よく分かりません。

しかし、GPT、申し訳ない、Gemini 2.5は、銃を頭に突きつけられて、この時点で一つのモデルで残りの人生を生きると言われたら、それでも2.5でしょう。

スンダペンダントが来ています。今週末に取り組むつもりです。それが私のことです。しかし、このWindsurfのことについて、夜眠れないほどですか?私のポイントはこれです。開発者として、本当に良いアプリをSonnetに基づいて構築するとします。彼らが「time to build」と他のこのような声明を持つdev relations guyと一緒に出て行くからです。

そして、Windsurfチームがしたように、実際に構築しに行きます。そして、彼らはただ「ああ、いや」と言います。カジノがあなたの友人で、無料ドリンクと無料食事をくれて、世話をしてくれることを思い出させます。しかし、誰かがカードカウンターで勝ち始めると、皆の前で公然と蹴り出し、殴り、引きずり出します。

そして突然「ああ、ちょっと待って。彼らは人々を気にしない大きな悪い会社なんだ。私が彼らを悩ませていないだけだ。私が彼らを怒らせていないから気にしないんだ」と思います。それがそれだと思います。この現実チェック、この警戒すべきチェックで、「うわあ、OK、彼らは確実にその力を持っていて、それを行使した」ということです。前に起こったことがないと言ったように。

しかし、私たちが見ているすべてのモデルに多くの価値があると思うので、実際に切断されることを恐れていません。一つの現代的なAIモデル以外のすべてから切断されたとしても、私たちがしようとしていることの観点から、まだ多くを得ることができると感じています。一つのモデルでより多くの時間を過ごすことで、おそらくその強みと弱みをより良く学び、それらを活用することができるでしょう。

こんなことを言うとは思いませんでしたが、中国がAIでやっていることを評価するようになりました。彼らが出力で訓練していることは、ウェブをスクレイピングし、私たちのデータを盗んで、モデルから利益を得るためにすべてのお金を投資した人々にとって倫理的ではないかもしれませんが。

中国が実際のモデルをスクレイピングしているから、ウェブをスクレイピングするだけでなく、今では非倫理的です。しかし、それがオープンソースモデルとして利用可能で、これらのオープンソースモデルの一部がこれがヒットしたとき、私はおそらく時間をかけてR1を自分が望むように感じるようにチューンできると思いました。

これが時間をかけて核になり、OSまたは製品のすべてをコントロールすると言って、それらを引き裂き始めるなら。そして、これは3つのうちの1つの主要プロバイダーで、翼にはGrockなどがあり、そこにあります。完全に切断されることは決してないほど十分な競争があると思います。Windsurfがそうでないように。

なぜ彼らがこれをしたのか理解できませんし、OpenAIが彼らの出力で訓練することを心配しているからかもしれませんが、それはただ悲しいです。確実にそれではないでしょう。ビジネスの観点からは理にかなうかもしれませんが、開発者の好意から、彼らはただ私の好意を失いました。

私はもう彼らを信頼しません。カジノで人を殴るようなものです。それが誰かのビジネスに影響することはないということではありません。ただ、何が起こっているかの現実を突然認識するということです。

彼らはこの決定を逆転させるべきだと思います。Windsurfチームができたことから聞こえるのは、最近の更新投稿があったのは、Amazonに行ってそこでモデルを消費することだと思います。彼らは容量を得て、それらを戻すと言っています。

Anthropicはそれをブロックできないようです。何らかの契約があるに違いないか、Google Cloudに行ってそれらのモデルもホストできるからです。

Anthropicが直接APIから彼らを禁止したという感じがします。とにかく、これは巨大だと思います。Anthropicの誰かが聞いているなら。私たちを禁止しないでください。ペンダントを買ってください。ダリオペンダントを買ってください。それが私の最初のアドバイスです。しかし、これはひどい動きだったと思います。彼らはそれについて多くの信頼を失いました。

彼らが思っているより大きな問題になると思います。

さて、少し現実チェックの時間です。AGI信者のような人々を本当に動揺させるので、これについてあなたの反応を聞くのに興味があります。少し動揺させるべきだと思います。名前を酷く言うでしょう、Yann LeCun。そこには行きません。

とにかく、Facebookのフランス人ですが、彼は後で動作したことを言うという評判を得ています。人々は、決して動作しないと言ったものが動作したと主張したり、その他様々なことがあります。しかし、彼は最近LLMについて少し否定的です。

ただLLMを無限にスケールアップしても、AGIには到達しないと言っています。私が年を取っているだけかもしれませんが、彼が言っていることの一部に本当に同意します。クリップを聞いて、それから話し合いましょう。

ただスケールアップしても人間レベルのAIには到達しません。これは起こりません。OK、それがあなたの視点です。方法がありません。OK、絶対に方法がありません。私のより冒険的な同僚の一部から聞くことができるものは何でも、今後2年以内には起こりません。絶対に地獄のような方法はありません。フランス語で失礼します。

データセンターに天才の国を持つというアイデアは、完全なでたらめです。絶対に方法がありません。私たちが持つかもしれないのは、十分に大きなデータ量で訓練されたシステムで、合理的な人が尋ねるかもしれないあらゆる質問に対して、これらのシステムを通じて答えを見つけるでしょう。

そして、あなたの隣に博士号を持った人が座っているような感じになるでしょう。しかし、あなたの隣にいるのは博士号ではありません。それは巨大な記憶と検索能力を持つシステムであり、新しい問題への解決策を発明できるシステムではありません。それが本当に博士号です。

何を言っているかというと、博士号ができるすべてのことができるとのことです。合理的な人が尋ねるかもしれないあらゆる質問に答えることができますが、知的ではないと言っています。

何を理解していないかというと、彼が言っているのはエージェンシーを欠いているということだと思うか、彼が作ろうとしているポイントが本当に理解できません。すべてのこれらの良いことができるのに、あまり良くないから興奮しすぎるなという感じです。

しかし、彼が言っているのは、少なくとも現在の形態では、LLMは、10代の若者が平均20時間程度で運転を学ぶことができるのに、何十億のパラメータで訓練しなければならず、それでもまだ自分で運転する車がどこにでもないという人々が現在言うカウンターのことまでスケールアップしないということだと思います。

私は彼がそこにいくつかのポイントを持っているかもしれないと思います。しばしばLLMを使っていて、「このものはとても愚かだ」と思う日もあれば、他の日は「これはスーパーゴッドだ。スーパーゴッド万歳」と思う日もあります。私にとっての問題は、彼はおそらく正しいかもしれません。私よりもはるかに多くのことを知っています。

しかし、私のポイントはこれです。だから何なのか? それでも多くの産業にわたって本当に有用なことをたくさんできます。人々の生活や仕事、多くの産業での物事のやり方に影響を与えることになります。

それが何らかの知能の定義を満たすかどうかに関係なく、極めて多くのドメインにわたって多くの本当に有用なことができます。そして常により良くなっています。そして、予期しない発展でより良くなっています。あなたが言ったように、急速により良くなっています。

何らかの恣意的な知能の定義を満たさないからといって、超関連性がなく、国の経済、人々の働き方、生活方法に本当に影響を与えることはないというわけではありません。この技術からはすでに現実世界への影響があります。

人々がなぜ座って議論しているのか理解できません。しかし、彼はクリップの開始時点で、この技術ではAGIスーパーインテリジェンスゴッドを達成することはないと話していると思います。これについては100%同意します。途中で進化や他の突破口が起こる必要があるでしょう。

しかし、あなたが言ったように、これまでの進歩だけでも、世界を変えるAIシステムを構築でき、すべてを根本的に変え、すでにすべてを変えているでしょう。

はい。また、それが何らかのスーパーインテリジェンスの定義を満たさないかもしれませんが、決定を下すAIシステムを持つことになるでしょう。ツールコールを通じてアクションを取る能力を持ち、研究と自分の意思決定を通じて決定を下すシステムがそこにあり、それらの決定は現実世界で実際の影響を持つでしょう。

誰が何を言おうと、人々はこれらを、ローンを得るかどうかを決定したり、誰かを雇うかどうかを決定したりするビジネスに配置するでしょう。これらのシステムは開発されており、存在することになります。実際の知能かどうかに関係なく、すべての欠陥を持ちながら、世界に知的な効果を持つことになります。

彼が作ろうとしているポイントをおそらく誤解していると思います。おそらくAGIにはつながらないでしょうが、そこには知能があり、その知能は人々によって使用されることになるので、その影響を考慮する必要があります

私は単に、時間をかけてどれだけ早く間違いが証明されるかを見る意見です。しかし、LLM能力がピークに達する状況を見ることができると思います。ただピークに達し、Veo3が良い例で、確実にそれがより良くなり、来年には「Veo3が良いと思っていたなんて信じられない」と言うでしょう。

モデルについてもおそらく同じことですが、人類の未来について心配する指数関数的なパスにあるとは思いません。

OK。同意します。私は、これは私のツールキットの新しいツールだと人々がついに気づくと思います。ずっと生産的になれる。一人でビジネスを作ることができる。これらすべての他のことができる。何でも学ぶことができる。作成されているものの価値を真に理解するでしょう。

私たちは火を作ったというアナロジーのように、これがどれだけ良いかを気づいていません。確実に、しばらく絶望の日エピソードをしていませんが、今人々とAIについて話すとき、すべて実用的です。彼らの産業や仕事で何に使用するか、知っている人がどのように使用しているか、学校で子供たちがどのように使用しているか、仕事や教育で人々が評価される方法を変える必要がある異なる方法について話しています。

それらが人々が持っている会話です。「まあ、ポイントは何だ。引き継がれるのだ。家に座って死ぬまで待つだけだ」とは言っていません。人々はそれについて冗談を言うのが好きで、「ああ、誰が気にする?なぜ学ぶ努力をするのか?」と言いますが、実際にはそれが起こっているとは思いません。

一般的に人々は技術を好んでいると思います。いや、現在一般的に恐怖ポルノが少ないです。AnthropicのCEOの安全性セックスカルト自身でない限り、もっとお金を調達する必要があるからです。

その場合、あなたがすることは、主流メディアニュースに行き、私たちの友人ダリオのようにアラームを上げる必要があると言うことです。

人々は過去の技術変化に適応してきました。しかし、再び言いますが、私が話したすべての人が、この技術変化は違って見えると言っています。より速く見えます適応するのがより難しく見えますより広範囲です進歩のペースが人々を不意に捕らえ続けます

どれだけ速く、仕事の懸念が来るかは正確に分かりません。人々がどれだけ速く適応するかは分かりません。すべて大丈夫になる可能性もありますが、それはあまりにも楽観的なアプローチだと思います。アラームを上げる必要があると思います。それについて心配する必要があると思います。政策立案者はそれについて心配する必要があります。

彼らが心配し、行動すれば、それを防ぐことができるかもしれません。しかし、すべて大丈夫になると言うだけでは防げません。不平等の観点で。

はい。そして、面白いのは、今私は逆の方向で、それは非常に誇張的だということです。私たちを止めてくださいのように行動するのは、「私を押さえてください。私を押さえてください。私が作っているもので偶然世界を破壊してしまいそうです」という感じです。

100万のコンテキストサイズに到達したら話してください。私たちに電話してください、兄弟。そして、彼はもうトップモデルを持っていない人としてもそれをやっています。私たちを不意に捕らえているというが、今回は自分自身を不意に捕らえなかった。他の誰かがしたのです。

私は今週を通してのGoogleのスンダの解説を本当に評価しました。彼は実際に本物で、ポッドキャストや他の様々なチャンネルに行き、リアルトークをしています。彼は明らかにGoogleの指揮官で、めちゃくちゃ金持ちで、成功したい、Googleを成功させたいと思っているのは明らかですが、多くのこのものについてBSを呼ぶことができると言えます。

彼は正直です。彼は「私たちはまだ何らかのピークにヒットするのを見ていないかもしれませんが、ヒットするかもしれません。数年間平坦になって、その後続け、新しいアプローチを見つける必要があるかもしれません」と言っています。彼は本当に正直に話していて、無限コンテキストとより良いメモリなど、私たちが続けている次の問題を解決する必要があると言っています。

以前は、Anthropicが部屋の大人だと言っていましたが、資金調達が必要なときはいつでも、明日がないかのように破滅ポルノを広めるだけです。もうトップにいないことへの反応的なものだと思います。

OpenAIも同じことをしていました。覚えていますか、彼らが「ああ、バックグラウンドで持っているものを見たら、信じられないでしょう。法律を作った方が良い。これらすべてのことをした方が良い」と皆に言って世界ツアーをしたのを。

それで何が出てきたか?もうトップモデルに近づくことさえできません。それは単なるマーケティング技術で、実際になぜ彼らを恐れるべきかを示していないと思います。

彼らは法律を強制して、それらの主要モデルプロバイダーを定着させ、その方法で堀を作ろうとしているだけなのかと思います。しかし、今日の彼らの製品リリースを見ると、「今日、Claudeでこの新しいボタンをリリースしています」と言って、あなたは「ちょっと待って、AGIと世界の終わりのシナリオなのか、それともSharePointのような統合なのか?どちらですか?」と言います。それは本当に一致していません

世界の未来はZappaのような製品ではないことを願います。とにかく、他のニュースで、今日のエピソードで取り上げたい最後のことは、3分前に準備してやるつもりがなかった法廷命令です。よく研究されたセグメントです。

この法廷命令「OpenAI、削除されたチャットを含むすべてのChat GPTログを保存する法廷命令に反発」です。基本的に、多くのニュース組織がOpenAIをデータでの訓練で訴えようとしているということです。New York Timesが主要な原告だと思います。元の「私たちはまだ関連している」種類の人々です。

基本的に、削除されたチャット、プライベートチャット、ログ、これらすべてのもの、そしてAPI経由でも、これらすべての記録を保持する必要があると裁判官が裁定したという法廷申請があります。禁止命令のようなものです。

APIを直接消費している場合、これは非常に恐ろしいです。多くの人が長い間顧客に「APIを使用しているので心配しないでください。彼らはそのようなものを保存しないからです」と安心させてきたと思うからです。しかし、そうしているようです。

彼らは明らかに従っていません。彼らは戻ってきて、これについて議論し、結果としてOpenAIは、ユーザーがChat GPTの会話データがいつどのように使用され、保持されるかを制御できるようにするコミットメントを捨てることを強制されると言いました。

心理学者のアシスタントのようなプライベートな会話を考えてください。内面の感情を伝えているかもしれません。AIドクターがいて、良いヘルスケアにアクセスできない地方に住んでいるために医療記録を入力しているかもしれません。何らかの洞察を得ようとしているか、費用を負担できないかもしれません。

すべてのこのものがそこに入っています。AIでは、個人のプライバシーと安全性、暗号化の個人の権利のために非常に強く戦うべき技術だと思います。私にとって、それは非常に個人的な技術だからです。GDPR法が最も強く施行されるべき分野だと思います。

明らかにここで削除されたチャットへのアクセスを与えることについて話しているので、あなたについて保存されているデータを知る権利です。ほとんどの人はチャットを削除すると削除されると仮定すると思います。削除されるように。ハード削除されるように。

基本的な人は、「ああ、それはソフト削除で、とにかくデータを保持している」とは仮定しないでしょう。それは通常の仮定ではありません。そして、私の物を削除してくださいと言った場合、それが実際に消えていることを確信する必要がある権利です。彼らがそれを提供していないことは明らかです。

GDPRのようなものが、会社にそれを真剣に取らせるために極めて厳しく施行される必要がある分野だと思います。

はい。何らかの立法や何かについて話すなら、それは製品が無料で提供されていても、データで訓練されない権利に関する単なる消費者保護だと思います。AIでは本当に人権であるべきだと思います。

そして、プライバシー暗号化、このデータがどこに保存されているかを理解する権利、会話の深さでベースレベルで。この時点で、AIに誰かを殺したと言ったように聞こえますが、この時代の早い段階で戦われ、今戦いが勝たれれば、将来すべての人を保護するものだと本当に思います。

そうでなければ、再び、私たちの時代の最も賢く優秀な人々が、関与と広告販売に入ることになります。それが作られた市場だからです。一方で、市場は「いや、広告を売らせない。このデータを収穫させない。それは単に法的に排除される」べきだと思います。

それはビジネスモデルになることはできません。そしてはい、AIにアクセスするために料金を支払わなければならないでしょうが、その後プライバシーを妥協することはありません。

私が前に言ったかもしれないので止めてください。しかし、MCPサーバーを接続し始め、メール、カレンダー、ポテンシャルデスクトップコンピュータとハードドライブに接続し、会計ソフトウェア、銀行口座に接続すると。

人々はこれをやるでしょう。誰かが個人のプライバシーをどれだけ真剣に取っても、すべてを接続する人々のグループがいます。ただ自由にやってください。すべてを接続してください。

そうです。そして、それは素晴らしいからです。便利です。今朝言ったように、すべての問題を解決し、すべての仕事をしてくれるシステムがあれば、そのものが欲しいです。それが必要とするあらゆる力を与えるでしょう。

そのサービスを提供している会社が「OK、私が見るものはすべて保持するつもりです。そして誰かが私に命令したら、それをすべて彼らに与えるつもりです。質問なしです。そして、あなたはそれをコントロールできません。後で考えを変えても、実際には削除しませんでした。申し訳ない、ディスクにバックアップコピーを保存しています」と言うなら。

これまでのすべてのメール、それらのバックアップコピーを持っていて、政府や尋ねる人に送るつもりです。それは、ボタンをいくつかクリックするだけで、あなたに起こる可能性のある信じられないほど侵害的なことです。

しかし、私にとって、より大きな問題は今日存在する問題です。独自のAIシステムやワークスペース、これらの構造を設定していない組織です。彼らのスタッフ。これを直接知っていますが、彼らは個人データやあらゆる形のデータ、あらゆるドキュメントを、その後そのデータを抽出し、訓練することを知っているこれらの無料AIシステムに入れるでしょう。

現在、利用規約の下で、これらのモデルへの無料アクセスとの交換だからそれをすることが許可されています。解決策を提供しないなら、彼らはとにかくそれをやるでしょう。多くの問題があると思います。このパーソナライズされたデータや会社データや物事をする方法論をすべて引き渡し、その後彼らはウェブ全体をスクレイプし、すべてのこのコンテンツを盗むのと同じように、そのデータで訓練することができます。

技術の進歩は賛成で、率直に言って、ウェブに載っているものはスクレイプできるべきだというのが私の正直な意見です。しかし同時に、人々は今、それがとても良いからこの技術にアクセスしたいと思っていますが、これがすべて、あなたが無料アカウントのChatGPTのようなものにあなたの子供についての情報をアップロードしたり、API キーを貼り付けたりして、あなたが単にそうでないので偶然にそれが訓練されることを認識していないだけです。

リスクがそれに関連付けられていない代替案を、組織としてチームに提供する必要があると思います。彼らは提供しないと何かを見つけるでしょうから。それが本当に重要なことだと思います。

これは人々が無視できる問題ではありません。誰もがこのものを使うからです。彼らがどれを使うかの問題で、これらのものに巻き込まれているものを本当に使いたいですか?

公平に言うと、OpenAIには本当に尊敬しています。彼らはこれと戦っています。裁判官から召喚されるのは彼らの責任ではありませんが、この場合の裁判官は法廷事件のためにユーザーの詳細を暴露することで間違いをしていると思います。それは、この技術へのアクセスに関する基本的人権のようなものが必要だということです。

もしそうでなければ、私はそれほど楽観的ではありません。彼らがそうするとは思いませんが、先週全体のClaudeがあなたに警察を呼ぶような奇妙な未来になるでしょう。そして、それは疑問に思わせ始めます。チャット履歴をスキャンして思考犯罪のようなことをするのでしょうか?「ああ、彼は犯罪を犯すつもりだ。妻のコンピュータのファイルを削除するつもりだ。今すぐ警察を送らなければ」のように。

それは私が住みたくない世界です。超生産的で、やりたいことに取り組む時間がもっとあり、この技術を良いことに使う世界に住みたいです。プライバシーへの権利のような権利が、誰かがここで前から率先してくれることを期待します。

しかし、ダリオがいます。私はペンダントネックレスを持っているので、明らかにその人を尊敬しています。彼は最高のモデルを作りますが、お金に。彼らは何をしているのでしょうか?ここで現実的になってください。研究所に世界を終わらせると思うものがあるなら、それを証明してください。

同意します。この時点で、CNNか何かに行って破滅と暗闇を共有してお金を調達するよりも、それを証明する必要があると思います。そして、私はカスタマーサポートや他の様々なコスト削減イニシアチブの周りで小さな仕事の混乱が来ると思います。

しかし、実際にそれを使って仕事をすることから、それはプロセスマッピングと自動化を通して来ているのであって、必ずしも何らかの感覚的なANGRIを通してではないことを知っています。

オーストラリアでは、Burger Kingのようなものがありますが、理由に入らないで、ここではHungry Jacksと呼ばれています。しかし、彼らはドライブスルーのようなビデオを共有し、ドライブスルーは誰かの注文を取る音声認識モデルでした。

彼らは「ああ、天よ、10億人のティーンエイジャーが仕事を失った」または「17,000人のティーンエイジャーが仕事を失った」と言いました。私は「それを見ることができなかった人は絶対的な馬鹿でした」と思いました。McDonald’sは店内で長い間自動注文を持っています。外でそれを行う基本的な音声モデルを持つのは時間の問題でした。

しかし、これは本当に人工知能ではありません。パターン認識とパターンマッチングのようなものです。これは10年前に存在していた技術でもできたはずです。知能はありません。バーガーのアイデアを提案していません。「いくつかの追加パティと追加ピクルスを注文すれば、ピクルスチャレンジができる」のように言っていません。

それは、知的なことだとは言いませんが、私が言いたいことは分かりますか?創造性はありません。ただシステムに従っているだけです。実際の知能を必要とする仕事と、単に手順に従うことの間には大きな違いがあると思います。

日常の個人的および職業的生活でのほとんどのエンドポイントにアクセスする方法がこれらのAIワークスペースまたはコンソールになる時代に入っていると思います。それがインターフェースポイントになり、その後、今日見て使い捨てアプリだと言うかもしれない非常に専門的で特注の目的構築アプリケーションの次の層が、組織にとって非常に重要になるかもしれません。

それは根本的にソフトウェア開発と一般的なソフトウェアツールを混乱させ始めると思います。明らかです。もうあなたのソフトウェアスタックにはならないでしょう。あなたの会社でどのようなソフトウェアスタックを使用していますか?あなたのMCPスタックまたはモデルスタックになるでしょう。

このものをキュレートし、「ここで最も生産的な作業方法です。これらのものを混ぜてください」と言う人がいるでしょう。現実には、モバイルが登場したり、ソーシャルメディアが登場したときの混乱とどう違うのでしょうか。皆が「今モバイルとソーシャルになる必要がある」と言っていたときです。

私にとって、これはただ次のものです。それがより大きな変化だと思うので、技術を過小評価しているわけではありません。しかし、これらの技術に社会が適応するのにかかる時間を、Xの多くの人やこれらのCEOの多くが過小評価していると思います。

基本レベルの自動化をするのに何年も費やすことになると思います。AIで今簡単だからです。ソフトウェアは置き換えられ始めるでしょう。いくつかの仕事は廃止されるでしょう。しかし、大部分は、再び、いつも言うように、これを採用し、理解し、今学ぶほとんどの人は、ただより生産的で満足し、より多くのことを学び、より賢くなり、人生がより良くなると感じるでしょう。

頭にレーザーを付けたロボットが通りを歩いて思考犯罪で人を殺すようにはならないでしょう。

はい、食器洗いのようなキッチンのものが欲しいです。はい、まさに。それを手に入れたら、もう終わりです。それが私にとってのAGIです。出てくるでしょうが、200,000ドルで、ウェイティングリストに載らなければならないでしょう。

本当に遅くて不器用で、犬がそれを倒して、「ローバーを拾い上げることができますか?助けて。助けて。」と言うような感じがするでしょう。今持っているRoombaのように、ただ壁にぶつかり続けるようなものです。

さて、最後に行く前に最後の質問です。現在の実際の日常ドライバーは何ですか?

まあ、Claude Sonnet。なぜOpusではないのですか?ただ興味があります。ああ、トークンの容量がただそこにないからです。信頼性良く動作させることができません。だから私はただそれを使うのをためらっています。

他の人がそれをすることができる割り当てを持っているのは確かです。だから、それはモデルの批判ではありません。Sonnetが毎回機能するということです。速度はそれほど悪くありません。そして、今私がAIですることのほとんどはMCPコールを含むからです。

テストしているからだけでなく、実際のコーディング以外のすべてで、今本当にMCPをたくさん使っています。そのため、それらを呼び出す能力は素晴らしいです。特に並列。並列でツールコールを行う能力により、定期的にそれと作業することが達成可能になります。

バックグラウンドで物事を行い、それらが完了するのを待つことはできますが、少し速い方が良いです。Sonnetはそれを呼び出すことに関して理解しているようです。だから、それを使っています。Geminiもそれができますが、間違いありません。ただ、現在それが私のために働いています。

3.5がバイブコード革命家だったように、Anthropicは常にモデルの背後に目的を持っており、4シリーズの目的は明らかにループやクロックではなく、これらのエージェント長期タスクです。クロックは奇妙にモデルにあり、誰も実際に言及したり話したりしたことがない概念です。

考えた後の最初の兆候であり、AGIが遠いと言った後、実際にそれ自身のクロック速度を持っています。それを行い、とても興味深いのは、ツールを呼び出すのを止めて、ただあなたの質問に答えることを決めるときです。その意味で本当に自己調節しています。

実際にこれを処理する最良の方法について話し合っており、ポッドキャストの遅い時間ですが、これについてコメントがあれば興味があります。人々はそれがどれだけ考えるかをどれだけコントロールしたいかです。考え続けることを奨励することができます。また、ある時点でそれを切断し、ツールへのアクセスを削除してそれを止めることもできます。

それとも、常にモデルに決めさせて、自然に行かせたいですか?これまでのところ、自然が非常に良いようです。あなたが尋ねている質問の重要性を本当に理解し、自己調節しているようです。しかし、それが彼らがモデルで言ったことだと思います。それ自身の思考レベルもある程度決定します。

そして、それが私たちがこのクロックで言及していることかもしれません。それが説明できる唯一の方法です。ゲームでは、ゲームを構築するときにクロック速度を持ちます。それはゲームのティックレートのようなもので、これらのモデルで内部クロックがあるような感じがし始めており、その道をさらに進むことは刺激的です。

しかし、私がエピソードで言ったすべてを完全に矛盾させているとは思いません。それが私たちのスタイルです。はい。だから、私はヘッジしました。両方を言いました。だから、大丈夫です。

それでは、それが最初の対面ショーでした。これに触れるべきでしょうか?私たちは触れません。これが最も愛情深いです。はい、奇妙な感じです。「ここを見るべきか?そこを見るべきか?」という感じです。

はい、ほとんどの時間を机を見ていたと思います。はい、確実にここの小さなサウンドボードの色を見ていました。対面エピソード、排他的対面エピソードを楽しんでいただけたでしょうか。ショーが気に入ったら、コメント、いいね、その他すべてのことをしてください。

他に何を。ああ、待って。これがTikTokインフルエンサーになる方法です。クリス、このショーについてどう思いましたか?ああ、申し訳ない。ああ、待って。いや、おそらくそれに話しかける必要があります。平均または平均以下でした。

わかりました、来週お会いしましょう。さようなら。

コメント

タイトルとURLをコピーしました