AIニュース:トイレにさえAI機能が搭載される時代に

AIニュース
この記事は約26分で読めます。

2024年10月のAI分野における主要な動向をまとめた解説である。OpenAIがブラウザ「Atlas」を発表し、GoogleはRunway Gen-3を更新、MicrosoftとAnthropicも大規模なツールを投入した。さらにはトイレにまでAI機能が搭載される時代となった。本動画では、AIネイティブブラウザ戦争の幕開けとして、ChatGPTのAtlas、PerplexityのComet、Microsoft Edgeなどの新機能を紹介。AI動画分野ではRunway Gen-3.1の大幅アップデート、Sora 2の新機能、オープンソースのLTX2モデルの登場を取り上げる。画像生成ではMicrosoftのMAI Image 1、GoogleのImagine Bananaの展開拡大、Adobeの年次イベントAdobe MaxでのAI機能統合などを解説。コーディング支援ではClaude CodeのWeb版、GoogleのAI Studio、Cognitionの新モデルSUI 1.5などが登場した。さらにOpenAIのAgent KitやChatGPT内アプリストア、AnthropicのAgent Skillsなど、AI技術の実用化が急速に進展している状況を包括的に捉えた内容となっている。

AI NEWS: Even Toilets Have AI Now
#ainews #mattwolfe #openai A breakdown of the AI news from October 2025. This past month in AI has been absolutely wild!...

AIの爆発的進化を遂げた1か月

この1か月のAI業界は本当にすごいことになっています。OpenAIが本格的なブラウザをリリースしました。GoogleはRunway Gen-3を再びアップグレードしました。MicrosoftとAnthropicの両社が大規模な新ツールを発表しました。そして、なぜか今やトイレにまでAI機能が搭載されるようになったんです。最近はあまりにも多くの大きな発表があって、ほとんどの人がついていくのに苦労しているでしょう。

でも安心してください。私がこの1か月のすべてを精査して、本当に重要なアップデートだけを抽出しました。ですから、この技術がどこに向かっているのか気になる方も、毎日この技術を使って開発している方も、完全に最新の状況を把握できるようにします。皆さんの時間を無駄にしたくありません。それでは早速始めましょう。

AIブラウザ戦争の勃発

まずは、人々がAIブラウザ戦争と呼んでいるものから始めます。10月だけで、AIネイティブブラウザに関する発表が山ほどありました。最大の発表はおそらく、10月21日に発表されたChatGPTのAtlasでしょう。私はこのブラウザについて完全な詳細分析を行い、すべての機能をテストしました。

その詳細は「ChatGPTが実際に使いたくなる新しいブラウザを発表」という動画で見ることができます。でも、ここではこのブラウザの簡単な要約をお伝えします。ブラウザを開くと、デフォルトでChatGPTに直接アクセスします。上部のURLボックスに何かを入力すると、実際にそのプロンプトがChatGPTに送信されます。つまり、Google検索をする代わりに、入力した内容をChatGPTに渡してくれるんです。

ChatGPT内と同じように、モデルを選択できます。ChatGPTに質問できるサイドバーが用意されていて、開いているウィンドウのコンテキストを含めてChatGPTを開くことができます。プロユーザーには、実際にChatGPTがブラウザ内で代わりにアクションを実行できるエージェントモードが提供されています。例えば、このページを翻訳ツールでフィルタリングして、古い順に並べ替えてというようなプロンプトを与えることができます。

これはあくまで例です。おそらく自分でクリックした方がずっと速いでしょう。でも実際にやってみると、ブラウザを乗っ取られるのがわかります。ページをフィルタリングする準備中という表示、あの小さな矢印が表示されていますが、これは自動で行われているんです。翻訳フィルターをクリックして、それから古い順に並べ替えてくれるのが見えます。私は何も触っていません。

つまり、実際にあなたの代わりにアクションを開始できるんです。メールのような文章を書いているときに、メール内のテキストを選択すると、ハイライトされたテキストの横に小さなOpenAIのロゴが表示される機能もあります。それをクリックすると、実際にこのメールを改善して仕事が取れるようにしてと指示できます。

これが元のメールです。書き直してくれたバージョンを使ってみましょう。おそらくずっと良くなっているはずです。でも、今月のブラウザニュースはこれだけではありませんでした。月初めに、実はPerplexityのCometについての発表がありました。10月2日に、Cometブラウザが無料で世界中に公開されたのが確認できます。

もともとCometブラウザはPerplexityの有料ユーザーのみが使えるもので、確か月額200ドル以上の上位プランのMaxユーザーだけだったと思いますが、今では誰でもこのブラウザを使えるようになりました。Cometを使ったことがない方のために説明すると、ChatGPTのAtlasと同じく、これもChromiumベースで作られているので、Chromeと多くの共通点があり、すべてのChrome拡張機能が動作します。

アシスタント機能もあります。このアシスタントボタンをクリックすると、右側にサイドバーが開きます。表示しているウェブサイトをコンテキストとして取り込んでメッセージングできます。このウェブサイトは何のためのものですかと聞くと、このウェブサイトの簡単な説明が得られます。記事の要約などにも最適です。

ショートカットというクールな機能があって、アシスタント内でスラッシュを入力すると、頻繁に使うワークフローやプロンプトを事前に書いておけます。ショートカットの作成はとても簡単です。ショートカットを作成ボタンをクリックして、そのショートカットにプロンプトさせたい追加の指示を与えるだけです。トリガーワードを指定します。

トリガーワードを/mattpromptとして、指示をジョークを言ってとしましょう。どのモードで動作させたいかも指定できます。検索、リサーチ、ラボから選べます。モデルを選択するか、最適なモデルを自動選択させることもできます。ソースも選択できます。ウェブ、学術、ソーシャル、金融、そして様々なコネクタを検索できます。

これらの接続を設定すれば、いつでもここに来て/mattpromptと入力してエンターを押すだけで、ジョークを言ってくれます。このアシスタントを使って過去の履歴を検索することもできます。たくさんのAIツールを共有しているウェブサイトを見ていたんだけど、何だったかなと聞けば、見てください。最近、Future Toolsを見ていましたね、と答えてくれます。

分割表示という便利なクオリティオブライフ機能もあります。いくつかのタブを開いていて、それらを並べて見たい場合、実際にタブの1つを右クリックして、現在のタブで新しい分割表示をクリックすると、開いている2つのウェブサイトが並んで表示されるブラウザウィンドウに分割されます。これはかなり便利です。

アシスタントを閉じれば、2つのウィンドウがさらに見やすくなります。そして、ChatGPTのAtlasとPerplexity Cometへの対抗として、Microsoftが、そうだ、Microsoft EdgeにもこれらのAI機能があるじゃないか、と決めたわけです。それで、EdgeにCopilotモードが搭載されました。他の2つと同様に、Copilotを右側のサイドバーで開くことができ、メインウィンドウの内容をコンテキストとして使用します。

ブラウザ履歴を検索することもできます。先週見ていた青いパーカーを見せて、と言うと、見ていた履歴をたくさん引っ張り出してくれます。ですから、AtlasやComet、さらにはブラウザ企業のDiaブラウザなど、すべてがAIネイティブブラウザであるにもかかわらず、誰もが使い慣れている通常のブラウザもすべて、これらのAI機能が組み込まれつつあります。Microsoft Edgeに搭載されました。

Google ChromeもこれらのAI機能の一部を展開し始めています。BraveもAI機能を展開し始めています。ですから、間もなくすべてのブラウザがAIネイティブになるでしょう。そして、私がこれについて興奮していることの1つは、Atlasに特化した動画でも話しましたが、もうブラウザを開く必要さえなくなる時点に到達するということです。

おそらく、スマートフォンを使って、音声でプロンプトを入力し、やってほしいことを伝えるだけで、これらのエージェントを使うブラウザが行って、あなたの代わりにそれをやってくれるでしょう。もう画面をじっと見ている必要はありません。インターネット全体がプロンプト可能になるんです。このイベントの日程を調べて。ホテルを予約して。航空券を予約して。

予算は2000ドル以内で抑えたい。私のためにやって。ちなみにこれは私がスマートフォンを持っているところです。スマートフォンにプロンプトを入力すると、ブラウザを使ってあなたの代わりにそれらすべてを実行してくれます。それが私がこれらすべてが向かっていると思う方向です。それが彼らが目指しているところで、もはやコンピューターの前に座っていなくても、達成したいことを達成できるようになるんです。

AI動画生成の大躍進

今月はAI動画の分野でも多くのニュースがありました。Runway Gen-3.1という新しいバージョンが登場しました。これも詳細な分析動画を作成しました。私のYouTube動画をチェックして、「Runway Gen-3.1のすべての機能を狂った結果でテストする」という動画を見つけてください。タイトルは少し違うかもしれません。

現在、タイトルのスプリットテストを積極的に行っているところですが、これも彼らがリリースしたものの簡単な要約をお伝えします。3つの異なる画像を与えられる材料から動画への機能をリリースしました。この例では、人物の画像、部屋の画像、そして服の画像を与えました。そして、その人物がその服を着て、その部屋にいる動画が生成されました。すべての材料があったからです。

これは2つの画像を与えた例です。砂丘をバイクで走っている人と、このキラキラした結晶のようなものを与えると、バイクに乗った人がキラキラしたものの中を走る動画に融合されました。最初のフレームと最後のフレーム機能も導入されました。以前は開始フレームを与えることができて、そのフレームに基づいて動画を作成していました。

でも今は、開始フレームと終了フレームを与えることができて、その2つの間をどうアニメーション化するかを判断してくれます。この機能をテストした結果については、まだ見ていない方は絶対にRunway Gen-3.1の動画を見てください。本当に面白い結果が得られましたから。サムズアップはうまくいきましたよね。この例では、こちらに納屋の画像を与えて、こちらに馬に乗った男性の画像を与えました。

2つを融合すると、納屋を通り抜けて馬に乗った男性を見る動画ができます。シーンにオブジェクトを追加できる機能も展開されました。そして間もなく、オブジェクトを削除できる機能も展開される予定ですが、削除機能はまだ展開されていません。追加機能は使えます。

この例では、白い雪景色があります。再生すると、雪の中を松明を持って歩く人を追加して、それを削除したのがわかります。これは巨大なデス・スターのようなものをシーンから削除した例です。でも繰り返しますが、追加機能は今利用可能です。

削除機能は近日公開予定となっています。Runway Gen-3へのかなり大きなアップグレードですが、繰り返しますが、この動画ですべてテストしましたので、まだ見ていない方はチェックしてください。Sora 2は実際、信じられるかもしれませんが、先月9月にリリースされました。でも10月には、Sora 2にいくつかの新しいアップデートがありました。ストーリーボード機能が追加されたので、連続した複数のシーンを生成して、より長い動画を作成できます。

そして、すべてのユーザーが最長15秒の動画を生成できるようになりました。プロユーザーの場合、ウェブバージョンでは実際に最長25秒の動画を生成できます。Sora内にいる場合、アカウントがそれを持っていれば、小さなストーリーボードボタンをクリックできます。ストーリーボードをクリックすると新しいウィンドウが開き、動画に複数のシーンをプロンプトできます。

OpenAIは、キャラクターカメオを追加できる機能も展開しました。トニー・スタークですか。以前は、カメオ機能では、動画での肖像の使用を承認したあなたや友人がいました。今では、実際に漫画のキャラクター、ぬいぐるみ、さらにはペットをアップロードして、それらのカメオに使用できるキャラクターを作成できます。

そして、10月に出た最後のSoraニュースでは、追加の生成を購入できる機能を開始しています。Soraプランに入っていて、実際に生成できる上限に達した場合、実際に追加の生成のために料金を支払うことができます。彼らは言いました。1日30回の無料生成で十分以上だと思っていましたが、明らかに間違っていました。

これにより、プロのクリエイターは、支払いたいだけの使用量を得ることができます。マネタイゼーションと、Soraの新世代クリエイターがお金を稼ぐ方法についての話もいくつかあります。まだあまり詳細は固まっていませんが、どうやら近い将来、Soraでお金を稼げるようになるようです。Soraについての私のより詳細な分析と考えを聞きたい場合は、ぜひこの動画をチェックしてください。

Sora 2がすべてを変えつつあります、でもあなたが思っているようにではありません。繰り返しますが、タイトルは少し違うかもしれませんが、Casey Neistatが映っている動画を探してください。そして、AI動画について話しているので、この新しいLTX2モデルについて言及しなければなりません。これは実際にオープンソースモデルで、Runway Gen-3で見ているのとほぼ同じレベルで動画を生成していますが、より高品質で長い動画です。

LTX2は、同期された音声と動画の生成、ネイティブ4K解像度、秒間50フレーム、そしてコンシューマーGPUで実行できます。彼らのデモをちょっと見て、このモデルが何ができるのか理解しましょう。音声の世界へようこそ。つまり、これについて私にとって最も驚くべきことは、これがオープンソースであるということです。Runway Gen-3のような、信じられないほど優れた最先端のモデルがあり、Sora 2も信じられないほど優れています。

そして、これらのモデルが利用可能になってからわずか数週間後に、基本的に同じくらい優れたオープンソースモデルが登場するんです。オープンソースは約1か月しか遅れていないんです。これは本当に驚くべきことです。さて、LTX2の背後にある会社Lyrixは、このモデルをテストできるプレイグラウンドを設置しました。プレイグラウンドはapp.ltxstudio.ai/ltx2-playgroundで見つかります。

これがURLです。まだ完璧ではありません。ローラースケートに乗った猿というプロンプトを与えました。ローラースケートに乗った幼児のように見えるものができました。月に向かって遠吠えするオオカミはかなりまともにできましたが、そのプロンプトの音声はあまりうまくできなかったので、音声は省略します。

そして、AI動画について話しているので、10月にLeonardoが展開したAI動画機能についても言及したいと思います。さて、簡単な免責事項です。私はLeonardoに非常に非常に少ない株式を保有しています。実際には今はCanvaですが、私はLeonardoのアドバイザーだったので、そのことを念頭に置いておいてください。

でも、彼らが展開したすべての動画アップデートがこちらです。10月3日に、Kling 2.1を使用した開始フレームと終了フレームを追加しました。10月16日に、Leonardo内で動画を生成するオプションとしてRunway Gen-3.1を追加しました。10月21日に、AI動画を生成するオプションとしてSora 2とSora 2 Proを追加しました。10月28日に、Halo 2.3とHalo 2.3 Fastを動画生成のオプションとして追加しました。

そして10月30日に、Kling 2.5 Turbo Standardを展開しました。動画生成のためのたくさんのオプションがあります。Leonardo内でAIツールの下の動画をクリックしてモデルをクリックすると、動画モデルの選択肢がたくさんあります。今では、使いたいほぼすべての動画モデルをLeonardo内で使えるようになりました。

そして、AI動画について話しているので、これは簡単に触れる価値があると感じました。YouTubeがYouTuberのために肖像検出技術を展開しました。私のYouTubeアカウントのバックエンドで、人々が私の肖像を使用しているのを確認できます。実際の動画を取るだけでなく、私の顔や声のAI生成バージョンを使用している場合、私の肖像を使用したことに対して実際にそれらの動画に著作権侵害を主張できるようになりました。

これらのAI動画モデルがさらに展開されるにつれて、ますます必要になると思う機能です。さて、AIブラウザについて話しました。AI動画ニュースについて話しました。では、AI画像ニュースについて話しましょう。10月にはその分野でも少しニュースがありました。ここにあなたがいます。おやおや。

悪臭を表す線まで描かれています。

AI画像生成の新展開

MicrosoftがリリースしたMAI Image 1という新しい画像モデルから始めましょう。これはかなり堅実な画像生成モデルです。テキスト入りの画像を作成でき、リアルな見た目の人物、リアルな見た目の動物を生成し、ほとんどの最先端の画像モデルから期待されるものと同等に見えます。

これを使いたい場合は、使えるようにするための回避策のようなものがあります。現在、LM Arena内でのみ利用可能だと思います。このモデルを使いたい場合は、lmarena.aiにアクセスしてください。上部に来て、左上のメニューで新しいチャットをクリックします。上部のバトルと書かれているところで、バトルからダイレクトチャットに切り替えます。このモデルを具体的に使用したいからです。

下部で、画像を生成するというボタンを押してください。そして上部に、利用可能なすべての画像モデルを含む新しいドロップダウンが表示されます。選択できるモデルの1つとしてMAI Image 1が表示されます。これは私のお決まりのテストです。月に向かって遠吠えするオオカミをやりました。かなり良く見えました。

実在の人物を生成するかどうかをテストしたかったので、Sam AltmanとElon Muskが握手しているというのをやりました。Elon Muskには近かったですが、これはSam Altmanには全く見えません。それから、画像に多くの要素を入れられるかをテストしたかったです。カウボーイブーツを履いた3つ頭のドラゴンがテレビを見ながらナチョスを食べているというのをやりました。画像を見ると、完璧に仕上がっています。

このプロンプトの文字通りすべての要素を画像に入れました。それから、商標のIPでうまくいくかをテストしたかったです。それでミッキーマウスがスーパーマリオとハイタッチしているというのをやりました。問題なくできました。それからスポンジボブ、バットマン、スパイダーマンが一緒に家族写真を撮っているというのをやりました。3つの異なるスタジオを入れたかったんです。スポンジボブはニコロデオンで、バットマンはDC、スパイダーマンはマーベルだと思います。

たくさんの異なるスタジオをすべて1つの画像に詰め込みました。それらを生成するのに問題はありませんでした。ただ、現在LM Arena内でしか使えないのは少し奇妙です。このモデルをMicrosoftが出したことも興味深いです。MicrosoftはOpenAIを所有する非営利団体の49%の所有者です。OpenAIには独自の画像モデルがあり、DALL-E 3もあります。

そして今、MicrosoftがOpenAIの画像モデルと競合する新しい画像モデルを作成しています。将来的にBingがこの画像モデルを使用するようになるか、選択式になるかもしれません。彼らが何をしているのかはわかりませんが、他のAI画像生成ニュースとして、Imagine Bananaからいくつかのアップデートがありました。

Imagine Bananaは先月、誰もがテキストプロンプトを与えるだけで任意の画像でPhotoshopのような編集ができるようになったときに話題になりました。そして、Googleは人々がこれを気に入っているようだと判断しました。文字通りすべてに組み込みましょう。Imagine BananaがNotebook LMに追加されました。動画の概要を生成すると、実際にNotebook LMで画像を生成しています。

検索でLensで写真を開くと、画像を即座に変換できます。Google Photosに追加していて、Google Photos内の画像をImagine Bananaで編集できます。画像に関係するすべてのGoogleアプリに、Imagine Bananaが追加されているようです。

そして、Imagine Bananaが多くの人がPhotoshopでやることを実行でき、Photoshopを破壊しているように見えるという話をしたばかりですが、10月の最終週に、AdobeはAdobe Maxという年次イベントを開催し、すべての発表を披露しました。そして彼らの発表のほぼすべてがAI関連でした。

Photoshop、Lightroom、Premiere、Illustratorに新しいAI機能を追加しました。Photoshopに新しいAIアシスタントを追加していて、これによりクリエイティブプロフェッショナルが作業を拡大し、一連の反復的なタスクを支援するようアシスタントに指示し、パーソナライズされた推奨事項を表示させながら、創造的なコントロールを維持しながら時間を解放できます。

Adobeは、Photoshopに直接Imagine Bananaのような機能を追加していて、画像に何をさせたいかを入力するだけで、入力内容に基づいて変更されるというものです。ここで展開しているのはそういうことのようです。Adobe製品のいずれかでAdobeのモデルを使用するように強制するのをやめたようにも見えます。

Photoshopの生成塗りつぶしは、私の意見ではこれまでで最高のPhotoshop機能の1つですが、今では他のモデルを使用できるようになりました。Imagine Bananaを少し使えるようになっています。今ではBlack Forest LabsのFlux One Contextを使用でき、もちろんFirefly画像モデルも使用できます。

生成アップスケールも追加され、独自のアップスケーラーを使用するだけでなく、おそらく優れたアップスケーラーであるTopaz Labsのアップスケーラーも実際に使用できます。Adobe製品に展開された他の多くの機能もあります。個人的には、Adobe Max基調講演全体をまだ見ていません。追いつく予定ですが、すべてのAdobe製品にAI機能を展開しているようです。

昨年のAdobe Maxで発表された機能のほとんどが、ようやくAdobe製品に展開され始めているように見えます。

コーディング支援ツールの進化

コーダーの方、またはバイブコーダー、つまりコーディングの仕方を知らないけれどAIのおかげで挑戦している人には、今月新しいツールが利用可能になりました。このメモについて見ましたか。はい。はい。メモはここにあります。今月初め、Claude Codeがウェブに登場しました。以前は、Claude Codeを使いたい場合、ターミナル内で行う必要がありました。でも今では、claude.aiにアクセスして、左側にコードのオプションがあります。これをクリックすると、Claude Codeが開き、GitHubに直接接続されます。

構築した任意のGitHubリポジトリを取り込んで、ターミナルを使わずにブラウザ内で直接構築を続けることができます。ターミナルに慣れていない場合、Claude Codeを使うのが非常に簡単になります。Claudeのウェブサイトでここですべてを行うだけです。

Googleもバイブコーダーを支援したいと考え、GoogleのAI Studioにバイブコーディング機能を追加しました。studio.google.comにアクセスすると、一番上に、ビルドでgenAI対応アプリをバイブコーディングするという新しいオプションがあります。このリンクが表示されない場合、左側のサイドバーにもビルドがありますが、ここをクリックしてみましょう。

これは単なるバイブコーディングプラットフォームであるだけでなく、バイブコーディングの旅を助けるためのプロンプトのアイデアもたくさん提供してくれます。他のGeminiモデルからも選択できますが、コードを書いているならおそらくProを使いたいでしょう。AngularまたはReactを使用するかどうかの指示を与えることもできます。

ここで音声からテキストへの変換をオンにして、コーディングしてほしいことを話すこともできます。10月には、使用できるいくつかの新しい大規模言語モデルが登場しました。コーダー向けのものについて話したばかりなので、これを最初に言及しようと思いました。Devonを作成し、その後Windsurfを買収したCognitionという会社が、SUI 1.5という独自のエージェントモデルをリリースしました。

エージェントコーディングタスクのこのベンチマークを見ると、実際にはClaude Sonnet 4.5のすぐ下に来ていますが、非常に高速です。他と比較して。1秒あたり950トークン、Claude Sonnet 4.5と比較して1秒あたり69トークンです。スコアに関しては、このモデルをわずかに下回るだけでしたが、はるかにはるかに速いです。別のエージェントコーディングモデルを試したい場合は、SUI 1.5をチェックする価値があるかもしれません。

ここで彼らが推論プロバイダーとしてCerebrusを使用したのが確認でき、これがここでこのような驚異的な速度を得ている理由を説明しています。しかし、他の大規模言語モデルのニュースとして、今月Anthropicから出たClaude Haiku 4.5も登場しました。これは、本当に本当に速い応答が必要なときのために設計された小さなモデルです。

より小さく、より速いモデルであるにもかかわらず、実際にClaude Sonnet 4を上回り、Claude Sonnet 4.5をわずかに下回るだけなのが確認できます。超高速と非常に賢いの中間点のような優れたモデルが欲しい場合、Claude Haiku 4.5はかなり堅実なモデルです。使用するのもかなり安価だと思います。

Sonnet 4.5の約3分の1の価格です。入力と出力の両方で。ここでは出力が100万トークンあたり5ドルで、Sonnet 4.5では100万トークンあたり15ドルです。明らかに、これはより大きなコンテキストウィンドウを持つ可能性が高いです。より大きなコンテキストの価格も提供されています。OpenAIから別のモデルも登場しました。

これはGPT-4o-Safeguardというもう1つのオープンモデルです。これらのモデルは基本的に、安全対策に従うように微調整されたモデルです。GPT-4o-Safeguardモデルは、推論時に開発者が提供したポリシーを直接解釈するために推論を使用します。ポリシーはモデルにトレーニングされるのではなく、推論時に提供されるため、開発者がパフォーマンスを向上させるためにポリシーを繰り返し修正するのが簡単だと言っています。

望む結果が得られるまで、組み込んだ安全対策を微調整し続けることができます。まだプレイしていないモデルです。あまり興味のあるモデルではありません。でも、これがビジネスやユースケースで必要なものなら、利用可能です。そして、もう少し、あまり深く掘り下げない速報のようなニュースがいくつかあります。すでにそのいくつかについて話したか、掘り下げるほど大きなニュースではないからです。

でも今月、OpenAIはAgent Kitを導入し、これはかなり大きな出来事でした。しかし、これについても「ChatGPTはZapierを殺したのか」という詳細な分析を行いました。Agent Kitが正確に何で、なぜ重要なのかについての詳細な分析を見ることができます。しかしここでの簡単な要約は、Zapier、N8N、Mind Studioなどのツールから得られるものに似たこれらのワークフローを構築でき、ChatGPT内で直接できるということです。

今のところ、それらの他のツールでできることほど詳細ではありません。現時点ではまだ非常に基本的ですが、ChatGPTに組み込まれており、ChatGPTがこれらのワークフロービルダーツールのいくつかも破壊しようとしていることを示しています。Agent Kitを自分で試したい場合、実際にはChatGPTではなくOpenAIのプレイグラウンドで行う必要があります。

それを見つけるには、platform.openai.comにアクセスしてログインし、上部のダッシュボードをクリックして、左側にエージェントビルダーが表示されます。これが彼らが見せてくれた新しいAgent Kitです。トリガーで始まるこれらのロジックワークフローを作成でき、何かが起こったら1つのエージェントに行き、

別の何かが起こったら別のエージェントに行くという詳細なワークフローを構築できます。繰り返しますが、まだたくさんのオプションや多くの統合はありませんが、これは何が来るのかを示しています。Agent Kitを見せたのと同じ日に、ChatGPT内のアプリも発表しました。これについて、言及したばかりの同じ動画で少し話しましたが、基本的に彼らはアプリストアのようなものを構築しようとしていて、人々がOpenAIのChatGPT内で直接開発できるようにしています。彼らがプラグインで試みていたことを思い出させますが、それはうまくいきませんでした。でもこれはプラグインよりももう少し深く統合されているように見えます。

ChatGPT内ですでに構築されているアプリの例。Booking.comは、ChatGPT内で直接ホテルを予約してもらえます。

Canvaは、ChatGPT内でプロンプトを与えることで画像を生成してもらえます。Coursera、Expedia、Figma、Spotifyは音楽プレイリストを生成してもらえます。Zillowは現在組み込まれているものですが、誰でもChatGPT内で動作するアプリを構築できるように開放しています。特に人々がそれをマネタイズする方法を見つければ、かなり強力になる可能性が高いです。

iPhoneが出たときのApple App Storeの上に、人々が全体のビジネスを構築したのと同じように、ChatGPTの上に全体のビジネスを構築するでしょう。非常に非常にエキサイティングな開発で、パートナーと一緒にこれを立ち上げた以外の人々がどのようなアプリを構築するのか、待ちきれません。

Anthropicに少し戻りますが、今月彼らはエージェントスキルを導入しました。基本的に特定のタスクをどのように処理してほしいかを教えることができ、それらのスキルをオンまたはオフにできます。スキルがどのように機能するかがわかります。タスクに取り組んでいる間、Claudeは利用可能なスキルをスキャンして関連する一致を見つけます。一致するものがあると、最小限の情報とファイルのみを読み込み、専門知識にアクセスしながらClaudeを高速に保ちます。

組み合わせ可能で、一緒にスタックできます。ポータブルで、どこでも同じフォーマットを使用します。一度構築すれば、Claudeアプリ、Claude Code、APIで動作します。効率的です。必要なものだけを読み込みます。強力です。実行可能なコードを含めることができます。スキルを、Claudeをあなたにとって最も重要なことの専門家にする専門知識をパッケージ化できるカスタムオンボーディング資料と考えてください、と言っています。

基本的に非常に具体的な情報を教えているので、将来その情報を呼び出す必要があるときに、すぐに利用可能で、作成したそれらのスキルに簡単にアクセスできます。そして、それらのスキルが作成されたら、繰り返しますが、Claudeで使用でき、APIで使用でき、Claude Codeで使用でき、Anthropicエコシステム全体で使用できます。

トイレにまでAI搭載

今週共有したい最後のニュースは、Colerがあなたのうんちを見るためにAIを使いたいと思っているというものです。Colerの新しいトイレカメラは、トイレ休憩に基づいて健康の洞察を提供します。誰もがトイレにカメラが欲しいからです。それは私が確実に知っている事実です。Dakotaは、トイレの中身を分析して水分補給と腸の健康を評価する健康トラッカーです。

実際にはトイレではありません。トイレに取り付けるこのアタッチメントです。完全に新しいトイレを購入する必要はないようです。ここにこの小さなガジェットが必要なだけです。センサーを使用してトイレの便器を覗き込み、アルゴリズムを使用して見たものを分析して、水分補給と腸の健康に関する洞察を提供するように設計されています。

血液が検出されると控えめに通知してくれます。これはより深刻な医療問題を示す可能性があります。予約注文が5.99ドルで利用可能です。この動画を見る頃には、すでに出荷が始まっているようです。カメラではないかもしれません。うんちを見るセンサーはそれほど悪くないかもしれません。でも、今日は以上です。

10月はクレイジーな月でしたし、これらの月次まとめをやっていきたいと思っています。週次のニュースまとめはペースを落とし、個々のニュースに焦点を当て、重要だと思うものについてより深く掘り下げた動画を作ることを選択しました。

今週特に面白いことがなくても毎週動画を作るよりも、これは私にとってより意味があります。本当に重要なニュースを深く掘り下げる個々の動画に焦点を当てましょう。そしておそらく月に一度、10月の最も重要なニュースがどのように展開したかというこの内訳をお届けします。すべての最新ニュースを分類している私のFuture Toolsウェブサイトでは、10月の1か月で220件ほどのニュース記事があり、この動画を約20件ほどに絞り込みました。今月遭遇したニュースの10%未満です。シグナルをより多く、ノイズをより少なく共有するこれらの動画を作りたいと思っています。頻度は少し低くなるかもしれませんが、本当に重要だと思ったものだけです。

それがこの動画で得たものです。より情報通に、よりつながっていると感じていただければ幸いです。一緒にオタクになってくれて本当にありがとうございます。こういうのが好きなら、この動画に高評価をつけてください。

このチャンネルを購読することも検討してみてください。これにより、このような動画がYouTubeフィードにもっと表示されるようになります。改めて、本当に感謝しています。次回お会いできることを願っています。バイバイ。今日一緒にオタクになってくれて本当にありがとうございます。こういう動画が好きなら、高評価をつけて、このチャンネルを購読してください。

このような動画がYouTubeフィードにもっと表示されるようにします。まだチェックしていない方は、futuretools.ioをチェックしてください。最もクールなAIツールと最新のAIニュースをすべて共有しています。素晴らしい無料ニュースレターもあります。改めてありがとうございます。本当に感謝しています。次回お会いしましょう。

コメント

タイトルとURLをコピーしました