今週のAI業界は驚異的な発表ラッシュに見舞われた。GoogleがフラッグシップモデルGemini 3と画像生成の新標準Nano Banana Proを投入し、ベンチマークを総なめにした。Microsoft Igniteでは70以上のAI関連発表が行われ、Windows 11へのAIエージェント統合やAnthropicとの大型提携が明らかになった。XAIはGrok 4.1を発表して一時トップの座を獲得し、MetaはSAM 3とSAM 3Dという革新的なセグメンテーションモデルを公開した。OpenAIも新しいコーディングモデルGPT-5.1 Codex Maxをリリースし、プロジェクト規模のリファクタリングを可能にした。この1週間は、AI技術の進化が加速していることを如実に示す歴史的なマイルストーンとなった。

Gemini 3とNano Banana Proの衝撃的な登場
やあ、調子はどうですか。何をしていましたか。私のことを恋しく思っていましたか。今週は本当に、とんでもなく狂気じみたAIニュースの週でした。サンフランシスコではMicrosoft Igniteが開催されました。MetaはSAM 3とSAM 3Dを発表しました。XAIはGrok 4.1を発表しました。OpenAIは驚異的に優れた新しいコーディングモデルをリリースしました。そして、まだまだたくさんのことがありました。
でも、まず最初に、GoogleがGemini 3とNano Banana 2 Pro Extra Sequel、The Reckoning Tokyo Driftを発表したことについて話さなければなりません。
では、前置きはこれくらいにして、早速本題に入りましょう。まずは新しいGemini 3の発表から始めます。さて、これについてはあまり深くは触れません。なぜなら、私はこれについて完全な詳細動画を作ったからです。Gemini 3の噂が確認されたというタイトルで、非常に良い内容です。その動画ではすべての詳細を解説し、たくさんのデモとテストを行っています。
とはいえ、この動画でも皆さんを見捨てるつもりはありません。では、簡単な要約をお届けします。Gemini 3はGoogleの新しいフラッグシップ思考型モデルで、推論、コーディング、マルチモーダル理解、そして長文コンテキスト性能において大きな飛躍を遂げています。つまり、大量のテキスト入力を与えることができ、また大量のテキスト出力も得られるということです。
そして、基本的にすべてのベンチマークを粉砕し、ほぼ全面的にトップの座を獲得しました。そして、Googleが実際に製品を発表しても出荷しないという時代は、どうやら終わったようです。なぜなら、今週の時点でこれはどこでも利用可能だからです。Gemini Webアプリの中でこれを使うことができます。
今すぐGemini 3に切り替えることができます。また、米国のGoogle AI ProおよびUltraサブスクライバー向けに、Google検索のAIモードでも既に動作しています。Gemini 3はGoogleのAI Studioで利用可能で、私が確認した限りでは無料でテストできます。また、Gemini APIとGemini CLIでも利用可能なので、アプリやエージェントを構築することもできます。
モデル自体に加えて、GoogleはGeminiエージェントも発表しました。これはGemini Webアプリの新しい実験モードです。単なるチャットではありません。実際にアクションを起こすことができるのです。つまり、ウェブを閲覧したり、Gmailをチェックしたり、カレンダーを分析したり、Driveからドキュメントを引き出したり、スライドデッキを作成したり、複数ステップのタスクをすべて自分で計画したりできます。
そして最後に、Googleはantigravityを発表しました。これはMac、Windows、Linux向けの全く新しいAI搭載クロスプラットフォームIDEです。さて、もしあなたがプログラマーでなく、それが何を意味するのか分からなくても、心配しないでください。おそらくあなたには特に関係ないでしょう。
しかし、この新しいIDEはGemini 3とGemini CLIに直接統合されており、AI駆動のコーディング、リファクタリング、デバッグ、そしてエージェント的なワークフローであなたがより速くソフトウェアを構築できるように設計されています。
要するに、Gemini 3はここにあります。より賢くなっています。すべてのモダリティにわたってより高性能です。そして今日から、検索、Geminiアプリ、エージェントモード、AI Studio、API、CLI、そして新しいantigravity IDEに直接組み込まれています。それは多くの頭字語でした。
そして、ここに私が人々がこれを使って行っているのを見た最もクールなことのいくつかをご紹介します。Dane JWさんはニューラルネットワークのトレーニングの視覚化を目の前で作成し、さらにそれを3D空間で表現させることさえしました。それは超クールです。
Vortexさんは完全な3D RTSゲームを作ることができました。Proさんは1枚の画像を与えて、その画像をピクセルパーフェクトなウェブサイトに変換させました。つまり、画像の中にあったすべてのものが完璧にウェブサイトに反映されたのです。
Zaraさんは質問をするアプリを作り、彼女はただそこに座ってコンピューターに話しかけながらこれらの質問に答え、最後にビデオを出力させることができます。自動化されたビデオ日記アプリのようなものです。人々はGemini 3で本当にワイルドなものを作成しています。
ですから、私の他の動画の詳細もぜひチェックしてください。さらに多くの例や、私がそれで使用した最高のプロンプトのいくつかの例も見ることができます。そして、今週Googleから登場したNano Banana Proがあり、これがみんなの度肝を抜きました。これも私が詳細な詳細分析を行ったものです。
その動画はNano Banana Proが登場、新機能がアンロックされたというタイトルです。詳細とたくさんのデモや例示プロンプトが欲しい方はそちらをチェックしてください。でも、ここでも簡単な要約をお届けします。Nano Banana ProはGoogle DeepMindの新しい最先端の画像生成・編集モデルで、Gemini 3 Pro上に構築されています。
スタジオ品質のデザインを提供し、改善された制御、複数言語での正確なテキストレンダリング、そして強化された実世界の知識を備えています。私にとって際立った機能は、テキストレンダリングでした。画像上のテキストのレンダリングが本当に本当に優れています。小さなテキストや背景のテキストでも読めて、私たちが慣れ親しんでいるような意味不明な文字列ではありません。
また、Gemini 3からのライブ情報を使用しています。つまり、実際にインフォグラフィックなどを生成するのです。そしてオーバーレイされるテキストは、それがあなたのために調査したテキストなのです。特定のトピックについてインフォグラフィックを作成するよう依頼できます。そのトピックを調査してから、そのインフォグラフィックで見つけた情報を使用します。本当にクールです。すごい。
3つ目は、最大14枚の画像をブレンドできることです。私の元の動画では最大6枚とお伝えしましたが、それは発表前の情報だったことが判明しました。実際の発売バージョンでは14枚の画像が可能です。ただし、最良の結果を得るには5枚か6枚の画像を使用することを推奨しています。
また、画像を歪めることなく、任意のアスペクト比から他のアスペクト比に変更することもできます。さて、これはささいなことのように思えますが、16×9の画像を取って、異なるソーシャルプラットフォーム用に9×16の画像に再構成するのに非常に便利です。古いモデルは画像を圧縮したり歪めたりしていました。Nano Bananaは完璧にやってのけます。
そして5つ目は、さらに高度なカメラコントロールがあることです。照明やカメラアングルを調整したり、他の画像からカラーグレーディングをマッチさせたりできます。
そしてスタイル転送機能があります。スタイルが気に入った1枚の画像と、スタイルを変更したい別の画像を渡すと、2枚目の画像を取って1枚目の画像のスタイルを2枚目の画像に適用します。Nano Banana Proは、インフォグラフィック、フライヤー、バナー、そして複数のソーシャルプラットフォーム間で共有するために画像をあるサイズから別のサイズに変換するようなことに対して、人々の新しい定番プラットフォームになるでしょう。
また、2Kと4Kの両方の解像度で出力できます。そして今、Geminiアプリで思考モードとNano Bananaモードをオンにすれば利用可能です。両方をオンにすると、Nano Banana Proを使用していることになります。無料ユーザーは元のNano Bananaに降格される前に、限定された生成回数の割り当てを受け取ります。
そして、何回生成できるかは分かりません。彼らは教えてくれませんでした。推測するなら、おそらく需要に基づいたスライディングスケールだと思いますが、確かなことは分かりません。また、Gemini API、Google AI Studio、Vert.Ex AI、そしてプログラマー向けの新しいantigravity IDEでも利用可能になっています。つまり、プログラマーや開発者も、すべてのGoogle製品に組み込まれたものを利用できるのです。
Adobe、Figma、Leonardoなどのサードパーティプラットフォームにも組み込まれています。さて、APIで使用する場合は、少し高価です。画像1枚あたり約13.5セント、または4Kで生成したい場合は画像1枚あたり24セントかかります。元のNano Bananaでは画像1枚あたり4セント未満だったのと比較してください。
つまり、この品質の向上には、APIで使用する場合のコスト増も伴うということです。でも、他の人がNano Banana Proで行ったクールな例をいくつかご紹介します。Matt Vid Proさんからのクールな画像です。彼はカルビンとホッブスのコミックブックのようなものを作り、すべてが判読可能で正規のコミックのように見えます。
ここに彼がデザインした時間変位装置のピクセルアート、ベター・コール・ソウルがあります。GoogleのCEOがこのような分解されたハンバーガーを投稿したと思います。そして、これに表示されているすべてのテキストは、Geminiが行った調査に基づいており、画像に実装されたものであることを覚えておいてください。Sahilさんからの本当にクールな注釈付き図の例をいくつかご紹介します。
アポロ11号の月面着陸です。見てください、再び調査した詳細を画像全体に描きました。これはこのロケット船の別の例です。マクラーレンMCL60F1カーの例もあります。つまり、インフォグラフィックが必要なら、ツールは揃っています。
私の他の動画からのお気に入りの生成例をいくつかご紹介します。水彩画と私と仲間たちの写真を撮って、水彩画のスタイルを画像に適用しました。このグループの画像を撮って、80年代のシンセポップバンドのポスターのようにしました。
ここに私が背景に巨大な人物をスケッチして、モデルに何をすべきか伝えた画像があります。そして、これが結果の画像です。英語と日本語の両方のテキストを含むこのメニューを作りました。そして印象的なのは、この小さなテキストでさえ判読可能で、意味不明ではないということです。
ですから、Nano Bananaは本当に本当に印象的です。完全な詳細動画を作りました。絶対にチェックする必要があります。
MicrosoftとNvidiaとAnthropicの驚きの提携
私はできる限りすべてをカスタマイズするのが大好きで、ここにある私のMacBookのセットアップも例外ではありません。だから、私が見つけたショートカットを皆さんにお見せしたいと思います。私の最初の考えは、AI製品が実際にこれを私のためにやってくれるかということでした。そして、答えはイエスでした。
多くの人はWarpをAIバイブコーディングツールだと思っていますが、実際にはバイブコンピューティングツールに近いです。コンピューターのターミナルで直接できることがたくさんあります。例えば、過去30日間に開いていないドック内のすべてのアプリアイコンを削除するようにWarpのAIに依頼できます。
そして、実際にWarpターミナル内でAIが処理を考えているのを見ることができ、各アプリを自分で調べる代わりに、それが私のためにやってくれるのです。ホームディレクトリをスキャンして、90日以上前の重複ファイルを見つけて、それらをアーカイブフォルダに移動するように依頼することもできます。そして、ファイルに一度も入る必要がありませんでした。
これは私のお気に入りの1つです。このGoogle Docから埋め込まれたすべての画像を高解像度でダウンロードします。以前にGoogle Docから画像をダウンロードしようとしたことがある人なら、これがなぜかなり素晴らしいショートカットなのか分かるでしょう。
そして、コーディングの支援とコンピューターの最大のパワーユーザーになる支援の両方で、Warpでできることはまだまだたくさんあります。他のAIツールがタスクをワンショットで処理しようとするのに対し、Warpはあなたをループ内に保ち、あなたとエージェントが一緒に反復して、正確にあなたが望む通りになるまで作業できます。これは開発者を置き換えようとするのではなく、彼らの生活を楽にしようとする製品の素晴らしい例です。
ですから、コンピューターに組み込まれたAI製品に興味があるなら、説明欄のリンクから無料で試してみてください。Googleが今週のニュースサイクルをほぼ独占したにもかかわらず、他にもたくさんのことが起こりました。今週はMicrosoftの年次Igniteイベントもあり、彼らは通常たくさんの発表を行います。そして、今年の発表はAIに非常に焦点を当てたものでした。
私にとって非常に興味深かったことの1つは、Microsoft、Nvidia、Anthropicがある種チームを組んだことです。これが興味深い理由は、MicrosoftがOpenAIに大きな割合の所有権を持っており、OpenAIはAnthropicの最大の競合相手だからです。Microsoftは最大50億ドルをAnthropicに投入することを約束しています。
そして、AnthropicはAzureのコンピュート容量を300億ドル購入することを約束しています。ですから、MicrosoftとOpenAIが非常に密接に結びついているにもかかわらず、MicrosoftはAnthropicにも手を広げているのです。
さて、Microsoft Igniteでは70以上の発表がありました。ですから、多くがエンタープライズ向けだったため、すべてには触れません。しかし、私が最も興味深いと思ったものをご紹介します。MicrosoftはAIエージェントをWindows 11のタスクバーに直接統合しています。
タスクバーやスタートメニューからCopilotや他のエージェントを呼び出して、PC上でタスクを自動化または実行したり、ファイルの要約を取得したりできるようになります。そして、タスクバーでエージェントのステータスバーをリアルタイムで見ることができます。フローティングウィンドウと対話したり、エージェントがバックグラウンドで作業している間に通知を受け取ったりできます。
これらのタスクバー機能はオプトインになるので、実際にコンピューターでそれらを使いたいかどうかをコントロールできます。Copilotがファイルエクスプローラーに組み込まれ、ワンクリックでドキュメントを要約したり、質問に答えたり、メールを下書きしたりできるようになります。
また、Word、Excel、PowerPoint専用のAIエージェントも用意されるので、簡単なテキストプロンプトからドキュメント、スプレッドシート、プレゼンテーションを作成できます。その後、フォローアップの質問をして、作成されたコンテンツをさらにカスタマイズできます。
さて、これらはまだほとんどの消費者には利用できませんが、近日中に利用可能になると主張しています。また、Copilotエコシステム全体で、先ほど話した提携の結果として、Anthropic Claudeモデルへのアクセスも得られます。
ですから、私の意見では、これらがMicrosoft Igniteの本当に際立った機能でした。しかし、繰り返しますが、70以上の発表がありました。ですから、エンタープライズで働いている方や開発者で、彼らがあなたのために何を発表したのか具体的に知りたい場合は、futuretools.io/newsページをチェックしてください。そのウェブサイトで、彼らが発表したすべての更新情報を共有しました。
XAI Grok 4.1の短命な栄光
今週の月曜日、XAIからGrok 4.1という新しいモデルが登場し、一瞬だけほぼ市場で最高のモデルでした。Gemini 3が翌日に登場しましたが、Grok 4.1は以前のGrokモデルからかなりの大幅なアップグレードでした。
LM Marinaテキストリーダーボードから、Grok 4.1 Thinkingがほぼその日を制したことが分かります。そして、日というのは文字通り1日のことです。なぜなら、翌日Gemini 3 Proが登場し、リードから追い落としたからです。
どうやら、感情的知性のリーダーのようです。EQベンチがあり、Grok 4.1 Thinkingがそこでパックをリードしています。クリエイティブライティングでは、GPT-5.1をわずかに下回るパフォーマンスでした。
そして、このモデルの本当のブレークスルーの1つは、以前のモデルと比べてはるかに低い幻覚率だったと思います。Metaも今週、かなり印象的な新しいモデルをいくつかリリースしました。正直なところ、Googleやマイクロソフトなど他のすべてのことでこんなに狂気じみた週でなければ、これらはおそらく週のトップストーリーになっていたでしょう。
最初のものはSegment Anything Model 3、またはSAM 3です。これは、任意の種類のビデオや画像を渡すことができるモデルで、人物やオブジェクトをクリックするとハイライトされます。または、人々のような何かを入力すると、人々をハイライトしたり、画像内の魚をハイライトしたりします。そして、それらを分離することもできます。
3羽のペンギンを見ることができ、すべて個別に見つけました。彼らがアップロードしたこの画像と、この画像内でセグメント化できたすべての異なるものを見てください。すべてのフォーク、すべてのボウル、すべてのワインやシャンパングラス、さらには天井のライトさえも個別に選び出すことができました。
それぞれを個別に選び出すことができました。aid demos.mmeta.com/segment anythingに行けば、実際にこれを試すこともできます。私は早期アクセスを持っていたので、既に少し時間を費やしましたが、本当にクールなことができます。デモビデオの1つを選んでみましょう。誰かがサッカーをしているビデオがあります。
では、オブジェクトを検索してみましょう。サッカーボールを検索しましょう。サッカーボールを検索しています。見つけました。では、ビデオ全体を検索するように指示しましょう。ビデオ全体をスキャンして、全体を通してサッカーボールを見つけます。追跡しているのが分かります。ビデオエディターなら、この種のことは非常に多くの時間を節約します。
サッカーボールが追跡されたので、エフェクトを続けることができ、サッカーボールの周りに輪郭を付けることができます。そして今、これらの巨大な線でサッカーボールを追跡しています。サッカーボールに輝きを付けましょう。今、黄色に輝くサッカーボールができました。オレンジ色にして、サッカーボールが燃えているように見せましょう。
サッカーボールの半径も変更して、小さなオレンジ色のアウトラインのように見せたり、大きな輝きのように見せたりできます。または、サッカーボールを拡大できます。画面上でサッカーボールを大きくしましょう。さらに拡大しましょう。今、彼らが蹴り回している巨大なサッカーボールができました。
サッカーボール以外のすべてをいじって、背景をぼかして、サッカーボールだけがフォーカスされているように背景を変更することもできます。本当に本当にクールで楽しいビデオ編集ができます。しかし、彼らがリリースしたのはこれだけではありませんでした。彼らはこれもリリースしました。
さて、これをSAM 3と混同しないでください。これはSAM 3Dです。画像やビデオを渡して、その中の何かを選択できるという同じアイデアで、選択したものを実際に3Dオブジェクトに変換します。椅子の画像があり、誰かがその椅子を選択し、スマートフォンの拡張現実アプリを使って自分の部屋でその3Dバージョンを視覚化できました。
ここに彼らがアコーディオンをハイライトして、この画像からアコーディオンだけを引き出しています。ですから、言い間違えたと思います。ビデオと画像で動作すると言いましたが、画像だけだと思います。しかし、かなり印象的です。つまり、これらすべてのものを見てください。彼らは複数のオブジェクトを選択しました。SAM 3Dを通過し、バックグラウンドですべてのAI処理を行い、それらすべてを3Dオブジェクトとして引き出しました。
将来、これが本当に良くなったら、何かの写真を撮って3Dに変換し、撮った写真のバージョンを3Dプリントできるようになると想像しています。そして、これもSegment Anythingプレイグラウンドで無料で試すことができます。SAM 3Dで3Dシーンを作成したり、3Dボディを作成したりできます。
まず3Dシーンを試してみましょう。何人かの人がコーディングをしているような座っている画像があり、シーンで見えるものをクリックするだけです。背景にあるこの小さなプランターのようなものを見てみましょう。ハイライトされたのが分かります。植物も出ているか確認しましょう。そして3Dを生成をクリックします。
実際に3Dで形成されているのが分かります。そして、それは実際にかなり速く起こりました。そして、ここの背景のこの画像から、これがどれほどまとまっているか見てください。このものを削除しましょう。そして、この男と彼の椅子を取得しましょう。全体がハイライトされるまでクリックするだけです。それを生成しましょう。
完璧ではありませんが、特にこれがどれほど速かったかを考えると、かなり印象的です。ここで3Dボディを作成しましょう。これはおそらく人物にはもう少し良いでしょう。ここに踊っている人たちがいます。そして実際に既にすべての人を見つけました。だから、私は実際に何もプロンプトしたり、何かをクリックしたりする必要はありませんでした。それが私のために人々を見つけてくれたのです。
では、ここのこの男を選択しましょう。自動的に3Dバージョンを生成しています。ああ、中に小さな骨格まであります。ですから、このバージョンのモデルを使用すると、人物を取得するのに明らかにはるかに優れています。これを人物参照ビューに変更して、他の人々の間にある3Dモデルを見ることもできます。
かなりかなりかなりクールです。先ほど言ったように、Googleが今週非常に多くの新しいものを投下していなかったら、おそらくこれについて多くの人が話していたでしょう。
OpenAIのドラマとアップデート
さて、今週のAIドラマの簡単な要約をしましょう。Sam Altmanのこの超スパイシーなツイートから始めましょう。「やあ、何だけど」でも実際のドラマ、OpenAIの取締役会メンバーの1人であるLarry Summersが、Epsteinという人物との何らかの取引のために今週辞任することにしました。それが何についてなのか分かりません。
さて、OpenAIのニュースを続けましょう。彼らは実際に今週GPT-5.1 Codex Maxという新しいモデルをリリースしました。ええ、彼らはまだ命名がかなり得意です。これは彼らの新しいフロンティアエージェントコーディングモデルで、Codex内で利用可能です。これはプログラマーにとってより関連性が高いものですが、このモデルの追加のコンテキスト長のため、プログラマーにとっては大きな飛躍です。
これは、コンパクション化と呼ばれるプロセスを通じて、単一のタスクで何百万ものトークンにわたって一貫して動作するように複数のコンテキストウィンドウで動作するようにネイティブにトレーニングされた彼らの最初のモデルです。これにより、プロジェクト規模のリファクタリング、深いデバッグセッション、複数時間にわたるエージェントループが可能になります。タスクでエージェントを起動して、24時間作業させることができます。
コンパクション化により、GPT-5.1 Codex Maxは、コンテキストウィンドウの制限のために以前は失敗していたであろう複雑なリファクタリングや長時間実行されるエージェントループなどのタスクを完了できるようになります。これは、長期にわたって最も重要なコンテキストを保持しながら履歴を削減することによって実現されます。
ですから、chat GPT plus pro、ビジネス、教育、またはエンタープライズユーザーであれば、GPT-5.1 Codex Maxにアクセスできます。私はこのモデルをまだ自分でテストしていませんが、聞いている限りでは、かなり印象的なコーディングモデルです。
ちょっと飛び込まなければならないことがありました。OpenAIが実際に展開したことを言及するのを忘れていたからです。彼らは実際にグループチャット機能を展開しました。ですから、chat GPTアカウント内にいるとき、右上にこの小さなグループチャットを開始ボタンが表示されます。
それをクリックしてグループチャットを開始を選択すると、誰とでも共有できる招待リンクが提供されます。そして今、複数の人が同じ会話の中でchat GPT内で協力的にチャットできます。実際にどのように見えるかをお見せします。私はchat GPTに入って、AIについてのクールなYouTubeビデオの10のアイデアを教えてと言いました。
これらを与えてくれて、そして私のプロデューサーのDaveが飛び込んできて、今、これらすべてのアイデアにGary Buseyを組み込んでと言いました。そして、まあ、それをやってくれました。ですから、かなりクールな新機能です。私はこのビデオをそれに言及せずに公開したくありませんでした。多くの人が興味を持つと思うからです。でも、ビデオの残りに戻らせてください。
さて、OpenAIが行っているクールな小さなことです。教師向けに構築された無料版のchat GPTがあります。教師の日常業務をサポートし、重要なことに集中できるようにする安全なchat GPTワークプレイスです。教師は2027年6月までこれに無料でアクセスできます。以下が含まれています。
教育グレードのセキュリティとコンプライアンス。ですから、このモデルと共有するものは、モデルのトレーニングには使用されません。そして、学生データを保護するように構築されています。パーソナライズされた教育サポート。学年、カリキュラム、好みの形式などの詳細を記憶させることができ、回答があなたの教育スタイルに合わせて調整されます。
Canva、Google Drive、Microsoft 365などのツールに接続できます。教師向けの既製のアイデアとプロンプトが含まれています。他の教師とテンプレートを作成して共有できます。そして、学校や地区のリーダー向けの特別な管理コントロールがあります。ですから、教師の方は、ぜひそれを試してみてください。
そして、今日共有する最後のOpenAIニュースとして、IntuitがOpenAIと1億ドルの契約を結び、そのアプリをchat GPTに導入することになりました。これは実際にはかなりクールかもしれないと思います。すべての会計ソフトウェアがchat GPTに接続されていれば、将来的にchat GPT、私の税金をやってと言うだけでいいかもしれません。はい。税金担当者。税金担当者。税金担当者。それは楽しいでしょう。
その他の注目ニュースとロシアのロボット
そして、まだ終わっていません。今週お伝えする必要があるいくつかの速報があります。では、速報に飛び込みましょう。Repletが新しいデザイン機能を発表したことから始めます。ですから、Repletユーザーであれば、実際に今Gemini 3.0を活用して、本当に本当に優れたデザインを作成できます。
AIコーディングの問題の1つは、ウェブサイトやアプリを構築しようとすると、それらがすべて同じように見えることです。紫色の背景とボタンがプログラマーのエムダッシュに相当すると人々が話しているのを聞いたことがあります。それがAIをコーディングに使用したという明らかな証拠です。
そして、この新しいデザイン機能は実際にユニークで良い見た目のデザインを作成します。さて、簡単な免責事項です。私はRepletに少し投資していますが、実際にかなりクールな見た目のデザインを作ると思うので、いずれにせよニュースを共有していたでしょう。
興味深い動きとして、11 Labsが画像とビデオをプラットフォームに導入しました。11 Labsを使えば、1つの完全なクリエイティブワークフローでアイデアを実現できるようになりました。Vio、Sora、Kling、Huan、Seed Danceなどのモデルを使用して高品質のビジュアルを作成し、11 Labsの最高の音声、音楽、サウンドエフェクトでそれらに命を吹き込みます。
ですから、11 Labsは基本的にすべてのプラットフォームのすべての機能を引き込んでおり、LeonardoやKaやHegenなどの他のプラットフォームのようなものになろうとしているようです。11 Labsはクリエイティブな
AI全般のワンストップショップになりたいようですが、ほとんどの人の心の中では、オーディオ生成プラットフォームとしてかなり固まっています。
Manisが今週Manisブラウザオペレーターを発表しました。これはもちろんChromeを含むすべてのChromiumブラウザで動作する拡張機能です。この拡張機能をインストールすると、ブラウザ内でエージェント的なことができます。画面を制御したり、クリックしたり、検索したり、レストランを予約したりできます。
これらの他のエージェントブラウザが行っているのを見てきた多くのことです。今では、Chrome内でもManisブラウザオペレーター拡張機能でそれができます。また、Midjourneyが今週ニュースに戻ってきました。さて、それは久しぶりに聞く名前です。彼らは新しいプロフィール機能を展開したばかりです。
私は長い間Midjourneyについて話していませんでした。ですから、私がまだMidjourneyに注意を払っていることを示すために、これを指摘したかったのです。最近彼らが行った発表の多くは、それほど刺激的でなかったり、共有するほど刺激的ではなかったと感じていました。でも、これは実際にかなりクールなアップグレードです。
彼らはMidjourney内にコミュニティ機能を構築していて、自分のプロフィールを持つことができ、人々はあなたが生成した画像を見ることができ、さまざまなソーシャルメディアプラットフォームを共有できます。私のプロフィールはmidjourney.com/misterflowです。
ご覧のとおり、プロフィール画像やバナー画像の設定など、何も完了していませんが、ソーシャルメディアリンクはそこに置きました。さて、本当に楽しんでいただけると思う最後のことをお伝えしたいと思います。
でもその前に、私がこのチャンネルですべてのAIニュースを共有することから少し迂回したことを告白したいと思います。しかし、私はすぐに、AIニュースについて情報を得続けること、記事を読むこと、人々と話すこと、ツールで遊ぶこと、デモをすることが絶対に大好きだと気づきました。それが私の生きがいなんです。絶対に大好きです。
そして、ニュースを共有することをすぐに恋しく思うようになりました。ですから、迂回を終えました。軌道に戻りました。これらの週刊ニュースビデオを再び公開し、今週行ったように大きなイベントの個別のニュースビデオも作成して、詳細を提供します。このチャンネルを軌道に戻し、おそらくあなたが最初に私のチャンネルをフォローする原因となったことをやっています。
迂回してしまって申し訳ありませんが、ニュースを共有するのが好きすぎるのです。私にとってあまりにも楽しいのです。そもそもなぜ一時停止することにしたのか分かりません。それを言った上で、私がオンラインで見つけた、おそらく今やインターネット上で私のお気に入りのビデオとなったもので、このビデオを終えたいと思います。
ロシアが最初のヒューマノイド自律ロボットを公開したところをご紹介します。今日、私とオタク話をしてくれてありがとうございました。このようなビデオが好きなら、必ず親指を立てて、このチャンネルに登録してください。このようなビデオがあなたのYouTubeフィードに表示されるようにします。
そして、まだの方は、futuretools.ioをチェックしてください。そこで、最もクールなAIツールと最新のAIニュースをすべて共有していて、素晴らしい無料ニュースレターがあります。改めて、ありがとうございました。本当に感謝しています。次回でお会いしましょう。


コメント