2025年最大のAI週間ニュース(これまでのところ)

AIニュース
この記事は約25分で読めます。

2025年8月前半におけるAI業界の重要なニュース週間を包括的に解説した動画である。OpenAIによるGPT-5とGPT OSSの発表、AnthropicのClaude Opus 4.1リリース、GoogleのGenie 3世界モデル、その他多数のAI関連製品・機能のアップデートについて実際の使用例とデモを交えて紹介している。

The Biggest Week For AI News in 2025 (So Far)
Create your own AI avatar for free with Invideo. If you’re consistently producing content or UGC ads, check out their “G...

2025年最大のAI週間

これは間違いなく2025年最大のAIニュース週間やった。マジで疑いようがない。実際、今週はOpenAIが主役になる3本目の動画になるんや。

まずChatGPT-5の話から始めんわけにはいかんやろ。これは最新で最先端のモデルで、あらゆるベンチマークを吹き飛ばしとる。コーディングは素晴らしいし、ライティングも向上しとるし、速度も上がっとる。長く考えさせることも短く考えさせることもできるんや。これまでのChatGPTの中では間違いなく最高のバージョンで、おそらく現在利用できる最高のモデルやろな。

8月7日、GPT-5が発表された日に詳細な分析をやったんや。キーノートで発表されたすべてを詳しく解説して、ちょっとテストもして、キーノートと発表についての最終的な感想も共有した。だから今回はそこまで深く入らんけど、GPT-5について発表されたことの簡単なまとめを教えたるわ。

新しいモデルはほぼあらゆるトピックでPhDレベルの知能を持つって主張しとる。ツールにアクセスできるときは競技数学で実際に100%のスコアを出して、すべてのベンチマークを粉砕しとる。数学、科学の問題、人文学の最終試験で他のすべてのモデルを打ち負かして、現在最高のコーディングモデルや。

また、ハルシネーション(幻覚)もかなり減って、ユーザーを騙す可能性も低くなっとる。これは重要なことやな。新しいモデルで気づくのは、そう、混乱が少なくなっとることや。

古いモデルを覚えとるやろか。あのドロップダウンに選択できるモデルがいろいろあったんや。でもGPT-5はどのモデルを選ぶか考えさせんのや。GPT-5があるだけで、他にもいくつかモデルがあるけど、これらはプロプランだけやと思う。だから基本的には、GPT-5だけが見えて、他に使うモデルはないんや。

プロンプトに基づいて、もっと考えるべきか、あまり考えんでもええか、どうやってプロンプトに取り組むかを自動で決めてくれる。また、めちゃくちゃ速いみたいや。プロンプトを入れたらかなり速く反応してくれて、無料ユーザー、プラスユーザー、プロユーザーみんなが使えるようになっとる。上位プランやと、より多くのプロンプトとより多くのアクセスが得られるだけや。

GPT-5は今日、つまり8月7日から展開開始や。だからこれを見とる頃には、すべてのプラス、プロ、チーム、無料ユーザーが利用できるはずや。エンタープライズやEDUの顧客は1週間後に来る予定や。

パーソナリティもカスタマイズできて、より皮肉っぽく、よりプロフェッショナルにできる。最初は4つのオプションがある。シニック(皮肉屋)、ロボット、リスナー、そしてナードや。また、開発者向けにAPIですぐに利用可能やから、今日からWindsurf、Cursor、Bolt、その他のAIコーディングツールで使えるんや。

もしまだアカウントにこのモデルが展開されてなくて、まだ古いバージョンが見えとるなら、すでにMicrosoftのCopilotに展開されとる。だからCopilotで今すぐ使えるんや。実際、copilot.microsoft.comに行くと、チャットがあって、ドロップダウンでGPT-5がオプションとして利用できるのが見えるはずや。だから何らかの理由でアカウントにない場合は、Copilotを使って今日チャットできるんや。

実際にたった一つのプロンプトでこのバンパイアサバイバーズのクローンを作ってもらったんやけど、これがめちゃくちゃ良いんや。敵に向かって自動的に撃つキャラクターがいて、敵がXPを落として、XPを集められる。プレイし続けると敵の波がどんどん来て、見た目がちょっと違う強い敵も含まれとる。さらに、うまく機能するレベルアップも追加してくれた。

これをクリックすると、キャラクターが悪者と戦うための新しい武器を追加してくれたのが分かる。ワンショット、ワンプロンプトでこれを作った。コーディングに関しては本当に印象的で、今や最新鋭のコーディングモデルや。

繰り返しになるけど、発表された日にGPT-5でできることの超詳細な分析をやった。だからGPT-5でできることをもっと深く知りたいなら、必ずその動画をチェックしてくれ。でも、今すぐこんな機能を持つChatGPT-5にアクセスできるはずや。本当に驚異的やで。

すべての大規模言語モデル会社、Google、Anthropic、OpenAIが、これらの大規模言語モデルのキラーユースケースがコーディングやって気づいたみたいやな。理由の一つは、必要なときに必要なものに対してこれらのカスタムアプリを素早く作れることや。

もう一つの理由は、ベクターデータベース内の既存の学習では問題を解決する方法が分からん場合、スクリプトを書いてコードを使って問題を解決できることや。すべての会社がこの方向に向かっとるみたいやな。なぜなら、次の単語予測で問題が解決できん場合、ChatGPTが代わりに実行する小さなアプリを作ることで、理論的には次の単語予測では解決できんかった問題を解決できるかもしれんからや。コーディングがどんどん上達するにつれて、あらゆる可能性が開かれるんや。

GPT OSSの発表

これはOpenAIが今週発表した2つの大きなリリースの1つやった。彼らはまたGPT OSSも紹介した。これはオープンウェイトモデルや。2つのモデルをリリースした。GPT OSS 120BとGPT OSS 20Bや。これらは実際にローカルまたはクラウドで実行できるモデルで、オープンウェイトでローカル実行されるモデルやから、OpenAIや使っとる会社にデータを一切共有せんのや。そして、これらは本当に強力や。

GPT-5が出る前の最後の世代のモデルと同じくらい強力や。これを数日早くリリースして言った。「見て、これはオープンウェイトモデルや。好きなようにしてくれ。これを基に構築して、反復して、微調整して、このモデルで好きなことをしてくれ。これまでに出したすべてのモデルと同じくらい良いで」

そして2日後、GPT-5をリリースして、これが今や最先端の最高のモデルになった。でもこのGPT OSSは、GPT-5より前の最高のモデルと同じくらい良くて、オープンウェイトで利用可能になったんや。

だから、この点を確実にして、もうちょっと強調するために言うと、これはOpenAIが完全に無料で使用するためにリリースしたモデルなんや。一度ダウンロードすれば、使うのにインターネットは必要ない。オフラインでローカルに実行できるから、どこにもデータを送らん。そして今週初めまでの最先端モデルと同じくらい良いんや。

これも発表された日に完全な分析動画を作った。LM Studioを使ってダウンロードしてローカルで実行する方法の完全なチュートリアルも含めてな。だからこのモデルについてもっと知りたくて、実際にインストールして100%無料で自分で実行する方法を学びたいなら、必ず今週初めに出したGPT OSSについての動画をチェックしてくれ。

最近、OpenAIの回し者やって非難されたんやけど、正直言うと、ニュースがあるところに行って、最も重要な大きなニュースが起こっとるところについて話すんや。今週は完全にOpenAIやった。

OpenAIの小さなニュース

それに、小さなOpenAIニュースも言及すべきやろな。「ChatGPTを何のために最適化しているか」というブログ投稿を出した。そこで、ChatGPTを使いすぎることによる人々のメンタルヘルスを心配しとるって言った。だから近い将来、ChatGPTを使っとるときに「ちょっと確認や。しばらくチャットしとるな。休憩するのに良い時間やない?」っていうポップアップが出るかもしれん。「おい、落ち着け。ここに長すぎるで。外に出て草でも触れ」って感じで提案してくるんや。

Anthropic Claude Opus 4.1の発表

今週はAnthropicからも大きな発表があった。Claude Opus 4.1をリリースした。Claude Opus 4.1は約24時間の間、地球上で最も強力で最高性能のAIコーディングモデルやった。そしてもちろん、GPT-5がやってきて完全に影が薄くなった。

まだあまり並行比較はやってないし、もっとテストするつもりやし、他のチャンネルでも4.1とGPT-5を比較して、特にコーディングタスクでどれだけ良いかを見ると思うけど、まだそこまで深く入ってない。でもこの新しいClaude Opus 4.1モデルは、より良いコーディングモデルになるよう完全に最適化・設計されたんや。

Opus 4.1はSwebench verifiedで74.5%のスコアを記録した。これはソフトウェア開発でどれだけ良いかをランク付けするもんや。そして繰り返しになるけど、これはコーディングモデルで見た中で最高やった。もちろん、GPT-5がやってきて74.9%で打ち負かすまではな。

実際のAPIに関しては、Claude Opus 4.1は新しいGPT-5よりもかなり高い。100万入力トークンあたり15ドル、100万出力トークンあたり75ドル。比較してGPT-5は100万入力トークンあたり1.25ドル、100万出力トークンあたり10ドルや。だからGPT-5の方がわずかに良いのに、同じ土俵にも立ってない価格差やな。

でもclaude.aiに行くと、実際にCloud 4.1 Opusモデルをオプションの一つとしてアクセスできる。だからそれを選択して、簡単なテストプロンプトを試して、コーディングで何かを素早く作ってくれるか見てみよう。

このプロンプトを入れてみる。全プロンプトを見たかったら一時停止してくれ。基本的には30分のワークアウトをガイドしてくれるフィットネスアプリで、さまざまな筋肉グループをターゲットにして、カウントダウンタイマーなどがあるものを作ってくれって頼んどる。これを一つのアプリにまとめてくれるか見てみよう。

Claude 4.1は実際にコードを書いとる間、GPT-5よりもわずかに速く感じるけど、まだ並行比較はしてない。そして、これが出力したものや。パーソナルトレーナー30分デイリーワークアウト。主な機能:7つの異なる30分ワークアウトルーチン。

それぞれが異なる筋肉グループをターゲットにしとる。すべて自重のみ。器具は不要。スマートタイマー、音声フィードバック、進行追跡、達成システム、モチベーション、モダンデザイン。うん、かなり良い仕事をした。これをもうちょっと広くして、ワークアウト開始をクリックしてみよう。

音声フィードバックがある。音が出とる。エクササイズタイマーもある。タイマーを一時停止したり、再開したりできる。スクワットの後にジャンプスクワットをしたがっとる。タイマーがカウントダウンしたらどうなるか見てみたい。ゼロになると、20秒の休憩を取れって言ってくる。このカウントダウンが終わりに近づくと、今度はジャンプスクワットに移る。次はランジや。

だからこのワークアウトを通じて進めてくれる。違う日にやったら、違うワークアウトセットを提供してくれると推測する。正直言って、一つのプロンプトとしてはかなり良い。

好奇心から、同じプロンプトをChatGPT-5に入れてみた。Claudeが書いたものよりもはるかに少ないコードを書いた。これはここにあるコードファイルよりもずっと小さいけど、コードを実行してどうなるか見てみよう。

GPT-5からはずっとシンプルなウェブサイトが出てきた。デイリー30分ワークアウト。スタートを押してみよう。ジャンピングジャックスで30秒のカウントダウンや。カウントダウンがゼロまで下がると、ちょっと休憩。10秒みたいやな。

そしてプッシュアップに移る。聞こえる音声フィードバックはない。音が出てない。トラッキングや視覚的ダッシュボードもない。だからOpusが一発目のプロンプトでより良い仕事をした。

多くの人がコーディングに関してGPT-5対Opus 4.1のどちらが好きか議論すると思う。両方とも本当に本当にうまく動いとるみたいや。Opus 4.1が最初のプロンプトでより良くやったけどな。

どのモデルにも全く忠誠心を持たん人間として、行ったり来たりするのがすごく楽しいと思う。GPT-5がコーディング問題で行き詰まって解決できんようやったら、Opus 4.1に飛んで解決してくれるか見てみる。APIではもっと高いけど、GPT-5ができんかった問題を解決してくれるかもしれん。逆もまた然りで、どちらが最もうまく動くかに応じて行ったり来たりできる。本当に安価なコーディングモデルが欲しいなら、Gemini 2.5を使う。おそらく最も経済的な価格モデルや。

すべてのオプションがあって、すべてがこんなに良いという事実が大好きやな。

Nvidiaの新機能

最近Nvidiaからもニュースがあった。新しいAIツイン機能を備えたバージョン4.0をローンチした。この機能を使うと、自分の動画をアップロードして自分のデジタルクローンを作ったり、すでに作成済みの事前作成アバターを使ったりできる。

これを見てくれ。Nvidiaアカウントにログインして、AIビデオ作成をクリックすると、AIツインという新しいボタンがある。YouTubeからツインを作成したり、フレッシュに録画したり、声だけをクローンしたりするオプションがある。

この動画では、ゼロから録画してフレッシュな新しいアバターを作ってみよう。アバターへの録画をクリックする。最低60秒の動画をアップロードして、その動画で言葉によってInvidia AIに許可を与えるよう指示される。

だから、それを素早く録画してから、アップロードして何が起こるか見てみよう。AIアバターができたので、動画を作ることができる。30秒で心を吹き飛ばす3つのとんでもない事実みたいなプロンプトを入れることができる。ここでAIツインを選択する。続行をクリック。そして動画を生成できる。

重力が今あなたを下に引っ張ってると思う?どんでん返し。あなたは実際に時空を通して上向きに加速しとる。重力について心を吹き飛ばすもう一つのこと。ブラックホールに落ちたら、時間がものすごく遅くなって、あなたが事象の地平線を越える前に外の宇宙では数十億年が過ぎることになる。

正直、Nvidiaは最後の瞬間の再撮影、シンプルで楽しい広告の作成、または単に遊ぶためにもかなり良い。だって時々それは楽しいからな。このAIアバター機能を invideo.ioで実際に無料で試せる。必ず説明欄にリンクを貼っとく。今日のエピソードをスポンサーしてくれたNvidiaにとても感謝しとる。

Google DeepMind Genie 3

すでに言及したものだけでも史上最大の週にするのに十分やなかったら、Google DeepMindからもニュースがあった。新しいGenie 3を披露した。これは最前線の世界モデルや。Genie 3のウェブサイトには他にもいろんなデモがある。

これは月の表面、または火山の表面をナビゲートしとるみたいやな。これは誰かがライトフェスティバルでジェットスキーに乗ってナビゲートしとる。実際にそのライトに当たって、当たるとライトが横に弾かれるのが見える。

フロリダの舗装の上を2車線道路の横で歩いとる。こっち側で波が打ち寄せとる。ユーザーはこれが起こっとる間にリアルタイムで見回すことができて、水中でクラゲを追跡したり、沿岸の崖の上でヘリコプターを飛ばしたりしとる。

実際に矢印キーを使ってこのヘリコプターと向いとる方向をコントロールしとる。これは本当にワイルドや。彼らのウェブサイトには他にも見ることができるデモがたくさんあって、これが本当に本当に何ができるかを見ることができる。だってこれは正直言って絶対にワイルドやからな。

まだ実際にこれを自分たちで遊べるアクセスはない。早期テスターに提供しとる。早期テストを手に入れて遊べるかもしれんけど、これは絶対にワイルドで、見とるフレームがすべて生成されとる。キャラクター、プレイヤーが矢印キーを使ってレベル内を移動するとき、すべてのフレームが生成されとるんや。

この飛行島みたいなところにジャンプしたりもしとる。ワイルドな事だらけや。もっとデモがここにある。ネタバレはせんけど、Genieサイトをチェックしてくれ。すべてのリンクは説明欄にある。でも、すでにこの種のことでできることに心を吹き飛ばされとる。

この5年間AIを追ってきた人間として、人々がすでに当たり前やと思っとることに本当に驚かされとる。5年前には、このどれも可能に近くなかった。5年前には人々がこの種のものを作ることを考えてもなかったと思う。そしてここで、想像できる以上に良くなっとる。

Xのジェイコブ・バウアーが別のユースケースを見せとる。実際に動画を渡せるんや。これはVO3で生成された動画で、動画の途中でGenie 3に切り替わって、今度は彼がフライトをコントロールしとる。だから実際に動画を与えて、動画のコントロールを取ることができるんや。楽しまんわけにはいかんやろ?

Geminiのストーリーブック機能

Googleは今週、Geminiアプリを使って個人的な絵本を作れる機能も展開した。まだ試してないから、何をするか見てみよう。Geminiアプリで今日試してみって。

リンクをクリックすると、ストーリーブックにあるのが見える。どれだけクリエイティブにストーリーブックを作ってくれるか見てみよう。実際にあまり詳細を与えんでな。若い少年が冒険に出る話のカスタムアートを使ったストーリーブックを作って。冒険についてはすべてあなた次第やけど、オリジナルでユニークであるべきや。

どんな話を作ってくれるか見てみよう。あまり材料を与えんでな。すぐに詳細を聞いてきた。読者の年齢、10歳にしよう。イラストスタイル、カートーンにしよう。それからトーン。ユーモラスにしよう。そして仕事をさせよう。

1分半くらいかかったけど、本ができた。「サムの壮大な靴下の冒険」や。表紙がこれ。サムやと思う。なかなか良いアートや。片手に地図、もう片手に懐中電灯を持ったサム少年が地下室の階段の上に立っとった。今日、セバスチャン、彼は感動してない猫に宣言した。危険な洗濯室洞窟に冒険して、伝説の失われた靴下を見つけるんや。

全体で10ページあるみたいやな。2ページ目。全部は読まんけど、本全体を読みたかったら好きなページで一時停止してくれ。3ページ目。アートもすべて一貫しとるのがかなり印象的や。キャラクターも同じに見える。あの乾燥機は何が起こっとるんや?6ページ、7ページ、8ページ、9ページ、そして最後に子供が靴下を手に入れる。最初からやり直すボタンがある。

かなり楽しい小さなアプリやな。子供のために小さな本を作るのはクールやろな。もっと大人の本も作れるか気になる。あなたが思ってるようなことやない。新しい親に贈るファニーギフト本の「Go the F to Sleep」みたいなやつや。そういうのも作れるか気になる。

だから小さなストーリーブックジェムに戻って、ちょっと検閲するつもりや。これはファミリーフレンドリーなチャンネルやからな。でも「Put Your Away」っていうストーリーブックを作って。子供たちの後片付けをずっとしてる父親の話や。作ってくれるやろか?見てみよう。

今回はフォローアップの指示を聞いてこんかった。タスクを知ってるみたいやった。実際にやってくれたのにはちょっとショックや。本と表紙とタイトルができた。検閲しとるけど、何の話か分かるやろ。

パパは忍耐強い男やった。優しい男で、何よりも子供たちを愛しとる男やった。でももし、もう一つのおもちゃを片付けなあかんかったら、理性を失いそうやった。全部良さそうやな。似たようなアートスタイル。4ページ。アートは全部本当に良い。すべて一貫したデザインを持っとる。

すべて良く見えとる。7ページ、おもちゃを見つけることができる。8ページ、レオとミアが散らかりを見た。それからおもちゃ箱が空なのを見た。それからお互いを見た。小さな電球が点いた。ゆっくりと、彼らは片付け始めた。

タイトルと本全体で多分2つの悪い言葉以外は、大体フレンドリーや。「Go the F to Sleep」本ほど汚い言葉やなかったけど、そもそもこれをやらせてくれたのには実際にショックやった。拒否されると思ったんや。

Grokの新機能

Grokが画像と動画を作れるGrok Imagineという新機能を展開した。動画を作るとき、VO3のように動画に音声もついとる。そして本当に本当に速い。

現在のところ、Grokアプリ内で使わなあかん。ここではすべてのSuper GrokとPremium Plusサブスクライバー、有料プランで利用可能やって言っとる。しかし、イーロン・マスクがXで、今後数日間、Grok Imagine動画生成はすべてのアメリカユーザーに無料やって言った。Grokアプリをダウンロードして試してみてって。

だからアメリカにおったら実際にGrokアプリで無料で使えるんや。アメリカにおらんかったらどうなるか?誰かがXで「兄弟、世界中のすべてのユーザーに無料にしてくれ」って言った。そしたらイーロンが「VPN使え」って言った。だから、VPNを使ってアメリカ外におったら、Grok Imagineを動かすことができるらしい。

iPhoneで見てみよう。Grokアプリ内で、一番上にImagineボタンがある。下にも動画作成ボタンがある。上のImagineをクリックしてみよう。他の人が生成した画像がたくさんあるのが見える。すぐに何かをアニメーション化する最も簡単な方法の一つは、すでに作られた画像を選ぶことや。

動画作成ボタンがあるのが見える。この動画作成を使うときは、必ずオプションを選んでくれ。ノーマル、ファン、スパイシー、カスタムがある。スパイシーモードは、まあ、職場では安全やない。このレゴのモナリザでファンモードを試してみるとどうなるか見てみよう。

アニメーション化し始める。音声もあるけど、コンピューター経由で再生されへんから、マイクを近づけとる。うまくいけば聞こえるやろ。ちょっと変や。でも選べる他の3つの生成も作ってくれたけど、すべてかなり似とって、この特定の動画では変や。やった動画のほとんどはこんなにファンキーにならん。

誰かが作ったこの人魚のやつを開いてみる。スパイシーにしたらどうなるか見てみよう。多分検閲せなあかんやろな。そんなに悪くなかった。やった他の動画ほどスパイシーやなかった。でも普通のテストをいくつかやったのが見えるやろ。ローラースケートの猿、月に吠える狼、なかなか良かった。

でも初めて好奇心でスパイシーモードをやったとき、これをやったんやけど、見せることすらできんと思う。だから、イーロン・マスクが作ったアプリから期待する通りのことをしてくれるやろな。

Quinnの新画像モデル

今週、Quinn imageという新しい画像モデルが出て、多くの人が現在最高の画像モデルやって主張しとる。テキストができる。リアルな画像ができる。カートゥーン画像ができる。みんながこれを絶賛しとる。chat.quinn.aiに行って、ここの画像生成モデルをクリックして遊べる。

月に見えるテキストと一緒に月に吠える狼みたいな画像を生成できる。そしてほぼ完璧にやってくれる。Quinnでログインすらしてないのに、ウェブサイトで無料で生成させてくれた。いずれ生成回数が尽きてログインを求められると思うけど、現在のところ、ログインする必要すらなしに画像を生成できた。テキストも全部かなり良い。

1年半前のテキスト画像の状況と比べると、クレイジーや。今や画像モデルが良いテキストをやってくれるのは当たり前になった。

画像モデルといえば、私がアドバイザーを務めるLeonardoという会社から新しいモデルが出とる。だからそれをすぐに言っとくけど、現在のお気に入りのモデルで、視覚的美学センスにアピールするモデルや。

この新しいLucid Originモデルと作る画像が本当に好きや。MidJourney V4が出たときにMidJourneyから得とったものを思い出させてくれる。みんなが本当に本当に感動したときのな。この美学が本当に好きや。

Leonardoアカウントで、上の画像をクリックして、モデルでLucid Originを選択できる。バンパイアがワーウルフと戦うプロンプトを入れてみる。プロンプトを改善してもらおう。そして生成してみよう。

それぞれにかなり絵画的な画像を作ってくれたのが見える。悪くない。でもそれは私が目指す美学やない。だからプロンプトの新しいバリエーションを生成してみよう。本当に好きな美学の、かなりクールなコミックブック風のアートが出てきた。

これがもっと生成したやつや。これはゲームのカットシーンみたいに見える。これはリアリズムが入っとる。だから、また本当に良い画像モデルや。Leonardoが展開したもう一つの機能はV3や。

ビデオモードをクリックすると、今度は実際にVO3を使って動画の画像から始めることができる。これは全く新しい。開始フレームができんかった。以前はテキストから動画だけやった。今は画像から動画ができる。

ここをクリックして開始フレームを追加できる。すでにアップロードした画像から選ぶか、生成から選ぶことができる。このワーウルフ生成の一つを選んでみよう。確認する。バンパイアがワーウルフと戦うという基本的なプロンプトを与えて、何が出てくるか見てみよう。

これが生成したものや。スローモーションの戦いみたいに感じるし、バンパイアがワーウルフに腕を食べるようにからかっとる。でもLeonardoに画像から動画生成があるのは本当にクールや。

11 Labsの音楽生成

そして、今週のクレイジーなリリースはまだ続く。11 Labsが新機能をリリースした。今度は11 Labsから音楽を生成できる。すでにテキストから音声、既存の音声を別の音声に、効果音、ドラムマシンができとった。今度はSunoやUdioと競合して、11 Labs内で直接フルの音楽を生成できる。

11 Labsに飛んで、これを自分で試してみよう。音楽を生成したことがないから、これが初めて聞くことになる。11 Labs内で、左サイドバーに音楽がある。ホームページにも音楽がある。音楽セクションをクリックしてみよう。

「あなたの歌を説明して」って言っとる。持続時間も説明できる。自動のままにしとこう。歌の2つのバリエーションを生成してくれるみたいやな。最新のAIニュースをループで知るためにYouTubeでMatt Wolfを見るべきやという3部ハーモニーの2000年代初期のポップパンクアンセムのプロンプトを入れてみる。

私のチャンネルをしばらく見とる人は知っとるやろうけど、2000年代初期のポップパンク音楽のファンや。過去にSunoやYoやそういうツールをテストしたとき、どう比較されるか見たいから、そのスタイルを生成しとる。どうなるか見てみよう。

興味深いのは、すぐにすべての歌詞を生成したことや。そして下のタイムラインが見える。見とると、実際に新しい音声がこのタイムラインで生成されるのが見える。バース3はまだ生成されてないけど、コーラスまで生成された。リアルタイムでこれが目の前で生成されるのを見るのはクールや。

歌を聞いてみよう。彼は究極のスクープや。ボリュームを上げろ。脳を軌道に乗せろ。参加しろ。全然悪くない。

個人的には、まだSunoとYuioの方がわずかに良い仕事をすると思う。特に歌声で。歌声がAIやってまだ聞こえるし、単語が少し変に聞こえる。単語を少し混ぜすぎる感じや。でも音は良い。歌に合わせて頭を振っとった。

Sunoはまだ最初からキャッチーな歌を作ると感じるけど、これが最初のプロンプトやったから、本当に微調整して調整できることがもっとあると思う。もっとずっと遊んでみる。最初からは、Sunoに勝つとは必ずしも思わんけど、本当に良くて、リアルタイムで生成されるのを見るのは本当に楽しい。

もう一つ簡単なテストをしたい。もう一度音楽をクリックして、ボーカルなしで何かを生成してみたい。実際にベースラインだけとか、ギターリズムだけとか、バックグラウンド音楽なしでボーカルだけとかのステムが作れるからや。

リズムギター、ベース、ドラムだけで、ボーカルもリードギターもないブルースリズムを試してみよう。キーはGにすべきや。何を生成してくれるか見てみよう。アイデアは、リズムバッキングトラックを生成することや。ギター、ベース、ドラムで歌なし、リードギターなしが得られたら、本物のギターで上に重ねてジャムできる。

上でスタイルを含む、ブルース、リズミックグルーブ、インストゥルメンタル、シャッフル、キーG、除外スタイル、ボーカル、リードギター、ソロ、ハーモニカ、キーボードが見える。これがやってくれたことや。

ちょっと待って。チューニングせなあかん。

めちゃくちゃ楽しい。特に音楽家で、歌の他の小さな部分を作って、自分の楽器をオーバーレイしたり、AIが作った歌にジャムしたりしたいなら。めちゃくちゃ楽しい。本当にワクワクする。

これが今日共有したかった最後のデモやった。他にもいくつか超簡単なことを共有したい。だから速射セクションに飛ぼう。

速射セクション

MidJourneyを使うのが大好きなら、プロまたはメガサブスクライバーの一人やったら、HDビデオモードを展開した。だから高めの有料プランの一つにいる必要がある。生成するのは少し高い。少しってかなり高い。3.2倍高いけど、デフォルトSDビデオの4倍のピクセルが得られる。MidJourneyから高品質ビデオが必要やったら、それらのプランの一つにおったら利用可能や。

Google会社のKaggleは基本的に、異なるAIモデルを互いにテストするために使う一連のゲームを作っとる。最初にやっとることは、現在どのモデルがチェスで最高かを評価するAIチェストーナメントや。3日間のAIチェスバトルで、ゲームで最高のモデルを見つけるためにGoogleが主催する一連のトーナメントの最初や。

モデルは思考と推論能力を評価するよう設計された一連の戦略ゲームで互いに競う。最初のラウンドでは、chess.comとパートナーシップを組んだから、すぐに利用可能なAIモデルのどれがチェスで最高かが分かる。チェスの後は、他の一連のゲームと対戦させる予定や。見て、フォローするのは楽しいはずや。

最後に、イーロン・マスクがXで、Grok 5は年末までに出て、圧倒的に良いって言った。GPT-5がローンチした同じ日にこの投稿をした。

正直に言うと、今週はOpenAIから大きなニュース、Googleから大きなニュース、Anthropicからかなりの規模のニュースがあって、Xがちょっと取り残された感じがする。

Imagineを出したけど、多くの人がそれについて話してるようには感じん。だからイーロンが「まあ、Grok 5が来るし、本当に本当に良いやろな」って感じで行った。これがこのツイートについて感じることや。おそらく本当の動機やない。読みすぎてるかもしれんけど、Grok 5が出るらしい。

Grok 4がちょうど1か月前に出たのを覚えとるやろ。だからもうGrok 5について話してるのはクレイジーや。また、これはイーロンやということを心に留めとかなあかん。イーロンはスケジュールが得意やない。だからGrok 5が2025年末までに実際に日の目を見るかどうか推測するなら、多分見んと推測する。実績に基づいてな。

でも期待しとる。新しいモデルを見るのが大好きや。新しいモデルをテストするのが大好きや。新しいモデルをテストする新しい方法を見つけようとしとる。今出とるクレイジーな数学と科学ベンチマークの代わりに、これが実際に日常の人にとってどう役立つかのベンチマークを開発するのが目標や。自分のを開発したい。まだそれがどんな感じになるか正確には決まってないけど、出てくるすべての新しいAIモデルが大好きやから、お互いにテストできる。

だから年末までにGrok 5が得られることを願っとる。ただ息を止めて待つつもりはない。

まとめ

これが今回のすべてや。大きな週やったのは分かる。クレイジーな週。たくさんのことが起こった。たくさんの新しいリリース。GPT-5、GPT OSS、Anthropic Opus 4.1、Genie 3、11 Labs Music、Leonardoの新しいモデル、新しいQuinn画像モデル。

一週間やった。クレイジーな週、楽しい週。AIに注意を払っとるなら、これまでで最高の週の一つやった。めちゃくちゃ良いものがたくさんあって、さらに加速してるように感じる。知っとる通り、私はそれを歓迎しとる。

だから最新のAIニュースをループで知って、出てくる最新のクールなAI技術の使い方チュートリアルを得たいなら、必ずこの動画にいいねして、このチャンネルを購読してくれ。最新のクールな技術についてのより多くのクールな内容がYouTubeフィードに表示されるようにする。でもこれが今回のすべてや。

一緒にハングアウトして、私と一緒にオタクしてくれて本当にありがとう。素晴らしい週やった。今年こういうワクワクする週がもっと来ることを願っとるし、そのために私はここにいる。うまくいけばこういう将来のエピソードに参加してくれるやろ。それが今回のすべてや。オタクしてくれてありがとう。うまくいけば次回で会えるやろ。バイバイ。

今日私と一緒にオタクしてくれて本当にありがとう。こういう動画が好きやったら、必ず親指を立てて、このチャンネルを購読してくれ。こういう動画がもっとYouTubeフィードに表示されるようにする。まだやってないなら、futuretools.ioをチェックしてくれ。そこで最もクールなAIツールと最新のAIニュースをすべて共有しとる。素晴らしい無料ニュースレターもある。また本当に感謝しとる。

コメント

タイトルとURLをコピーしました