新しいClaude 4.1、新しいGPT-OSS、新しいGenie 3、新しいCrewAI STUDIO|今年最もイカれた一週間のAI

AIニュース
この記事は約20分で読めます。

この動画では、2025年の最初の週に発表された4つの重要なAI関連リリースについて解説している。OpenAIが初めてオープンソースの推論モデル「GPT-OSS」を発表し、AnthropicがClaude 4.1をリリース、GoogleがリアルタイムAI生成ワールドモデルGenie 3を公開、さらにCrewAIがエージェント作成のビジュアルプラットフォーム「CrewAI Studio」を発表した内容となっている。

NOVO Claude 4.1, NOVO GPT-OSS, NOVO GENIE 3 e NOVO CrewAi STUDIO | A SEMANA MAIS INSANA DO ANO da iA
Aprenda Inteligência Artificial! ▸ Aprenda Agentes iA: ▸ Seja MEMBRO:

今年最も狂った一週間の始まり

おー、皆さん、もうめちゃくちゃやばいですわ。4つのメガ・スーパー・マスター級のリリースが一気に、ほぼ同じ日に発表されましたがな。OpenAIが無料モデル、つまりオープンモデルをリリース。Claudeが4.1バージョンを発表。Googleがワールドモデルという、いま皆さんが見てはる動画に映ってるGenモデルをプレゼン。

そして我々がもうちょっと忘れかけてたけど、エージェントと働いてる人らの頭に残ってたやつ、CrewAIがエージェントプログラミングのビジュアル版をリリースしてるんですわ。そうなんです。何が起こってるか理解していきましょか。一緒に来てください。そういうことですわ。さあ、皆さん行きましょ。

いつも通り、いいねを押してくれた皆さん、チャンネル登録してくれた皆さんに感謝してます。この人工知能チャンネルをスポンサーしてくれてるチャンネルメンバー全員に特別な感謝を。メンバーの皆さんには、WhatsApp統合、PDF読み込み、ドキュメント、MCP統合などなど、私がどうやってやるかを教えるインテリジェント・エージェントの限定動画にアクセスできるということをお忘れなく。それに早期アクセス動画もありますからな。

世界がひっくり返る時代

そんなわけで皆さん、もうご存知の通り、我々は世界がありとあらゆる分野でひっくり返ってる時代に生きてるんですわ。人工知能、遺伝学、エンジニアリング、政治、全部、全部、全部、全部、全部がひっくり返ってる。そして今日のニュースがこれですわ。

クローズドで有名やったOpenAIが、全部のモデルを閉じてて、基本的にはHugging Faceに放置されてたGPT-2の古いちっちゃいバージョンしかリリースしてなくて、あまりにもひどくて誰も使ったことがないような代物やったのに。ついにオープンモデルをリリースしましたがな。そしてそれより大事なのは、これらが推論モデルやということです。

OpenAIのGPT-OSSモデル

簡単に言うと、1200億パラメーターのモデルと200億パラメーターの別のモデルがあって、彼らはOSSと呼んでる。これらはオープンウェイトモデルで、つまり既に訓練されたモデルにアクセスできるけど、訓練に使われたデータや訓練方法にはアクセスできないということ。既に学習した脳を受け取って使えるけど、どうやってそこに到達したかは分からない、みたいなもんですな。

Apache 2.0のフレキシブルライセンスで利用可能。強化学習やO3モデルでも使われたテクニックを使って訓練された小さなモデルで、私は本当にお勧めします、OpenAIの最高のモデルの一つです。

彼らが言うには、この1200億パラメーターの大きなモデルは、だいたいGPT-4o Miniのレベルで、80GBのGPUで動かせるとのこと。いや皆さん、これはちょっと大きなGPUですわな。商用のGPUを考えると、ええやつで大きいやつでも16GB、32GB、めちゃくちゃお金持ちでも32GBぐらいでしょう。

だから本当に80GBのGPUはかなりのもんです。そして200億のちっちゃいモデルはO3 Miniのレベルで、動かすのに最低16GBのメモリが必要やと言ってます。そこでようやくええGPUの話になってきますが、それでも高いGPUですわな。確実にこれから量子化されたもっと小さなモデルが出てくるでしょうが、それでも興味深いことです。

機能とアーキテクチャ

彼らでツール使用ができるんです。これも素晴らしいことで、ファンクションとも呼ばれて、チェーン推論もできる。他の言葉で言うと、このモデルをエージェント作成に使えるということ。もしええPCを持ってたら、ローカルで動くインテリジェント・エージェントを使える以上にええことはないですわ。

モデルはAPIと互換性があって、これは予想通り。そして既に言ったように、ウェブ検索やPythonコード実行、推論リソースなどのツールを使って指示に従えるエージェンティック・ワークフロー用に設計されてる。完璧。これは素晴らしいですわな。

面白いことに、彼らはMixture of Expertsアーキテクチャを使ってる。あの手法で、1200億パラメーターを持ってるけど、アクティブなパラメーターは実際には大きいモデルで51億パラメーターだけ。200億のモデルでは36億パラメーター。これは興味深いことで、例えば、160億パラメーター全部をメモリに割り当てて、全部をメモリに投げ込むけど、全ての数十億パラメーターを同時に使うわけじゃない。

より速くなりたいから、必要な時にすぐ使えるように全部をうまく配置しておくけど、実際には全部を同時に使わない、これらの小さなブロック、エキスパートがいる場所を使う。結果として、多くのメモリを使うけど、実際には全部を同時に使ってるわけじゃないということ。

訓練とテスト結果

訓練は基本的に英語で、テキストのみなのでマルチモーダルじゃない。科学、技術、エンジニアリング、数学、コーディング、一般知識に焦点を当ててる。だからこれは本当にテキストモデルで、そのおかげでええ感じで小さくできるんです。

GPT-4o MiniとGPT-4oで使われたトークナイザーも使ってる。そして使ったトークナイザーのオープンソースコードもリリースしてる。これはかなり面白いことで、新しいモデルを作ってる他の人たちも彼らのトークナイザーをベースにできるということ。

ポスト訓練では、監視された細かい調整と高計算強化学習のステップがある。だから実際にはここに新しいことはなく、いつものこと。基本的な昔からのアイデアを使ってる。

重要なことは、両方のオープンウェイトモデルが3つの推論レベルをサポートしてる:低、中、高。だから使う時に、どれくらい考えてほしいか、少し多めか少なめか、それともたくさん考えてほしいかを指定できるんです。

ベンチマーク性能

これらのモデルのベンチマーク性能を見てみると、ツールを使った1200億のモデルがCodeForcesで2600点を取った。これは最も難しいテストの一つで、少し前にO3モデルやA4モデルが2700点を取って皆が自慢してた。でも今はもう小さなモデルたちも有名になり始めてて、状況がかなり変わった。

200億のモデルも、ツール使用で2500点を取った。これはかなり大きなスコア。ツール使用の重要性を実践的に理解するために、我々がよくする質問を考えてみましょう。strawberryという単語にRの文字が何個ある?みたいな。

モデルがこれを自分の訓練だけ、持ってる情報だけで答えようとすると間違えるかもしれないけど、例えば、単語の文字を数えて結果を返すPythonコードを作ることができる。だからツール使用のアイデアは、計算機を持った人間と同じこと。計算できることを知ってても、計算機があると効率的になって、とてつもないパフォーマンス向上になる。

テスト結果への疑問

ここでの全てのテストで重要なことは、これらは小さなモデルでとてもよくやってるけど、同時に見てる皆さんも私と同じように感じてるはず。これらのテストは今ではそんなに意味がない。これらのテストの有効性は人間の場合と同じじゃないということはもう分かってる。

これを理解する一番簡単な方法は、人間は段階的進化的学習をするということ。ちょっとしたことを学んで、そのちょっとしたことからもう少しよく学ぶ。そのちょっとしたことをもっとよくして、さらによくしていく。だから人間は最初の文字から、最初に話した言葉から、読み方を学び始めて、書き方を学ぶまで、連続的進化的プロセスで、どんどん多くのことが加わっていく。

人工知能は全然違う。既にたくさんの情報を持ってて、全部を一気に学ぶ。だから人間がテストで高得点を取る時、その進化的プロセスを通過したことが分かるし、そこにあった以前のことを学んだ、または少なくとも学んだはずだと断言できる。

人工知能では、全部を一気に学ぶから、これらのテストはあんまり意味がなくなるけど、とにかくここにテストがあって、これらのモデルがよいことを示してる。

実際の利用とテスト

そしていつ使えるか?これらのモデルは既にHugging Faceで無料ダウンロードできる。入って、ダウンロードして、テストするだけ。Open Routerでいくつかテストしてみて、比較的面白い結果になった。

例えば、我々がよくやる車のゲーム。プレイ可能な小さなゲームになった、シンプルなゲーム。一般的にモデルはこれよりもう少し複雑なゲームを作るけど、とにかくテストは通過した。

これは200億のモデルでやったように見える。だから小さなモデルで、コインがあって、小さな木があって。グレーのやつが電車で、赤いのがAIで、投げて取って集めるコインがある。だからプレイ可能になった。

私は何も修正してない。修正したのが見えるけど、実際には私のミスで、最初のバージョンをここでもう一度実行した時は動いてた。何かの小さなバグがあった時だった。2回目を作ったけど、必要なかった。そしてその後1200を使ってバージョンを作った。

1200はもう少しよくなった。もう少し複雑になって、車にはもう車輪があるけど、よく見ると、ゼロショットでもこれよりよいゲームを作る無料の中国モデルがある。だから気づいたのは、これは堅実なモデル、使うのに面白いモデルで、我々が望む通りにコードを提供してるということ。

でも例えば、このモデルを使う価値があるか、それとも中国の小さなモデル、例えばQwen 3が使えるかを知るために、より広範なテストをする価値がある。Qwen 3は素晴らしいからな。でもとにかく物事は機能してる。

パゴダのテストをした時は機能したけど、見てわかるように、黒いマップで全部暗くなった。何度か画面を明るくするように頼んだ。役に立たなかった。生成した全バージョンが暗いバージョンだった。最初のバージョンはもっと暗かった。これは2番目のバージョンで見ることもできないし、最初のバージョンは何も見えない黒い画面だけ。

だから改善を頼み続けると、マップがあって物事が機能してることがわかるけど、画面が暗くなった。もう少し主張して、1200モデルでここで別の生成もした。黒い四角を作り続けた。なぜそうしてたのか説明できない。今回は何千回も主張して、この画像にたどり着くためにバージョン5まで行った。黄色い小さな太陽があって、青い背景があるけど、ここのプラットフォームとパゴダは全部黒くて、カラフルなものを作るよう頼んでも何も見えない。

OpenAIの公式プレイグラウンド

面白いことに、OpenAI自身がここでプレイグラウンドを作った。GPT-OSSね。アクセスすると、基本的にはChatGPTだけど、これらのモデル専用で、1200と200億の両方をテストできて、高、中、低の推論レベルを設定できる。

推論を表示するかどうかも選択できる。だからここで高レベルに設定して、最初に生まれたのは卵か鶏かと質問すると?シンプルな質問だけど、とにかく見える。ここで一定の推論をして、その後で卵と鶏の問題に答え始めた。

低い推論レベルではどうなるか見てみよう。低レベルに設定した。質問を送る。すぐに答え始めることを期待してる。考える時間もない。そして正にそれが起こった。1秒未満で考えて、すぐに答えを送った。だから推論レベルは2つの意味で適応的だということがわかる。

一つは質問の難しさで、質問がもっと複雑なら、さらに時間をかけるということ。同時に、質問が簡単なら、もっと速く答える。だから質問の難しさがどれだけ考えるかに影響するし、設定も同様。

他のプラットフォームでの利用

アクセスできる他の場所、例えばGroq-Q。ここで1200に設定できて、プロンプトを送ると、Groqは速いことで有名だから、ジェット機並み。この画面にテキストが落ちてくる速度を見て。本当にとんでもない。速いものが欲しいなら、Groq-Qに来るべき。

そして見て、小さなゲームの完全なコードが来た。基本的には考える時間で、全体のコードがすぐに落ちた。だからパフォーマンス、速度、ジェット機のようなものが欲しいなら、Groq-Q。これはイーロン・マスクのGrokじゃない、別のもの。

使える別の場所はHugging Face自身。例えば1200億でモデルを検索できて、横の小さな画面にinference providersがある。どのinference providerを使いたいか選択できる。ここにテキストを置いて送信すると、ここで答えてくれる。推論チェーンを作って、全部きちんとやって、ここでも無料で使える。

ローカルで動かしたいなら、Ollamaにある。モデルをダウンロードして小さなPCで動かせる。GPT-OSSに200億と1200億の両方のモデルがあって、200億をテストすることをお勧めする。最低16GBのRAMが余ってるか、16GBのRAMを持つ専用ビデオカードが必要だということをお忘れなく。

もうちょっと小さなカードを持ってたら、動くかもしれないけど、かなり遅くなる。だからやってみて、下でコメントして、テストでどう思ったか0から10までの点数をつけて。私個人としては、このモデルを気に入ったと告白する。ツールと推論があるから面白いけど、いくつかテストした中で、あまりよくなかったものもあったと告白する。

既にとてつもなくよいレベルにある他の無料の中国オープンモデルがあって、このモデルよりもかなりよい。テストしてないけどテストしたいのは、エージェント構築のためのツール使用で、そこでこれがどうなるか、価値があるかないかを見たい。

エージェントでテストしたことがあるなら、うまくいったかコメントして。後でテストして何が起こるか見てみる。

Claude 4.1の発表

次のニュース、Claudeがここで4.1バージョンのアップデートをリリースした。彼らがコメントしてる。コーディングとAIエージェントの境界を拡張するハイブリッド推論モデルで、200Kのコンテキスト・ウィンドウを提供。

実は、ウィンドウはもうかなり長い間サイズが変わってない。200Kを維持してて、今日に始まったことじゃない。彼らはこう言ってる。Claude Opus 4.1はOpus 4の即座の代替で、リアルワールドコーディングとエージェントタスクで優れたパフォーマンスと精度を提供する。より厳密さと細部への注意で複雑で多段階の問題を処理する。

Pro、Max、Team Enterpriseユーザーが利用可能。だから無料アカウントだと4.1は使えない。APIでも利用可能。Cloud Codeでも利用可能。でもこれは明らかで、APIにあるなら、明らかにCloud Codeにもあるから、サブスクリプションかAPI経由で使うことになる。

入力で100万トークン15ドル、出力で100万トークン75ドルで、これは比較的高い価格。実際、高くなり始める価格で、200ドルのモデルも見たことがある。キャッシュラピドを使えば90%節約、バッチ処理で50%節約。キャッシュラピドは基本的に、長い会話で、既に送ったテキストを再送信して、既に計算したことを再計算することを避けるために、キャッシュに入れる時。

バッチ処理は、毎日処理するスケジューリングに関係してて、「処理するものを送るから、できる時に処理して」みたいに言える。それで処理キューに入れて、1時間後に送ってくれる。

Claude 4.1の性能と利用

使用例は基本的にもうコメントした。エージェント自動化、高度なコーディング、これは既にClaudeの名声で、SWE Benchでリーダーだと言ってる。これは単純に素晴らしい。検索とリサーチ、コンテンツ作成もできる。

ここでのパフォーマンス比較では、バージョン4より若干よく、数パーセントポイントよい。あまり多くないけど、少しよいだけでもこのモデルを使いたくなるのに十分。だから例えば、ここで使いたいなら、無料版ではアップグレードが必要で、どうしようもない。

今日、Proバージョンの価格は年間サブスクリプションなら月92レアル、月払いなら税込み110レアル。XでG Sparkで4.1バージョンが無料で利用可能になったと言ってるのを見た。それでG Sparkに来て、Claude 4.1を選んで、パゴダのテスト生成をして何が起こるか見た。

これがClaudeが作ってくれたパゴダの生成。見てわかるように、前のビデオを見たなら、かなりシンプルで、そんなに高度じゃなく、かなり静かで、もっと面白いバージョンがあるし、ここのコントロールもそんなに直感的じゃない。混乱するコントロールになったけど、どうやら全部機能してる。

でも見せたいことができない。ここでもっと速く回転したいけど、回転しなかった。だからゼロショットではこれが出た。でも気づいた面白いことは、Claudeはこのパゴダを作るのがあまり得意じゃない。パゴダ生成で最もよい結果を得たのは、Horizon AlphaとHorizon Betaを使った時だった。

そう、皆さん。Open Routerにある秘密のモデル、あれが最もよいパゴダの結果を得たもの。でも全てうまくいけば、近いうちにもっとよいビデオを作って、もっと深いテストをする。もっと多くのクレジット、サブスクリプションで、やってみてもっと面白いことをする。

でも下でコメントして、4.1を使ったテストに0から10までの点数をつけて、どう思ったか、価値があるかないかを言って。たくさんの人がこれが価値があるかどうか知りたがってるからコメントして。

Google Genie 3の発表

今日の3番目のニュース、Genie 3、ワールドモデルの新しい境界。これらは生成AIができて、リアルタイムでシミュレーションを実行し、ユーザーがコントロールするリアルタイムビデオを生成するモデル?左下角の小さな矢印が右に押されてるのが見える。例えば、使ってる人がこれらのボタンを下、上、一方向、他方向に押してるのがわかる。そしてこれらのシミュレーションを示してる。

皆さん、これは小さなゲーム。この品質レベル、このとんでもない画像生成レベルがリアルタイムで生成されてるんです。リアルタイムで。この技術が我々の人生にとってどれだけ重要かわかってるかな。我々はとてつもなく高度な技術レベルにいる。5年、10年後には、現実的な物理でリアルタイム生成される非常に複雑なゲームをプレイしてることは間違いない。

歴史を少し理解するために、例えば最初の世代のGame Engine、Doomを実行してたり他のタイプのゲームをやってた時、解像度は320pだった。それからGenie 2を作って、360pで、全く同じだけど低品質だった。そして例えば、Veo 3、Veo 2の世代は、720pから4Kまでで、これはただのビデオ生成。そして今、Genie 3が720pのリアルタイム瞬間生成をやってる。

だから変わったのは、最初にDoomをプレイしてた時は特定のゲームだった。Genie 2では3D環境で、今はVeoでもGenie 3でも、他の何にでも使える汎用環境。

コントロールも同じ。Genie 2では特定で、キーボードとマウスに限定されてた。そしてビデオ生成ではプロンプトを書く。そして今ここでは、プロンプトとナビゲーション、両方一緒にできる。わかるかな。「アラスカのどこかに飛びたい」と書くと、アラスカでの飛行を生成してくれる。

時間の量も増え続けてる。数秒で始まって、Genie 2で10から20秒、その後Veoで8秒、そして今Genie 3で何分も。そして最も面白い部分、Game Engineはリアルタイムだったけど、Genie 2はそうじゃなかった。Genie 2は事前に作られてて、Veo 3は確実にリアルタイムじゃないけど、これは今リアルタイム。

Genie 3の驚異的な品質

違いがわかるように、左がわずか10から20秒しか生成しないGenie 2。右がGenie 3。Genie 3の品質が1000倍よいだけでなく、例えばGenie 2バージョンは既に終わってるはず。そしてGenie 3は美しく、この小さなゲームをプレイし続けて、無限によいグラフィック品質で、全てのコントロールが機能して、プレイヤーがシミュレーションをコントロールして、上下、一方向、他方向に行って、マップをナビゲートしてる。

単純に素晴らしい。このタイプのシミュレーションをする時に注目すべきいろいろなことがある。例えばゲームの物理は、プログラムされてないのにゲームに物理がある。海、水、飛んでるヘリコプターの効果、これら全てにプログラムされてない物理がある。見て学んだ。

人工知能はビデオを見て学習した。別の面白いことは、物事が現実的である必要がないということ。幻想的でもよい。存在しないものを現実に変えることができて、それでも遊んで相互作用できる。この飛んでる滝と飛んでる石を見て。これがシミュレーションでなければ、いつこんなことが可能になったでしょう?

そしてゼロのプログラミング時間で、誰も何もプログラムする必要がなかった。単純にプロンプトを送って、飛んでる石と飛んでる滝があると言うと、もうそこでプレイしてる。

過去の時代、例えばエジプトのどこか、ギリシャの古代神殿、どこでも散歩したいなら?関係ない。そこに行きたいと思うだけで、その他の宇宙にテレポートしてくれる。想像力と創造力の世界のように。

単純に別の惑星のようなもの。面白いことがいくつかあって、例えば壁を塗るような何らかのアクション。単純に人工知能が何もないところから学んだ、彼らが創発的行動と呼ぶもの、ローラーを壁に通して壁を塗ることを含めて。わかってるかな皆さん。

誰もこれをプログラムしてない。ビデオを見続けて、おそらく人が塗ってるビデオを見て、今自然に、自発的に壁を塗うことを学び始めた。こういうことは感動的。

彼らはいくつかの一貫性テストもリリースした。例えば、これがGenie 3、メモリテストで、リンゴとカップと木があるのが見える。Genie 3のメモリテストと書いてある。あそこに行って、窓を見て、散歩して、外の木を見る。いいね、たくさんの木を見た。窓から一定時間見てる。後ろを向いて、一方を見て、他方を見て、道路の車を見て、何が起こってるかを見た。

そして突然今振り返り始めて、黒板を見始める、床を見る。まだ黒板を見てない、床を見てる。上を向くと、見て、リンゴとカップと木がある。ところで、今疑問に思った。カップに2つの取っ手がある。

最初にも2つあったのかな?見てみよう、戻って、確認しよう。あった、あった。面白い。最初から2つの取っ手があると思った。他の詳細を見てみよう。何か問題、何か違うものを検出するか見てみよう。白い消しゴム、黒い消しゴム、左にあるもの、スイッチのように見える。

木があって、2つの木のテーブルがあって、黒板がある。今ビデオの最後に行こう。どうなってるか見てみよう。正面で止まらなかった。でも白い消しゴム、黒い消しゴム、リンゴ、木がある。そして通り過ぎなければならない。止まらなかった。だから見ることができなかった。

正面では最後の部分で見ることができなかった。でも壁のこのものは続いてるし、外の車も続いてる。白い車とグレーの車がある。最初にどうだったか見てみよう。最初に見た時、白い車とグレーの車と奥の車。戻ってみよう。

さらにもっと奥にもう1台。見てみよう。外を見て、木を見て、横を見る。それから戻った。奥に1台。そして3台あるはず。1、2。3台目はどこ?3台目は現れなかった。見てる?1、2、3台。ここにもう1台あるはず。

影がある。消えたかどうかわからない。ここですぐに戻ってみよう。たぶん車が全く同じ位置にないのかもしれないけど、どうやらディスカウントできそう。この車はかなりこちらにある。木まで見えた。だから正しい、実際。木まで見えて、車はもっとこちらにある。だから全く正しい。

これらのモデルにはいくつかの制限があることに注意することが重要。行動空間が制限されてる。つまり現実世界では多くのことができる。ピアノがあって弾ける、鳥がいる、マイクのように相互作用できるものがある、コンピューターのキーボード。

だからもしそこにコンピューターがあっても、おそらくコンピューターを使えないだろう。それは複雑すぎるから。だから例えば、他のエージェントとの相互作用、これらは制限。現実世界での正確な位置表現。つまりGoogleマップを見ていても、道路で画像生成を求めても、我々が望むように位置を特定できないということ。

テキスト・レンダリング部分、テキストは明確で読みやすいけど、入力世界記述で提供された時にのみ生成される。自発的には現れない。そして持続時間が制限されてる。無限のものじゃない。数秒よりは良い数分間は可能になったけど、それでも何時間も延々とプレイし続ける無限のものじゃない。

CrewAI Studioのボーナス情報

何を思ったかコメントして、興奮したかどうか、将来これが素晴らしいものになることは確信してるから。今我々にとって新しいことが、普通のこと、日常的なことになって、誰でもアクセスできて、将来小さなゲームをプレイしたり何かのシミュレーションをしたりできるようになる。

彼らがこのタイプの技術を使うと言ってることの一つは、ロボティクス・シミュレーション。ロボットをより珍しい状況やシナリオに置くため、めったに起こらないことのために、プロンプトして決して起こらないような場面の画像を生成できる。何を考えてるかコメントして、何らかの形で興奮したかどうか、我々は本当に完全に異なる世界にいて、起こると想像したことのない新しいことがある。

下で何を考えてるか言って。このようなビデオを見続けるためにチャンネルをサポートしたいなら、メンバーになって。メンバーはインテリジェント・エージェントの限定ビデオと早期アクセス・ビデオにアクセスできる。そういうことで、いいねを押して。ありがとう。

そして最後まで残った人へのボーナス。ビデオが長くなりすぎないよう手短に話すけど、基本的に起こったことは、CrewAIがCrewAI Studioをリリースしたということ。エージェントを作るためのグラフィカル・プラットフォーム。だから間違いなく、近いうちにこれについて話すビデオを作る。これは価値があることで、この宇宙は輝き続けてるから。

今話さないのは、本当にビデオが長くなりすぎるから。でも待って、今週は新しいことが多すぎて、まだClaudeのテストをしたいし、既に見てることについて他のビデオも作りたい。だから待って、いつか現れる。だからいいねを押して。ありがとう。

コメント

タイトルとURLをコピーしました