AIは決して減速していない! OpenAI音声機能のリリース日と最先端のAIイノベーション

AIに仕事を奪われたい
この記事は約21分で読めます。

11,991 文字

AI is NOT Slowing Down! Open AI Voice Release Date, and Cutting-Edge AI Innovations
HUGE thanks to Hubspot for Sponsoring today's video! Checkout Breeze AI Copilot Here: this episode, I debunk the myth th...

みなさん、こんにちは。AIが減速してると思てはりました? AIテクノロジーの天井にぶち当たってるんちゃうかって考えてはりました? いやいや、そんなことあらしません。AIは今めっちゃ勢いがあるんです。今日はめっちゃたくさんのネタがあるんで、みなさん、しっかり腰掛けてくださいね。これから未来の幕の向こう側をちょっと覗いてみましょう。
まずは大物から話し始めましょか。OpenAIです。覚えてはる人もおるかもしれませんが、OpenAIは常々、めっちゃ優秀なGPT-4オムニ音声モードをチャットGPTにすぐに実装するって約束してきました。その「すぐに」が「今年の秋」になってしもたんですけど、どうやらようやくリリース日が見えてきたみたいです。
Twitterのtoreさんから情報をいただきました。この人はフォローする価値ありますよ。めっちゃ素晴らしいAIニュースのアップデート、特にOpenAIの情報を発信してはります。で、高度な音声モードが9月、具体的には24日にもっと広範囲にロールアウトされるかもしれないって言うてはります。
testing news catalogが指摘してるように、これらの日付は仮のもので、変更される可能性があります。具体的にはこの画像を見てください。これはチャットGPTのウェブページを調べるとわかるんですけど、ご覧のように「eligible announcements open AI has seen advanced voice 2024 9-24」って書いてあります。
みなさん、これ4日後ですよ。これは大規模なロールアウトの始まりなんでしょうか? それとも全員が突然高度な音声モードにアクセスできるようになるんでしょうか? 時間が経てばわかることですが、一般のチャットGPTユーザーにも高度な音声モードが近々来るっていう、かなり良い兆しですね。
もし「自分のチャットGPTも確認したんか?」って思てはる方がおられたら、はい、確認しました。リストの14番目に「has seen advanced voice 924」ってありました。もし24日にリリースされるんなら、限定ロールアウトであっても、私もアクセスできるかもしれません。そうなったらすぐに動画を作りますよ。
面白いのは、もうすぐ新しい音声モードが必要なくなるかもしれないってことです。なぜかって言うと、Moshiっていうのがあるんです。これはGPT-4オムニを搭載した高度な音声モードにめっちゃ似てるんですけど、ただモデルが小さくて、あんまり上手く訓練されてないんです。で、このMoshiがオープンソースになりました。つまり、誰でも編集できる、誰でも修正できる、そして誰でも改良できるってことです。
もしオープンソースのMoshi音声モードがオープンソースコミュニティによって改良されたら、OpenAIの高度な音声なんて必要なくなるかもしれません。ちょっとMoshiがどんな感じか聞いてみましょか。繰り返しますけど、これはOpenAIの高度な音声ほど優秀じゃないです。でも、オープンソースなんです。
(音声デモの再生)
はい、こんな感じです。明らかにOpenAIと同じレベルじゃないし、同じ階級でもないです。でも、少なくとも制作者たちは正直でした。OpenAIとは違ってね。
他のOpenAIニュースですけど、これは今月7日にさかのぼります。どうやら本物のアーティストたち、大企業じゃなくて本物のアーティストたちが、限定的にSoraにアクセスし始めたみたいです。明らかにこれはめっちゃ小さなテストグループですけど、ここでnice auntiesがAuntie’s Eggsっていう、めっちゃ奇妙な短編フィルムを作ってるのが見れます。
彼らは本物のアーティストで、大企業じゃないのに、Soraにアクセスできたんです。ってことは、もしかしたらSoraへのアクセスが、近い将来、実際に配布されるかもしれません。でも、多くの人、私も含めて「今さら関係あるんか?」って思ってます。だって、めっちゃ優秀な動画モデルがたくさんあって、個人的には、Soraと同じくらい、もしくはちょっと優れてるんじゃないかって思うからです。AIの世界での競争は激しいですからね。
まあ、本物のアーティストがSoraを使って、今まで見たこともないような奇妙な短編フィルムを作ってるのを見たいなら、チェックしてみてください。
さて、今日のAIニュース動画の残りの部分に入る前に、今日のスポンサーからちょっとだけお話があります。
新しいAIテクノロジーに直面して、常に再発明について話してますよね。HubSpotは確かにその概念を取り入れて、自社のプラットフォームに適用してます。まず、Breeze AIについて話さなあかんですね。これはHubSpotに組み込まれたAI機能を持つツールキットです。
基本的な単調な作業、メールやブログ投稿から、マーケティングキャンペーンまで、すべてを支援してくれます。確かに似たような技術は見たことありますけど、HubSpotに組み込まれてるってのがええですね。これは文字通り、HubSpotに組み込まれたAIエージェントなんです。
顧客データを分析する必要がある? Breeze Co-pilotがやってくれます。コンテンツをSEO用に最適化しようとしてる? もう対応済みです。一番ええのは、これらの新機能が大企業だけに限定されてないってことです。どんな規模の企業でも利用できます。
信じてください、小規模企業での早期AI採用は、今のところ、ビジネスの成長を助けるためにできる最も強力なことかもしれません。もしそれがあなたのビジネスに適してるかどうか分からへんのなら、無料デモがあります。AIをビジネス運営にくっつけるのが、スーパーチャージャーみたいなもんやってことを、直接体験できる機会です。
信じてください、どんな規模のビジネスを運営してはっても、これは時代の先を行くための大きなチャンスです。説明欄のリンクをチェックして、無料デモにサインアップしてください。今日の動画のスポンサーになってくれたHubSpotに大感謝です。
さて、通常のコンテンツに戻りましょう。
みなさん、戻ってきてくれてありがとうございます。スポンサーを最後まで見てくれて感謝します。スポンサーのおかげで、私はこのYouTubeチャンネルをフルタイムで続けられてるんです。
OpenAIの話題から少し離れて、Cing AIについて話しましょう。これは主要なAI動画ジェネレーターの1つです。彼らはめっちゃたくさんの新機能をリリースしたんですけど、めっちゃクールに見えます。
まず、新しいモデルがあります。Cing 1.5です。これは1080pのフルHD動画をネイティブに生成します。動画の生成にはまだめっちゃ時間がかかりますけど、品質は間違いなくそこにあります。
それに、新しいモーションブラシ機能もあります。これはCing 1.0モデル専用ですけど、エンドショットに対する制御力を大幅に向上させます。
ここに最初の動画例があります。これは1.5の出力です。Twitterの動画圧縮のせいで、あんまり良く見えへんかもしれませんが、品質が高いのは間違いありません。1080pです。Twitterのせいでモヤモヤした品質の問題はありますけど、よく見るとディテールがたくさんあります。
ほぼビデオゲームの実写映像みたいです。まだ変なAIの人工物が空中を飛んでるのは見えますけど、全体的にはそんなに悪くありません。めっちゃ印象的です。これは下にリンクがあります。TwitterのMin Choyさんがまとめた素晴らしいスレッドです。
1.5の例をもっと見てみましょう。この例では、Cingが強い感情を再現してるのが分かります。顔の肌のディテールをちょっと過剰に、もしくは焼き過ぎてる気がしますけど、それ以外はめっちゃええ感じです。モヤモヤ感もあんまりないし、変なAIの変形もあんまりありません。
そう、感情はかなり高品質で表現されてます。ここで見てる感情は悲しみです。明らかに誰もが好きな感情じゃないですけど、確かに表現されてます。これは良いテストであり、デモンストレーションです。
反対側には、新生児を抱いた母親がいます。新生児の方は、ちょっとカリカリしてて、焦げ目がついてるように見えますけど、母親の方はめっちゃ素晴らしく見えます。全体的に、ディテールをうまく捉えてると思います。
AIビデオがこんなに短期間でこれほど進歩したのは印象的です。特に、この時点で人間をこんなに高品質に表現できるのがすごいです。Cing AIは最初から、人間をうまく表現することで知られてきました。そして、新しい1.5アップデートでも、それが間違いなく示されてます。
これは多分、新しい1.5モデルから出てきた例の中で、私のお気に入りの1つです。これも、新しい高解像度生成でどれだけのディテールと明瞭さが得られるかを示してます。火はかなりええ感じに見えるし、人々も間違いなく良く見えます。
もうちょっとリアルな動きがあれば、もっとええかもしれませんけど、隅っこの水筒がちゃんと安定してるのが見えます。それが気に入りました。カメラの動きの全体的な品質も、他の追随を許しません。
AIビデオジェネレーターにとって、車はこれまでずっと難しかったです。Cing 1.5でも、まだ難しいのが分かりますけど、確実に少しは良くなってます。車輪はある程度うまく回転してます。まだちょっと変ですけどね。でも、完璧じゃないです。
でも、全体的に車があんまり変形してないし、かなりええ形を保ってます。最後に、Cingが人気になった理由である食べ物の映像は、1.5でさらに良くなってます。元のモデルの素晴らしい点をすべて維持しつつ、品質を向上させただけやと思います。
これは、Cing 1.5で画像から動画にしたものみたいです。狼男の顔にはナイスなシャープなディテールがたくさんあるのが分かります。銃も一貫性を保ってますね。これも、AIビデオジェネレーターにとってはクラシックな難しさの一つです。でも、この状況ではかなりええ感じに見えます。
1080pでも、より細かいディテールはまだかなり難しいです。ここのジッパーとか、ジッパーのいろんな金属部分が変形したり溶けたりしてるのが分かります。でも、大したことじゃないです。これは十分に見れる品質やと思います。でも、細かい微細なディテールはまだ難しいですね。
とにかく、次はモーションブラシについて話さなあきません。これは間違いなく、ちょっと面白いです。Cingアプリでこれがどう動くかは、めっちゃクールです。私も試してみましたけど、悪くないです。
基本的に、マウスカーソルで、入力画像の中でセグメント化して選択したい部分をハイライトします。この例では、ユーザーは明らかに画面の中央にいる主人公を選択してます。そして、動きをどこに持っていきたいかを描いて、プロンプトを入力して生成します。
明らかに、このキャラクターを立たせて、あっち側に歩かせたいわけです。モーションブラシは間違いなくそれを処理できます。歩く動きはめっちゃええ感じです。立ち上がるときにちょっとモーフィングしてるのに気づくと思います。ここで動画を再生したら、完璧じゃないのは明らかですけど、歩く動きは全体的にええ感じやし、動きもしっかりしてます。
背景の残りの部分を安定させながら、まさに我々が求めてた動きを実現してます。背景がちょっとごちゃごちゃして乱雑に見え始めてるけどね。動画生成モデルはまだまだ新しいもんです。Cingは1ヶ月半か2ヶ月前くらいにできたばっかりやしね。
これはもう一つのめっちゃクールなデモンストレーションで、Cingのモーション効果を使ってます。このネコだけをセグメント化して、テーブルの上にジャンプさせたいって描いたら、めっちゃリアルな感じでネコがテーブルの上にジャンプします。
実際、このネコの出来栄えにはびっくりしました。他の動画ジェネレーターで似たようなテストをしたことがありますけど、これは間違いなく一番簡単じゃないです。もちろん、何でもセグメント化できます。6つの違うものをセグメント化して、それら全部を一度に動かそうとすることもできます。
はっきりしてて、よく定義されてるほど良いですけど、全体的にAIビデオの一般的な制御としては、めっちゃ大きな一歩前進やと思います。
次は、Gen 3のビデオ・トゥ・ビデオについて話さなあきません。これは完全に狂ってます。これについてフルで動画をテストする予定です。めっちゃ楽しんでます。
基本的に、Runway MLのGen 3ビデオジェネレーターに動画をアップロードすると、その動画を参考にして出力を生成してくれます。めっちゃクレイジーなことができます。
この例では、めっちゃ酷い特殊効果があって、完全にレンダリングされてないか、ただの家の中で撮ったiPhoneの映像みたいなんがあります。それを、かなりええ感じの映画みたいなものに変換できます。
明らかにまだAIって分かりますけど、そんなに悪くないです。自分で撮影したり、他の人を撮影したり、何でも撮影できて、かなり一貫したキャラクターも実際に作れるってのがすごいです。
私の例は全部下にリンクがあるんで、これを見たい人は強くおすすめします。ちなみに、John FingerさんのTwitterアカウントはフォローする価値があります。
ここにもっと例があります。多くの人がこれをやってて、ビデオゲームの映像を取って、Gen 3のビデオ・トゥ・ビデオを使ってもっとリアルなグラフィックスに変換してます。Gen 3が光とか、光の反射の仕方とか、陰影とかをどれだけうまく理解できてるかは、めっちゃクレイジーです。
ビデオゲーム開発者たちが、コンピューター上で再現しようと長年苦労してきたものです。それには大量の処理能力が必要ですけど、AIを使えば、ただ推測するだけでかなりええ感じに見えるんです。
特にこの技術がこれからも進化し続けると考えると、すごいです。この人々は、古いビデオゲームの対応物と比べるとめっちゃリアルに見えます。クレイジーなのは、これがほとんど現代のビデオゲームグラフィックスを超えたリマスターや再視覚化みたいなもんやってことです。
正直、私はこういうのが大好きです。めっちゃクールやと思います。AIがビデオゲームグラフィックスの未来やと本気で思ってます。だって、これをリアルタイムでできるようになったら、未来のビデオゲームがどんな見た目になるか想像してみてください。
もちろん、映画製作にも応用できるし、ビデオゲーム以外のいろんな分野にも応用できます。でも、ビデオゲームの例は、Gen 3のビデオ・トゥ・ビデオの使用方法を特によく示してると思います。
さっき言ったように、私も自分でいじってみました。ここに、私が作っためっちゃ怖い動画があります。ウェブカメラの前に座って、カメラに向かって身を乗り出して、不気味に見つめてるだけです。
めっちゃ奇妙なエイリアンのようなツイートをしましたけど、ペイントを開いて線を描き始めただけでも、クールなことができます。この例では、リアルな煙の物理現象を作り出す能力にめっちゃ感動しました。
煙がある種のエネルギーを持って動くことを理解してて、画面を横切るときに正しい方向に上昇します。めっちゃ印象的です。自分に火をつけるのも楽しかったです。カメラに近づくと、背景のぼかしが必要だって理解して、それを動画に追加してくれました。
全体的に、めっちゃリアルなものを作り出します。同時に、それが現実にはありえないってことも分かってます。ここに、私がやった緑のヘドロのテストもあります。これも、Gen 3のビデオ・トゥ・ビデオが持つ物理学の理解をテストするためです。
全体的にはかなりええ仕事をしたと思います。まだクールな効果だと思います。3Dアニメーションソフトでこれを再現しようとしたら、かなり難しいでしょう。これができるだけでも奇跡です。
ここにもっとビデオゲームの例があります。これはめっちゃクールやと思いました。スーパーマリオブラザーズ3のオープニングメイン画面があって、マリオが甲羅を投げたりするクラシックなアニメーションが見えます。それを、こんな絵画風のクラフトアートスタイルで再現しようとしてます。
めっちゃクールに見えると思います。これも、ただクールなデモンストレーションってだけじゃなくて、めっちゃ安定してます。正直、これはGen 2のビデオ・トゥ・ビデオよりもずっと安定してるし、全体的にもっと使いやすいです。
Gen 3の例はめっちゃたくさんあるんで、下にリンクを貼っておきます。この件については完全な詳細分析の動画を作る予定なんで、将来的にGen 3についての別の動画を期待しててください。
さて、もう一回OpenAIの話に戻りましょう。01に対する初期反応の動画を作ったし、OpenAI 01について詳細な分析動画も作る予定ですけど、この動画でもちょっと話したいと思います。
OpenAIの新しいモデルの能力と、コミュニティがそれを使って何をしてるかをいくつか紹介したいんです。まず、OpenAI 01は、プレイヤーがAIベースの対戦相手と競争できる、完全に機能するチェスゲームを作りました。
これはただただ狂ってます。このモデルはめっちゃ強力で、めっちゃ優秀です。実は、01についての詳細分析の台本を書くのにめっちゃ苦労してます。このモデルについての考えを言葉にするのが難しいんです。
多くの人がまだこれを見落としてると思います。だって、このモデルはもうめっちゃ賢すぎて、我々自身がそれをテストするのに十分賢くないんです。数学は私やあなたよりも優秀やし、正直、他の多くのことも私やあなたよりも優秀です。
でも、これはただのクレイジーな例です。完全に機能するチェスゲームです。それがどうやって可能なのか、私にも分かりません。明らかに、この人はある程度のコーディング経験があって、それがこんな出力を得るための正しいプロンプトを書くのに役立ったんでしょう。私も自分でコーディングを試してみましたけど。
とにかく、これはめっちゃ印象的です。NVIDIAのDr. Jim Fanがこの新しいモデルについて指摘したことも強調したいと思います。彼は言ってます。「人々は、トレーニングのスケーリング法則を外挿することで、LLMの能力の停滞を予測してきました。でも、彼らは推論スケーリングこそが本当に逓減する収益に打ち勝つものだってことを予見できなかったんです。我々はこの点で完全に新しいページを開いたんです。推論スケーリングこそが、我々に必要なすべてなんです。」
ここに、gy fanさんが作ったナイスな図があります。これは、この点を示すためのものです。ほとんどのLLMは大量の事前トレーニングがあって、そこから多くの価値が生まれます。チャット用に準備したりバグを取り除いたりするための後処理があって、最後に推論が価値の小さな部分を占めます。
でも、新しい01、別名ストロベリーでは、事前トレーニングと後処理はそれほど重要じゃありません。推論の方が重要です。なぜなら、推論中にリアルタイムで思考の連鎖を行い、問題を解決して、より良くなっていくからです。これはほとんど魔法みたいです。
すでにめっちゃ優れてるし、推論スケーリングをさらに高められます。私は推論スケーリングに完全に準備ができてます。
OpenAIが自分たちで行った総括も紹介したいと思います。01について投稿された例の中から、モデルの開発に携わった研究者たちがお気に入りを選びました。
最初の例は、Dr. Kyleの例で、01がPHDレベルのコードを実現したってものです。私がここに座って、このPHDレベルのコーディングがどう機能するか理解できるとは思えませんけど、博士自身によると、これは01が生成したPHDレベルのコードだそうです。
めっちゃ印象的です。私には印象的に見えます。だから、このモデルは私より賢いって言うんです。私にはどうテストしたらいいか分かりません。PHDの学生ならうまくテストできるかもしれませんけど、私はただの普通の人間です。これは私の理解をはるかに超えてます。
ここには、本物の医学博士が、01が特定の免疫学的アプローチに基づいた大規模な癌治療プロジェクトを書いたって言うてはります。1分以内にプロジェクトの完全な枠組みを作り、めっちゃクリエイティブな目標、アプローチ、さらには潜在的な落とし穴への考慮まで含めたそうです。
彼は、これは通常GPT-4では欠けてるものやけど、もちろん、実際の推論での思考の連鎖によって、それを拾い上げることができたって指摘してます。「これを準備するのに何日もかかったやろうし、それでもまだ01と比べたら見落としてる点があったやろう」って彼は言うてます。このモデルは冗談抜きですわ。
ここに、01が1分以内に3Dバージョンのスネークを作った例があります。これには全然驚きません。これはコーディングの魔法使いみたいなもんです。
Matthew BurmanっていうフェローのAI YouTuberの例も載ってます。この01は10秒考えて、プロンプトに対する自分の応答にちょうど何語あるかを正確に数えて言うことができるんです。つまり、話しながら単語を生成してて、同じ数の単語を持つ文を作る必要があるって理解して、それをやってのけるんです。
最後に、OpenAIは実際に私の例を挙げてくれました。めっちゃクールやと思います。私がTwitterで共有した、Pythonでめっちゃクリーンな物理環境を01が書いてくれた例です。1分もかからんかったと思います。これはかなりクールな例です。
私のツイートでは触れてなかったけど、Visual Studio Codeのセットアップのやりかたとか、仮想環境の作り方、コードの配置の仕方、Pythonのセットアップの仕方なんかも教えてくれました。私はコーダーじゃないし、あんまり経験もないですけど、確実に仕事をやってのけました。
めっちゃ印象的な小さな物理デモです。言わなあきませんが、かなりスムーズで、めっちゃええ感じです。ご覧の通り、物理オブジェクトとしてPNGを追加する機能まで付けました。衝突したら爆発するんですけど、それもかなりクールやと思います。
正直、みなさん、これ全部の上に乗っかってるのが、01プレビューモデルがまだオーブンの中にあるってことです。まだ出来上がってないんです。まだ完全じゃないんです。01モデルは2つあって、01ミニとプレビュー01です。
01ミニの方が今はより優れたモデルで、より完成度が高いです。でも、プレビューの方は、オーブンで焼き上がったら、最終的にはもっと優れたものになるはずです。
他のLLMよりも何段階も上をいってるのに、思考の連鎖を追加しただけで、まだ完成してないってのは、考えただけでもクレイジーです。まだ完成してないんです。ただのプレビューです。
さて、これで今回の動画でのOpenAIネタは全部です。
ここにOmniGenっていう論文があります。これは統合画像生成です。フル動画を作るかもしれません。オープンソース化する予定らしいですけど、今のところは論文だけです。
このモデルは画像生成ができるだけじゃなくて、この例みたいに「Omni gen」って書いた看板を持ってるネコの画像を生成できます。これはかなり印象的な画像生成です。これもかなり高度な場面で、麦わら帽子をかぶって睡蓮の上を歩いてる人がいます。
そう、画像生成はええ感じですけど、推論もできます。写真を送って「手を洗えるのはどこ?」って聞けば、シンクを切り取って「ここで手を洗えます」って言えるんです。
あるいは、かなり基本的な写真を送って「水を入れられるものは何? それを取り除いて」って言えば、実際に隅っこにある小さなカップを編集して取り除けるんです。見るのがめっちゃ難しいですけど、そう、下にちっちゃなカップがあって、次の画像では編集されて消えてます。
つまり、実際の画像編集もできるってことです。これはクレイジーです。画像自体について推論することもできます。
さらに、被写体駆動レンダリングみたいなこともできます。この変な獣人みたいなのをアップロードして、それからアイアンマンをアップロードすると、一緒に料理してる画像を作れるんです。
文脈内学習もできます。以下の例に従って、入力に対する出力を生成します。異なる部分をセグメント化して識別し、取り除いて再生成することができます。
他にもたくさんのことができます。画像のぼかしを取り除いたり、髪の色を変えたり、キャラクターを調整したり、人間の骨格を検出したりできます。これはめっちゃクレイジーです。
これは小さな予告編みたいなもんです。まだ誰も使えるわけじゃありません。ただの論文です。でも、オープンソース化する予定らしいです。オープンソース化されたら、これについてのフル動画を期待してください。
次は、Guardrails AIが新しいブログ記事を公開しています。Bespoke AIチームによる、他のLLMの幻覚やウソを検出する、つまり事実確認をする新しいモデルについてです。
私には思いつかなかったアプローチですけど、彼らにとってはうまくいってるみたいです。事実や背景の文脈、それにクレームをアップロードすると、このクレームが文脈によって支持される確率が80%くらいだって言うんです。
モデルを事実確認していきます。もっとニュアンスのあることにはどれだけうまく機能するか分かりませんけど、少なくともこういう歴史的なクレームなら、かなりええ感じのはずです。めっちゃ面白いです。
次に、めっちゃ素晴らしい画像生成プラットフォームで知られるKorea AIが、オープンソースのFluxモデルをリアルタイムで動作するようにチューニングしたらしいです。
つまり、Fluxのすべての素晴らしい機能をリアルタイムで使えるってことです。例えば、正しいスペルで書かれた看板をフレーム内のあちこちにドラッグできるんです。めっちゃクールです。
私も試してみましたけど、これについてのフル動画を作る価値はないと思いました。でも、この動画で言及する価値は絶対にあると思いました。リアルタイムのAI画像生成に興味があって、モデルを本気で操作したい人は、絶対にチェックすべきです。
これは間違いなく、そうするための最高の方法の1つです。このリアルタイムFluxモデルが、あなたのプロンプトと、そのプロンプトに関連してアップロードした画像を理解する能力は、本当にびっくりするくらいええです。
しかも、明らかに誰でも無料で使えるみたいです。これはかなりクールです。好きなだけ使ってください。
最後に、ビデオゲーム関連のAIネタがあります。これはGame Gen Oです。オープンワールドビデオゲームの生成です。オープンワールドビデオゲームの環境を生成するために特別に調整された拡散トランスフォーマーモデルです。
基本的に、ビデオゲームのように見える画像を生成してくれて、理論的にはコントローラーで制御できます。
これは、ビデオゲームグラフィックスに関するAIの進化における次のステップみたいなもんです。ビデオゲームがどう見えるべきかを最善を尽くして推測してるんです。正直、かなりええ仕事をしてると思います。
いろんな映像を見るだけで、これらのゲームがどんなものなのかが分かります。これは明らかにウィッチャー3です。これはレッド・デッド・リデンプション2になります。歩く動きは、言わなあきませんが、私はレッド・デッド2をプレイしましたけど、かなりええ感じです。木々もレッド・デッド2のものにそっくりです。
ウィッチャー3で馬に乗り回してる感じですね。そして、これはおそらくGTA5を想定してるんでしょう。もっとレッド・デッドもあります。印象的です。
どうやら、近々これのHugging Face spacesを作るらしいです。試してみたいですね。でも、これは本当に面白いです。これにより、どこでもたくさんのビデオゲームをプレイできるようになる可能性があります。サーバー側でAI処理をして、それをデバイスに送るだけですからね。
とにかく、みなさん、かなりたくさんの内容でしたね。言ったように、AIは全然減速してません。たくさんのことが起こってるし、話すことはたくさんあります。
これでみなさんにとってかなりええ要約になったと思います。おそらく、いくつかのことは見逃してるでしょう。かなりクールな細かいことがあると思います。
もっと深く掘り下げたい方は、私のDiscordサーバーに参加してください。最新で最高の情報が常に投稿されてます。
Twitterでも私をフォローしてください。大きなニュースの発表や、今日見たようなクールな情報があれば、見つけた瞬間に再投稿します。
今日の動画を見てくれてありがとうございます。これで私のニュースまとめは終わりです。次の動画でまたお会いしましょう。さようなら。

コメント

タイトルとURLをコピーしました