AIの味覚、4Dモデルメーカー、AIビデオのアップデート、ノーベル賞、ロボタクシー: AIニュース

AIに仕事を奪われたい
この記事は約19分で読めます。
AI tongue can taste, 4D model maker, AI video updates, Nobel Prizes, Robotaxis: AI NEWS
INSANE AI news: Kling lip sync, Minimax image-to-video, NVIDIA mesh models, 4D cloud models. #ainews #ai #agi Level up y...

AIは眠らへんし、今週もまたAIの世界で凄いことがいっぱい起こってもうたんや。3Dビデオを再構築できるAIや、NVIDIAが3Dメッシュモデルを作れるAIをリリースしたり、AIビデオの大量のアップデートがあったり、味覚を持つ新しいAIができたりと、他にもようけあるんや。せやから、さっそく見ていこか。
まず最初に、めっちゃクールなプロジェクトがあんねん。Monster(モンスター)っちゅうんやけど、こんな感じに書くんや。これがどないするかっちゅうと、普通の動画を入力として受け取って、その動画だけから3Dの世界を再現するんや。3D空間におけるオブジェクトの位置を把握して、動画が動くにつれて、カメラの位置や動きまで理解するんや。
仕組みはこうや。Monsterは「時間変化する動的ポイントクラウド」っちゅうもんを作るんや。人が動き回る部屋の写真をようけ撮って、それを使って部屋の3Dモデルを作るようなもんやね。ただ、時間とともに変化するもんを表現できるんや。これがMonsterのすごいところやねん。
特筆すべきは、これがめっちゃ速いっちゅうことや。Monsterはフィードフォワード方式で動くんやけど、つまり、ほかの3Dモデリングシステムみたいに行ったり来たりせんと、動画をサクサク処理できるんや。静止したもんだけやなくて、動画の中で動いてるもんも扱えるんや。
実際に、インタラクティブなデモページも用意されとって、生成されたもんを見られるし、WDキーを使って動き回れるんや。ほら、ここに実際の動画があって、動き回ると、この3D空間で動画が再構築されるんが分かるやろ?
ほかの例もあるで。このツールはめっちゃ汎用性が高くて、Monsterが生成できる3D情報はいろんなことに使えるんや。例えば、動画の中でもんがどれくらい離れてるかを把握したり、動いてるもんと静止してるもんを分けたりできるんや。
現実世界での応用例としては、こんなんが考えられるな。例えば、バーチャルリアリティやオーグメンテッドリアリティのアプリを開発するのに使えるし、動くもんがある部屋をロボットが移動するのを助けるのにも使えるかもしれん。監視技術にも使えるかもしれんな。めっちゃクールやろ?
次は、めっちゃ便利な無料ツールがあんねん。posterior mean rectified flow(PMRF)っちゅうんやけど、仕組みはあとで説明するわ。まずは試してみよか。
Hugging Faceっちゅうサイトに無料のスペースがあって、ここで使えるんや。これは基本的に、顔の画像を無料で復元できるツールなんや。例えば、めっち�ぼやけた写真とか、傷んだ写真とか、めっちゃ古い写真があって、それを復元したいときに使えるんや。
使い方は簡単や。写真をアップロードして、このチェックボックスにチェックを入れるんや。これは入力画像が揃えられてて、正方形かどうかを示すんや。ほら、ここの画像は正方形やし、顔が中心に配置されとるやろ?そやから、このボックスにチェックを入れるんや。他の設定はデフォルトのままでええ。それで「送信」をクリックしたら、こんな感じの結果が出てくるんや。
ほかの例もあるで。これはめっちゃぼやけた写真やけど、正方形の画像で顔が中心にあるから、このボックスにチェックを入れるんや。そしたら、こんな感じの出力が得られるんや。
もう一つの例やけど、これは一つの顔やないし、顔が中心に配置されてへんから、このチェックボックスは空のままにしておくんや。そしたら、こんな感じの復元版が得られるんや。完璧やないけど、かなりええやろ?無料のツールやし、古い写真や傷んだ写真を復元するのに使えるんや。
仕組みはこうや。この方法は posterior mean rectified flow(PMRF)って呼ばれとんねん。まず、元の画像がどんな感じやったかを予測するんや。これは、劣化した入力に基づいて、可能な復元のすべての平均を予測することで行うんや。それから、この予測をさらに正確にしようとするんや。rectified flowモデルっちゅうのを使って、この予測を実際の画像の分布に合うような高品質な画像に変換するんや。
例えば、ここが入力で、posterior meanのプロセスを経たあとはこうなって、それからrectified flowの方法を使うとこうなるんや。そして、これが真の画像や。元の写真やね。かなり正確やろ?
実はもっとできることがあんねん。ぼやけた写真や粒子の粗い写真を復元するだけやなくて、写真に色を付けることもできるんや。ほら、これはめっちゃ粒子が粗くて白黒の写真やけど、この方法を使うとこんな感じになるんや。ほら、これが前で、これが後や。すごいやろ?
インペインティングにも使えるんや。これはめっちゃ粒子が粗くて、ピクセルが欠けてる画像やけど、この方法を使うとこんな感じになるんや。ほら、これが前で、これが後や。これが前で、これが後や。めっちゃクールやろ?
もちろん、ノイズ除去にも使えるんや。これはノイズがめっちゃ多い画像やけど、この方法を使うとこんな感じになるんや。ほら、これが前で、これが後や。
最後に、アップスケーラーとしても使えるし、基本的にはぼやけた画像をクリアにするのにも使えるんや。これはめっちゃピクセル化された画像やけど、これが前で、これが後や。これをこんなんに変えられるなんて、めっちゃ印象的やろ?
この無料の技術があれば、TopazとかPhotoshopみたいな有料ツールは大ピンチやと思うわ。
ほかのニュースやけど、AIビデオ生成の世界でもクールなアップデートがあったんや。Runway Gen 3 Turboでは、今や2枚の写真をアップロードできるようになったんや。1枚目はビデオの最初のフレーム、2枚目は最後のフレームやね。そして、その間を埋めてくれるんや。これで、ビデオをどんな風にしたいかをもっとコントロールできるようになったんや。
そして、今のところ最高の無料AIビデオジェネレーターやと思うMinimaXにもアップデートがあったんや。実は、もう無料やなくなるんやけどな。ようやく価格構造を発表したんや。無料プランもあって、毎日ログインするとボーナストークンがもらえるんやけど、スタンダードプランはまだめっちゃ安いんや。月額9.99ドルやで。これはRunway gen 3と比べたらめっちゃ安いんや。
それに、画像からビデオを作る機能も追加されたんや。ここで画像をアップロードできるんや。このミーム画像を使ってみるわ。それから、ビデオをさらに指示するためのプロンプトを追加するか、空白のままにしておくかやね。そして「生成」をクリックしたら、こんな感じになるんや。おっ、彼女怒っとるな。猫の喧嘩になりそうや。
ビデオの開始フレームとして画像を使うと、テキストだけからビデオを作るよりもずっとコントロールできるんや。試行錯誤が少なくて済むしな。だから、この機能はめっちゃパワフルやと思うわ。
もう一つの人気のビデオジェネレーター、Clingは、リップシンク機能を導入したんや。さらに、テキスト読み上げ機能でアップデートしたんや。つまり、声を録音する必要もないんや。テキストを入力して、インターフェースから声を選ぶだけで、ビデオの中の人物にそのテキストを話させられるんや。
試してみよか。ここにこのビデオがあるんやけど、今は無音やろ?でも、ここの「リップシンク」をクリックして、女性の声を選んでみるわ。いくつか再生してみるで。
「ねえベスティ、自転車に乗って新しいアイスクリーム屋さんを探検しに行こうよ」
「お兄ちゃん、ストレス溜まってるみたいだね」
「おはよう、世界。夢を追いかける素晴らしい日だね」
なんでこれ全部子供みたいな声なんや?
「このインディー映画祭、面白そうだね。映画の視野を広げに行こうよ」
よっしゃ、メロディーにしよう。メロディーを選んで、テキストを入力するで。「このチャンネルを登録して、AIの最新でクールなアップデートを見逃さないでね」って書いて、再生ボタンを押すで。
「このチャンネルを登録して、AIの最新でクールなアップデートを見逃さないでね」
ええ感じやな。じゃあ、リップシンクをクリックして、どうなるか見てみよか。
よっしゃ、ビデオの準備ができたで。再生してみるで。
「このチャンネルを登録して、AIの最新でクールなアップデートを見逃さないでね」
めっちゃクールやな。かなり自然に見えるわ。これが前で、これが後や。
「このチャンネルを登録して、AIの最新でクールなアップデートを見逃さないでね」
めっちゃええやん。このビデオの女性の口の動きと、テキストと音声がぴったり合ってるやん。めっちゃパワフルなツールやな。
映画製作の新時代に入ったんや。誰でもラップトップだけで自分の短編映画を監督して作れるようになったんや。俳優も、小道具も、特殊効果も、カメラも必要ない。AIで全部生成できるんや。
ほかのニュースやけど、今週はノーベル賞の発表もあったんや。AIやコンピューターサイエンスのノーベル賞はないんや。ノーベル賞が作られた当時、これらの分野はまだ存在してなかったからな。でも今年は、AIの分野で2人の大物がノーベル賞を受賞したんや。
1人目はジェフリー・ヒントンさんや。物理学賞を受賞したんや。ジェフリー・ヒントンさんは、よくAIの「ゴッドファーザー」って呼ばれとるんや。人工ニューラルネットワークやディープラーニングの初期の発展に多大な貢献をしたんや。例えば、ニューラルネットワークが自分の間違いから学習できる方法を共同開発したんや。これは、今日使われてるすべてのAIモデルのトレーニングに欠かせないもんなんや。
ノーベル賞を受賞した後のインタビューでは、いろいろ話してたんやけど、ここにめっちゃ面白い部分があんねん。
「私の学生たちにも感謝したいです。特に、私よりもずっと賢い学生たちに恵まれて、本当に幸運でした。彼らは実際にものを動かすことができました。彼らは素晴らしいことを成し遂げていきました。特に、私の学生の一人がサム・アルトマンを解雇しようとしたことを誇りに思っています。ここでやめておきましょう。質問があればどうぞ」
ここで言及してる学生は、実はイリヤ・サツキーさんなんや。そう、彼はジェフリーの学生の一人で、世界トップクラスのAI科学者なんや。去年の11月にサム・アルトマンを解雇しようとしたのが彼なんや。今はOpenAIを離れて、Safe Super Intelligenceっていう自分の会社を立ち上げたんや。
でもな、ジェフリーのこの発言はちょっと場違いな感じがするんや。ノーベル賞受賞のインタビューやのに、わざわざサム・アルトマンのことを持ち出す必要はなかったんちゃうかな。ちょっと変な感じがするわ。みんなはどう思う?コメント欄で教えてな。
AIの分野でノーベル賞を受賞したもう一人の大物は、デミス・ハサビスさんや。化学賞を受賞したんや。個人的に、このデミスさんのファンなんや。絶対的な凄腕で、間違いなくノーベル賞に値する人物やと思うわ。
デミスさんのことを知らん人のために、簡単に経歴を紹介するで。この人、4歳の時からチェスを始めて、13歳でもうチェスマスターになったんや。そのときすでに、同年代で世界ランク2位やったんや。すごいやろ?
後に、DeepMindっていう会社を立ち上げたんや。最初の目標は、ビデオゲームをめっちゃ上手にプレイできるAIを作ることやったんや。DeepMindは後にGoogleに買収されて、今はGoogle DeepMindって呼ばれてるけど、デミスさんは今もDeepMindで素晴らしいものを作り続けてるんや。
実際、すごいことをようけやってきたんや。例えば、AlphaGoっていうAIを作ったんや。これは世界最強の囲碁プレイヤーを打ち負かしたんや。囲碁は戦略的な可能性がめっちゃ多い難しいゲームで、当時はAIが人間のトッププレイヤーに勝てるなんて誰も思ってなかったんや。
その後、AlphaZeroっていうさらに優れたAIを作ったんや。これは囲碁だけやなくて、チェスと将棋でも世界最強の人間プレイヤーを打ち負かせるんや。しかも、自分自身とプレイして数日間強化学習するだけでそのレベルに達するんや。
それからAlphaStarっていうのも作って、これは世界最強のスタークラフトプレイヤーを打ち負かしたんや。AlpaProofとAlphaGeometryっていうAIも作って、これらは国際数学オリンピックの問題を解けるんや。そう、数学のオリンピックがあるんや。世界で最も難しい数学の問題やけど、このAIは解けるんや。
そして、AlphaFoldっていうのも作ったんや。これは本当に革命的なんや。タンパク質がどのように折りたたまれるかを予測できるAIなんや。最近、AlphaFold 3をリリースしたんやけど、これはタンパク質の構造と相互作用を予測するだけやなくて、DNA、RNA、リガンドなど、生命のあらゆる分子も扱えるんや。
AlphaFoldはすでにすごいことをようけやってるんや。科学者がプラスチックを分解する酵素を発見したり、肝臓がんの治療法を見つけたり、マラリアのワクチンを見つけたりするのを助けたんや。これはほんの一例やけどな。
ほんで、iorがこの動画のスポンサーやねん。iorは、学術的な文章や創造的な文章を書くのを助けるパワフルなAIアシスタントなんや。ライターが直面する一般的な課題に対応できる多機能なツールなんや。
iorの目玉機能の一つは、APAやMLAなどの標準的な引用形式に従って、自動的に参考文献を追加できることやな。この機能で、めっちゃ時間が節約できるんや。
それに、トピックや目次の生成も手伝ってくれるから、アイデアを得たり、ライターズブロックと戦うのにも役立つんや。
AIが生成したコンテンツの信頼性が心配な人もおるやろ?iorはそれも考えてるんや。AIコンテンツ検出器が組み込まれてて、テキストがAIによって生成されたものかどうかを判断するのを手伝ってくれるんや。
さらに、AIの変装ツールもあって、テキストを洗練させて、より人間らしく、AIっぽくない感じにできるんや。
もちろん、人それぞれ独自の文体があるよな。じゃあ、自分の文体で書くAIがあったらええんちゃうか?iorには個人化機能があって、生成されたテキストを自分の文体に合わせて調整できるんや。
これらの機能が全部一緒になって、自然で信頼性が高く、正確なコンテンツを書くのを手伝ってくれるんや。
説明欄のリンクからiorにアクセスして、iorがどんなふうに文章力をアップさせてくれるか見てみてな。コードAI search 10を使えば10%オフになって、もっと多くの機能が使えるようになるで。
それでも足りへんかったら、最近リリースされたAlphaProteoもあるで。これはタンパク質の構造を予測するだけやなくて、新しいタンパク質の発見や作成も手伝ってくれるんや。これはいろんな病気の治療法や薬の発見、さまざまな用途の酵素の発見にめっちゃ役立つ可能性があるんや。
とにかく、デミスさんとDeepMindは、世界を変えるようなすごいことをようけやってきたんや。ノーベル賞を受賞するのは間違いなく値するわ。
化学賞を受賞したのはちょっと変な感じがしたけどな。彼の貢献の多くは、生物学や医学に関連してるように思えるからや。でも、今年AIの二人の大物がノーベル賞を受賞したっていうことは、AIがいかに重要で革命的なものかを示してるんや。これはもう、SFの世界の話やないんや。現実のもので、物理学、医学、化学、生物学など、世界中に本当の影響を与えてるんや。
この話と私の全ての動画から一つだけ覚えておいてほしいことがあんねん。死なんとこな。これから5年間は死なんように頑張ってな。だって、これからすごいことがいっぱい起こるんやから。
次は、NVIDIAがEdge Runnerっていうのをリリースしたんや。これは3Dモデルを作るためのゲームチェンジャーや。
すでに3Dモデルを出力できるAIツールはようけあるんや。例えば、StabilityのStable Fast 3D、Stable Video 4D、Stable 0123なんかは全部3Dモデルを出力できるし、MetaのMETA3D Asset Genもテキストプロンプトや画像から3Dモデルを出力できるんや。
でも、これらはどれも人間のモデラーが作るようなメッシュは作れへんのや。そのせいで、できることがめっちゃ制限されてしまうんや。メッシュモデルやったら、人間がさらに細かく調整できるんやけどな。
ようやく、NVIDIAがメッシュ構造を持つ3Dモデルを作れるAIモデルを作ったんや。このモデルは、Auto-regressive Auto-encoder(自己回帰型オートエンコーダー)、略してRA-AEって呼ばれてるんや。発音の仕方はわからんけどな。
このモデルは、最大4000の平面(フェイス)を持つ高品質な3Dメッシュを作れるんや。空間解像度は512や。入力として3Dポイントクラウドか画像を使えるんや。
ちなみに、3Dポイントクラウドはこんな感じや。物体の表面を表す3D座標の集まりやねんけど、つながり情報が欠けてるんや。このAIは、このまばらなポイントデータを使って、完全につながった三角形のメッシュモデルを作れるんや。つまり、ポイント間の隙間を埋めて3Dモデルを作るってことやな。
ほかの例もあるで。これは女の子のポイントクラウドやけど、かなり正確に3Dメッシュモデルを作れてるのが分かるやろ?
これはカウボーイハットの例や。ここが3Dメッシュの再構成や。
これは…なんやろ?顔?ああ、なんか冠みたいなんをつけた人の顔やな。ここがメッシュの再構成や。めっちゃええ感じやな。
さっき言うたように、画像からも3Dメッシュを作れるんや。ここにいくつか例があるで。
2D画像から3Dモデルを作るのはめっちゃ難しいんや。写真から見えない情報を推測せなあかんからな。例えば、この樽の後ろ側がどうなってるかは分からへんやろ?だからAIが推測せなあかんのやけど、かなりうまく推測してるんや。ほら、これが生成できる3Dメッシュモデルや。
ほかの例もあるで。これは一枚のキリンの画像からやけど、かなり正確な3Dメッシュモデルのキリンを作れてるやろ?
これはラクダのチェスの駒の例や。これもめっちゃすごいで。チェスの駒の底や反対側まで正確に推測できてるのが分かるやな。
これはハンマーの例や。
全体的に、めっちゃ印象的なツールやな。ほかにもようけ例があるで。詳しく見たい人は、説明欄にこのページへのリンクを貼っとくから、チェックしてみてな。
ほかのニュースやけど、ペンシルベニア州立大学の科学者たちが、AIを使った舌を作ったんや。この舌は、食べ物の微妙な違いを識別できるんや。そう、AIに味覚ができたんや。
詳しく説明するで。この電子舌は、特殊なセンサーとAIモデルを組み合わせたもんなんや。このAIモデルは、人間の脳がどのように味を感じるかを学習してるんや。
人間は味を脳の味覚野っていう領域で感じるんやけど、基本的にこのプロセスを模倣するAIを訓練したんや。これによって、AIも味覚を持つことができるようになったんや。
このAI舌は、似たような液体の違いを正確に識別できるんや。例えば、薄め方の違う牛乳を識別したり、異なる種類のソーダを識別したり、さらにはコーヒーのブレンドの違いまで分かるんや。私にコーヒーの種類の違いが分かるかって?さっぱり分からんわ。コーヒーは全部好きやけどな。
それに、果汁が腐り始めてるのも分かるし、ほかの食品安全に関する問題も検出できるんや。しかも、めっちゃ速いんや。約1分で識別できて、サンプルの識別の正確さは95%以上なんや。
もちろん、この技術は食品業界に大きな影響を与える可能性があるな。例えば、食品の安全性と品質管理に使えるんや。このAI舌を使って、特定の食品が腐ってるかどうかを検出したり、新製品をテストして最高の味のものを見つけたりできるかもしれんな。これで、めっちゃ新しい可能性が開けるんや。
ほかのニュースやけど、テスラが長い間待たれてた自動運転のロボタクシーを発表したんや。Cybercabって呼ばれてるで。ステアリングホイールもペダルもない完全自動運転車両なんや。驚くべきことに、価格は3万ドル以下になる予定や。これはかなり手頃やな。
イーロン・マスクによると、これらのロボタクシーは充電用のプラグを持たず、代わりに誘導で充電するんや。機械によって掃除されて、自動運転車の世界では駐車場が公園に変わるんやって。少なくとも、そういうビジョンを持ってるんや。2027年より前に利用可能になる予定やで。
Cybercabと一緒に、テスラはもっと大きな自動運転車両も発表したんや。Robo vanって呼ばれてて、最大20人を運べるんや。これは高密度の輸送用に設計されてて、一度にたくさんの人を運んだり、移動コストを下げたりするのに使えるんや。
イベントでは、何台かのOptimusロボットがさりげなく歩き回ってたんや。それに、飲み物を運んでるOptimusロボットもおったで。
「写真撮りたい?」
「そうやな、やろう」
「ビデオや。ええやん」
「ありがとう、助かるわ」
「みんな元気か?」
「ええで」
「ピース、みんな」
「調子どう?」
「まあまあやな」
「チェーンええやん」
「みんな元気か?飲み物いる?」
「ええで」
「せやったら、こっちに来てな」
「スイカフィーザーください」
「スイカやな」
「やあ、調子どう?」
ロボットの動きがめっちゃ自然やろ?話しかけても返事してくれるし。
これはテレオペレーションやったんちゃうか?つまり、誰かが裏で操作してたんやないか?って言う人もおるんや。もちろん、そこで働いてる人やないと真相は分からへんけど、みんなはどう思う?コメント欄で教えてな。
ほんで、ほかにもOptimusロボットと話してる例がいくつかあるんや。めっちゃすごいで。
「こんにちは、友達のジョンに挨拶してあげて」
「ジョンはどこ?」
「ここや」
「あ、こんにちは、ジョン。お元気ですか?」
「元気やで。これめっちゃすごいな。ロボットと話してるんや」
「サンノゼ出身やろ?」
「生まれたのはシリコンバレーやな」
「素晴らしい。サンノゼのどこに住んでるの?アルマデンバレー?それともテラエリア?」
「いや、ロスガトスに住んでるで」
「ロスガトス?ええとこやな」
「そうやな、ハイキングがめっちゃええって聞くで」
「そやな。君はどこに住んでるの?」
「今はパロアルトに住んでるで」
「そうか。まあ、そうやろな」
「そこで訓練されて、組み立てられて、素晴らしい人たちと一緒に働いてるんや」
「ロボットにとって一番難しいことは何?」
「君たちのように人間らしくなろうと頑張ることやな。毎日それに取り組んでるし、みんなが手伝ってくれたらええなと思ってる」
「すごいな。会えてよかったで、Optimus」
ほかのニュースやけど、今週は新しいオープンソースのビデオジェネレーターが登場したんや。Pyramid Flowっていうんやけど、かなりええで。今のところ、これが一番ええオープンソースのビデオジェネレーターやな。
結果を見てもらえば分かるように、SoraやCllingほどええわけやないけど、めっちゃ近づいてきてるんや。数ヶ月後には、一般的なハードウェアでローカルに実行できるオープンソースのビデオジェネレーターができるんやないかな。
これはめっちゃすごいことやで。以前は、オープンソースのビデオジェネレーターはかなりひどかったからな。それまで一番ええのはCog Videoやったんやけど、まあまあやけど、RunwayやClingみたいな独自のビデオジェネレーターと比べるとまだまだ品質が低かったんや。
でも、Pyramid Flowはかなり近づいてきてるんや。Cog Videoの一段上を行ってるし、すごいのは、もうコードをリリースしてるんや。十分なハードウェアがあれば、自分のコンピューターでローカルに実行できる可能性があるんや。
これについては、もう詳しい動画を作ったから、ここではあんまり繰り返さへんけど。まだ見てへん人は、ぜひチェックしてな。
ほかのニュースやけど、OpenAIがMicrosoftのサーバーへの依存度を減らそうとしてるみたいやな。The Informationっていうサイトの記事によると、今年の初めごろから、OpenAIが独自のデータセンターを設置する新しい選択肢を探り始めたらしいんや。
OpenAIのCFOのサラ・フライヤーさんが言うには、MicrosoftがOpenAIに提供する計算能力のスピードが遅すぎるんやって。これはちょっと信じられへんな。MicrosoftはおそらくC世界最大級のデータセンターを持ってるのに、それでも遅すぎるって言うんやから。OpenAIはいったいどれだけの計算能力を求めてるんやろ?どれくらい急いでスケールアップしようとしてるんやろ?
とにかく、OpenAIはテキサス州でOracleのデータセンター全体をリースする計画を立ててるみたいやな。これがどうなるか、見守る価値はあるな。
データセンターに加えて、OpenAIは独自のAIチップも開発してるんや。これによって、現在AIモデルの開発と実行に使ってるNVIDIAチップへの依存度も減らせるかもしれんな。
さて、これで今週のAIニュースとハイライトは以上や。みんなはこれらについてどう思う?コメント欄で教えてな。
いつも通り、トップのAIニュースやツールを探して、みんなに共有していくつもりや。この動画を楽しんでくれたなら、ぜひ「いいね」を押して、シェアして、チャンネル登録してな。これからもコンテンツをアップしていくから、楽しみにしててな。
毎週AIの世界ではめっちゃたくさんのことが起こってて、YouTubeチャンネルだけですべてをカバーするのは無理やねん。だから、AIで起こってることすべてを本当に把握し続けたいなら、無料の週刊ニュースレターを購読してな。リンクは説明欄に貼っとくで。
見てくれてありがとう。次の動画でまた会おな。

コメント

タイトルとURLをコピーしました