リークされたAI技術が大規模言語モデルを時代遅れにする!

AGI・ASI
この記事は約21分で読めます。

この動画は、現在の大規模言語モデルを時代遅れにする可能性のある4つの秘密のAI技術について解説している。Googleの無限寿命AI、ヤン・ルカンが提唱する新アーキテクチャ、自己改善型合成データ、そしてGoogle DeepMindのワールドモデルという革新的な技術が、従来のトランスフォーマーベースのLLMの根本的な限界を克服し、より能力の高い汎用人工知能への道筋を示している内容である。

AI技術の秘密の進歩

外部から見ると、特に企業がより秘密主義になってからは、AI の進歩が停滞しているように感じられるかもしれません。現在のAIスタックを破壊しようとする試みはほとんど見られません。しかし舞台裏では、多くの新しい画期的な技術が醸成されています。現在のLLMを時代遅れにする技術です。

私たちが話しているのは、はるかに高い能力、より高い知能、より高速で、より信頼性の高いAIモデルについてです。この動画では、主要なラボから研究者によって、または企業自身によってリークされた4つの秘密技術について話したいと思います。ただし概念レベルでの話であり、実際のレシピはまだ隠されています。最後には、現在のAIモデルがいかに根本的に欠陥があるか、そしてこれらの新技術のいずれかによって文字通りすべてが変わる可能性があるということを考えさせられることでしょう。

第1の技術:Googleの無限寿命AI

最初は、Googleで醸成されている無限寿命AIです。新しいAIを存在させ、望む限り長く維持できる新しいアーキテクチャです。この新しいAIのインスタンスを生成すると、それはあなたの人生やプロジェクトについて学習し始めます。あなたが気にすることについてそれが得意でなければ、単に教えればよいのです。チュートリアル、トレーニング、例を与えます。

このAIは無期限に学習し適応し続けることができます。今日、汎用人工知能(AGI)を構築する最先端の試みは、トランスフォーマーベースの大規模言語モデルです。トランスフォーマーは大量の並列計算を利用することに非常に効果的で、それが人気の主な理由です。

しかし、推論時間におけるAIの寿命を制限するというよく知られた問題があります。基本的に、トランスフォーマーはデジタル脳の構築には優れています。しかし、その脳が実際に現実世界で動作する時になると、数分間生きて死んでしまいます。もちろん、デジタルなので別のコピーを実行できますが、毎回やり直さなければならないため、貴重な情報の多くを失います

コンシューマー側では、この短い寿命を限られたコンテキストウィンドウとして、デジタルコピーを新しいチャットセッションの開始として見ています。ちなみに、寿命は比喩です。AIは時計の実際の時間ではなく、処理できるトークンの数によって制限されます。今度の新しいアーキテクチャでは、AIは無限のコンテキストウィンドウで永遠に生きることができます

そして、それは本当のゲームチェンジャーです。この分野で働く人として、Manifest AIのCEOであるJacob Bachmannが、この新しいクラスのアーキテクチャについて明かした内容を聞いてください。

私のようにこの分野で働く人間にとって、もうすでに手の内は見えています。トランスフォーマーには支配的なアーキテクチャとしての時間があまり残されていません。2025年末、つまり今年の終わりまでに、すべてのハイパースケーラーは少なくとも準二次基盤モデルに取り組むことになるでしょう。

来年の終わりまでには、誰もトランスフォーマーモデルを使わなくなるか、ほとんど使わなくなるでしょう。私たちが得る応答を制御するためにモデルにデータを与える方法が2つあるのに、そのうちの1つに10億倍多くのデータを投入しているのは、ちょっとばかげています。なぜそんなことをしているのでしょうか? 私たちは非常に具体的でよく理解された利益を得ています。

これはコンテキストスケーリング曲線、またはコンテキスト的損失曲線と呼ばれるものです。基本的に、モデルにより多くのトークンのコンテキストを与えるにつれて、その予測が改善されることを示しています。この場合、負の対数尤度、つまり損失を測定しているだけですが、意味があります。非常に異なるスケールのモデルである2つの線の間のギャップは、多くのコンテキストを与えた時の一方の線の終端と、同じ線の始点との間のギャップほど大きくありません。

トランスフォーマーの限界と新アーキテクチャの解決策

では、何がトランスフォーマーをそれほど制限し、この新しいアーキテクチャがそれをどう修正するのでしょうか? おそらくご存知のように、トランスフォーマーは次のトークン予測器です。ある量のテキストを与えると、次のトークン、つまり単語を予測します。しかし、どうやって一度に一単語ずつ会話を続けるのでしょうか?

トリックは、そしてこれがChatGPTを大成功させた理由ですが、多くのユーザー/アシスタントのターン制会話でモデルを微調整し、アシスタントのターンの最後に何らかの特殊文字を置くことです。例えばEOTとしましょう。AIは各アシスタントのターンの最後にこの特殊文字があるべきだと学習します。

そこで、テキストをモデルにフィードバックし続け、モデルはその特殊文字が見えるまで一度に一つのトークンを生成します。そうすると、アシスタントのターンが終わったことが分かります。そこでユーザーが再び入力するのを待ちます。

以前のすべてのやり取りを含むそのテキストすべてを取って、モデルにフィードバックします。モデルは別のトークンを与え、それが続きます。一度に一つのメッセージでAIと会話をしているように見えるかもしれませんが、この機械にはループや記憶の概念はありません

単に巨大なテキストの塊を受け取り、次のトークンを予測するだけです。会話が続く場合、AIはより大きく、より大きなテキストの塊を処理しなければなりません。そして、トランスフォーマーはそれが特に苦手です。なぜなら、トランスフォーマーは、すべての単語の、自分自身を含む他のすべての単語との関係に注意を向けるからです。これはn × nで、単語数が線形に増加するにつれて二次関数的に爆発する操作です。

つまり、これはより多くの計算の問題ではありません。より長い時間軸で追いつく希望は実際にはありません。では、解決策は何でしょうか? より詳しく見ると、問題全体は単に記憶です。何を記憶すべきか? 何を忘れるべきか? そしていつ?

トランスフォーマーは基本的に最悪の解決策を持っています。すべてを常に記憶するだけです。しかし、アドオンとしてではなく、メインシステムの一部として記憶を含む、準二次と呼ばれるアーキテクチャのクラスがあります。

Googleは数ヶ月前に、「Titans, learning to memorize at test time」と呼ばれる彼らの研究の一端を見せてくれました。Titansは、サプライズメカニズムを使用してモデルがより選択的に何を保持するかを決められることを示しました。そこで彼らはモデルに予期しないことを記憶するよう教え、常識推論、ゲノミクス、時系列タスクでトランスフォーマーより効果的になることができました。

短期、長期、メタ記憶システムの3層を使用して、彼らはモデルを訓練して情報をより効果的に保持し、より効率的でありながら、より長いコンテキストウィンドウでトランスフォーマーを快適に打ち負かしました。Titansは素晴らしい一端であり、GoogleがGeminiのコンテキストウィンドウを100万まで押し上げるために同じアイデアの一部を使用したと推測できますが、すべての主要なラボで、より統合された記憶システムでトランスフォーマーを置き換えようとする競合するアイデアが数多くあり、そのいずれもがゲームを完全に変える可能性があります

第2の技術:ヤン・ルカンの新アーキテクチャ

2番目の技術は、誰もがチューリングテストは終わったと言うのが好きなのに、AIは実際にはそれを通過したことがないことを示しています。毎回穴を見つけることができる簡単なテストがあります。そのテストについて話しますが、まず、なぜその穴が存在するのかを見てみましょう。

現在、ニューラルネットワークは非常に明白に見えます。ニューロンとパラメータと重みで脳をコピーするだけです。しかし何十年もの間、それは周辺的なアイデアと考えられていました。そして、その間にそれを擁護した主要な人物の一人が、今ではLLMから移行したと言っています

ジェフリー・ヒントンとヨシュア・ベンジオと並んで現代AIの生みの親の一人と考えられているヤン・ルカンは、こう言いました。

しかし、皆さんの何人かを驚かせるかもしれないことを一つお話しします。私はもうLLMにそれほど興味がありません。ご存知のように、最後のものは業界の製品担当者の手にあり、周辺での改善のようなもので、本当に現実世界に対処できるシステムに必要だと思うアーキテクチャのタイプは、現在我々が扱っているものとは完全に異なります

彼は現在のAIモデルの2つの根本的な問題に対処する新しいアーキテクチャに取り組んでいます。最初の問題は機能のように聞こえるかもしれませんが、ヤンはそれをバグ、または少なくとも我々が根本的に間違ったことをしている非常に良い兆候だと考えています。例えばChatGPTと話している時、地球上のどの人間とも著しく対照的なことが一つあります。AIはどういうわけかすべてを知っています

インターネット全体を記憶していて、それはどの人間にとっても不可能です。向こう側の人がすべてを知っているなら、それはAIです。それほど単純です。なぜそれがバグかもしれないのでしょうか? 概念的に、AIは脳を模倣しています。脳は何十億もの相互接続されたニューロンの巨大なネットワークです。

そして、私たちが知り理解するすべては、シナプスと呼ばれるこれらの接続に保存されます。理論的には、これらの接続にどれだけの情報を保存できるかには限界があります。ネットワークが大きくなるほど、より多くの情報、ヒューリスティック、パターンをそれらに保存できます。今、驚くべき部分は、今日最大のAIモデルが約2兆のパラメータを持っていることで、パラメータは脳のシナプスのデジタル等価物です。

通常の脳は10から100倍多くの接続を持っています。シナプスはアナログで、おそらく32ビット浮動小数点パラメータよりも多くの情報を保持していることを考慮に入れていません。しかし、人間はインターネット全体はおろか、100冊の本でさえ覚えることはできません

ヤン・ルカンのアイデアは、おそらく私たちは正確な単語にあまりにも多くのパラメータを無駄にしているということです。パターンを保存するのに十分なスペースがありません。正確な単語に無駄にされた接続は、より高レベルの抽象化の機会から奪われます。すべての答えを記憶する学生と、正確な単語は覚えていないが主題を理解している学生の違いのようなものです。単語を記憶することは十分に一般化しません

そして、おそらくそれが私たちがまだAGIを持たない理由です。現在のAIの解釈可能性研究は、実際にモデルがパラメータ不足であることを示しています。重ね合わせに関するすべての解釈可能性研究は、モデルが常にパラメータ不足であり、可能な限り多くの情報を詰め込むことを強制されていると述べています。そして、十分なパラメータがなく、特定の行動を模倣するためだけにモデルに報酬を与えている場合、これらの非常に深い、より広い一般化を形成するスペースを持つ可能性は低くなります

2番目の問題は思考と計画です。推論や思考モデルは存在しますが、それらは実際の思考と計画がどのようなものかの漫画版です。モデルを会話型にした方法を覚えていますか? ユーザー/アシスタント形式で出力するようにモデルを微調整しました。そして今、モデルに思考させるために、別のセクションを追加して思考と呼びます。

ユーザー側では、思考はモデルが通っている異なるプロセスのように見えます。しかし実際には、それは再びこの巨大なテキストの塊の一部にすぎません。それが機能しないと言っているわけではありません。明らかにモデルが問題により多くの計算を費やすことを強制し、また多くの数学とコーディング問題を使用してこの領域で論理的思考を強化する機会があり、モデルがより良い解決策に到達するのに役立ちます。

しかし、モデルは実際には考えていません。自分自身に声に出して話しているだけで、それは非常に遅く、非効率で、不正確なプロセスです。代替案は何でしょうか? アイデアの空間で考える能力をモデルに与えることです。

トランスフォーマーでは、テキストをモデルに供給する時、最初の層は単に学習されたルックアップテーブルで、各単語をベクトルに変換します。ベクトルは本質的にアイデアや概念の表現です。内部的に、トランスフォーマーモデルは信じられないほど豊かな高次元ベクトル空間内で概念の理解を培います

しかし、最終的な出力層は、この複雑な連続表現を限られた語彙からの離散的選択に蒸留しなければなりません。この広大な内部概念空間から有限の単語セットへの投影は、必然的に元の意味論の一部の損失をもたらします

今、アイデアの空間で数分間考えることができるモデルについて考えてみてください。アイデアを単語に投影する必要がなく、結論に達するまでベクトルを操作します。そして単語を出力し始めます。面白いことに、元のニューラルネットワークが却下された同じ理由で、この新しいアプローチはまだ人気がありません

ベクトル空間での思考プロセスは読み取り可能でなく、研究者はモデルが何について考えているかを知りたがります。元のDeepSeek R1論文でさえ、モデルがその思考をトークンに投影することを強制されたにもかかわらず、言語を混合し、奇妙な記号を使用して、思考プロセスのためのより効率的な言語を発明しようと試みました

しかし、研究者は実際にパフォーマンスを損なったにもかかわらず、読み取り可能な思考を持つようにモデルを微調整しました。モデルが数分間アイデアの空間で考える場合、それを地に足をつけたままにし、合理的なタイムラインで十分な報酬を得ることを確実にするのは非常に困難です。よりオープンエンドであることは、潜在的により強力ですが、指導するのがより困難です。

この最前線では、異なるラボで競合するアイデアがあります。しかし、ヤン・ルカンのアーキテクチャはjoint embedding predictive architectureまたはJEPAと呼ばれます。これは、詳細な出力ではなく、特徴と意味表現を予測するようにモデルを押し進める設定です。例えば、画像JEPAでは、モデルは生のピクセルではなく、欠けているパッチの抽象表現を予測しようとします。

どのように機能するかは少し複雑ですが、最善を尽くしてみます。3人の友人がゲームをしていると想像してください。チャーリー、ペニー、テリーです。チャーリーは一部が欠けている画像を受け取り、それをペニーに説明します。青い空に白いふわふわしたものがあり、右の角が欠けています。ペニーは画像を見ることはありませんが、チャーリーの説明に基づいて、その欠けている部分に何があるかを推測しなければなりません。

彼女は言います。その欠けている角に黒いセダンがあると思います。しかし、その後テリーが完全な画像を手に入れます。彼はそれを見て言います。いいえ、実際にはもっと空と白いふわふわしたものです。そこで、チャーリーとペニーの両方が、白いふわふわしたものがある青い空の時、欠けている角が同じものである可能性があることを学習します。猫の耳がある時、猫の鼻もある可能性が高いです。空がある時、鳥がいるかもしれません。というように。

そして、多くの訓練ラウンドを経て、チャーリーは実際のピクセルを予測する必要なしに、概念表現を理解することを学習します。実際には、チャーリーとテリー、つまり1番目と3番目の人は実際には同じモデルです。しかし、テリーの重みはより遅く動きます。そのため、チャーリーとペニーは目指すべき、より安定したターゲットを持ちます。

また、重要なことに、言葉での説明はありません。すべてベクトル埋め込みで、画像の非常に豊かな表現をエンコードしています。実際には、VOやSoraのような非常に成功したビデオモデルが、舞台裏で同じアイデアを使用している可能性があります。

しかし、これは思考にどう役立つのでしょうか? モデルはそれらのベクトルと共に作業し、アイデアの空間で行ったり来たりして、話す準備ができた時だけ単語を出力できます。もちろん、言うは易く行うは難しで、特にスケールでは多くのエンジニアリングと実現可能性の課題があります。しかし、アイデア自体は現在のAIを超える深刻な飛躍であり、すべてのラボがそれらに取り組んでいます

どのアイデアが勝っても、一つの定数が残ります。これらのより能力があり、よりオープンエンドなモデルは、必然的により多くのデータを必要とし、インターネットは燃料を使い果たしています

第3の技術:合成データと自己改善

そこで、次の最前線は合成データです。合成データは、「ねえ、o3、この新しいモデルを訓練するデータセットをくれ」のように聞こえるかもしれません。はい、それも一つの方法です。しかし、より効率的で効果的な方法があります。適切に行われれば、合成データは実際にモデルのパフォーマンスを向上させる上で、リアルデータをはるかに上回ります

AlphaGoとAlpha Zeroは一部のリアルデータから始まり、その後セルフプレイで能力を爆発的に向上させました。これは合成データ生成の一形態です。今や隔日で自己改善AIを聞く理由は、まさにこれです。効率的なセルフプレイ環境には、非常に重要な利点があります。自己改善AIが自動的に神自体をもたらすというような誤解がいくつかありますが。

真実は、これらのAIモデルはすべて非常に狭い次元で自己改善できるということです。一般的なシステムが再帰的自己改善を達成するために正しい目標とルールを定義するのは非常に困難です。概念的にさえ解決されているとは思いませんし、エンジニアリングされているのは言うまでもありません。しかし、この動画でスポットを当てる価値があると思った、より有望なものの一つは中国からのAbsolute Zeroでした。

ChatGPT が出てきた後のAI能力の最大の飛躍は、推論モデルから来ました。そして、簡単に触れたように、推論モデルは思考してから応答するという特定の形式で出力するように微調整されます。そして、この領域でより良い推論を持つように強化学習を使用して訓練され、この領域の推論ステップが効果的であることを確認します。

検証可能な答えを持つ困難な問題のデータセットが必要です。モデルに問題を与えます。どう考えるかは教えません。最終的な解決策だけを気にします。そのため、モデルは時間をかけて最終回答に到達するための独自の戦略を開発します。しかし、データセットを考え出すのは簡単ではありません。

専門家の人間が手動でそれらを作成しなければなりません。しかし、Absolute Zeroはそれを回避する素晴らしい方法を持っています。

私たちは、モデルが学習可能性を最大化するタスクを定義し、それらを効果的に解決することを同時に学習する新しい推論モデルのパラダイム、Absolute Zeroを提案します。これにより、外部データに依存することなく、セルフプレイを通じた自己進化が可能になります。

これは、推論モデルを訓練するためのはるかにスケーラブルなソリューションです。システムは問題を解決することがうまくなるだけでなく、問題を提案することもうまくなります。そして、このシステムはデータなしで、独自のサイズのモデル、さらには特定のタスクのために訓練されたモデルを上回ります。

これは無限にスケールするのでしょうか? いいえ、なぜなら検証可能な問題には限界があるからです。そして時間的範囲は限られています。数日の思考を要するかもしれないタスクについて話しているのではありません。少なくとも今のところ、数分の思考について話しています

第4の技術:Google DeepMindのワールドモデル

今、私たちは最後の秘密技術に到達します。デミスが文字通りGoogle IOの真ん中で紹介したのに、誰もがどういうわけか見逃したものです。彼は実際に大きな拍手を期待していましたが、彼が今紹介したものを誰も理解していないようでした。

なぜ人々はそれを理解しなかったのでしょうか? もう少し文脈が必要です。OpenAIとGoogle DeepMindがAGIをどう見るかには不一致があり、哲学の違いが思ったより早く現れるかもしれません

OpenAIは汎用人工知能を、最も経済的価値のある作業の大部分で人間を上回る高度に自律的なシステムと定義しています。この定義は1000億ドルの利益という財政的閾値に基づいています。MicrosoftとのOpenAIの契約で使用される可能性の高いベンチマークです。そのため、OpenAIにとって、AGIは経済活動で人間を上回ることができる任意の自律システムです。すべてにおいて人間より優れている必要も、人間と同等である必要もありません。

そして、これがGoogle DeepMindのデミス・ハサビスがAGIをどう定義するかです。

私が興味を持ち、AGIと呼ぶものは、本当により理論的な構成体であり、アーキテクチャとして人間の脳が何をできるかということです。そして人間の脳は重要な参照点です。なぜなら、それは一般知能が可能である、おそらく宇宙で唯一の証拠だからです。そして、アインシュタインがしたこと、モーツァルトができたこと、マリー・キュリーなどが、同じ脳アーキテクチャで、つまり一つの脳ではなく同じ脳アーキテクチャでできた、歴史上最高の人間でさえできた範囲のことをあなたのシステムができることを示さなければならないでしょう

そして、今日のシステムがそれを持っていないことは私には明らかです。そして、今日のAGIの誇大宣伝が誇張されていると思うもう一つの理由は、私たちのシステムが完全に一般的と考えられるほど一貫していないということです。AGIと呼ばれるためには、今日よりもはるかに一貫している必要があります。

それは数ヶ月かかるはずです。おそらく専門家のチームがそれに明らかな穴を見つけるのに、今日では個人が数分でそれを見つけるのに対して。

さて、自然な質問は、脳がアーキテクチャとしてどのように機能するかということです。これを最初に学んだ時、私は何日もぶっ飛ばされました。脳は、主に視覚、聴覚、嗅覚、味覚、触覚のあらゆる種類の感覚入力を受け取り、あらゆる種類の行動を出力する一つの巨大なニューラルネットワークです。

しかし、多くの人が気づかないかもしれないことは、脳は全く気にしないということです。あらゆる種類の入力を受け取り、それをどうするかを理解します。脳に新しいセンサーを接続すると、それを理解することを学習するだけです。私が史上最も好きなTEDトークからイーグルマン博士の話を聞いてください。

何十万人もの人々が人工聴覚と人工視覚を持って歩き回っています。そのため、この仕組みは、マイクロフォンを取って信号をデジタル化し、電極ストリップを内耳に直接置くか、網膜インプラントでカメラを取って信号をデジタル化してから、電極グリッドを視神経に直接接続するというものです。

これらの技術はシリコンバレーの言語を話しますが、それは私たちの自然な生物学的感覚器官とまったく同じ方言ではありません。しかし、それが機能するという事実は、脳が信号の使用方法を上手く理解するということです。視神経に電極グリッドを接続するだけで、脳がそれを理解し始めるなんて、狂気的ではありませんか? カメラからの完全に外来のデジタル信号です。

ドライバーも、パッチも、ポートもありません。そして脳は「ねえ、ようこそ。今、あなたが私の新しい目だ」という感じです。そして、これは非常に効率的な種類の機械です。本質的に汎用計算デバイスです。すべてを受け取り、それをどうするかを理解します。そして、それは自然が異なる種類の入力チャネルをいじり回す自由を与えると思います。

そこで、私はこれを進化のPH(ポテトヘッド)モデルと呼びます。ここであまり技術的になりたくありませんが、PHはポテトヘッドの略です。そして、私たちが知り愛するこれらすべてのセンサー、目や耳や指先のようなものは、単なる周辺プラグアンドプレイデバイスであることを強調するためにこの名前を使用します。それらを差し込めば、準備完了です。

脳は入ってくるデータをどうするかを理解します。そして、彼らはこの知識を使って、盲人が舌を通して見ることを助けます。これは舌の上に座る小さな電極グリッドです。そして、ビデオフィードがこれらの小さな電気触覚信号に変換されます。そして、盲人はこれを使用することが非常に上手になり、バスケットにボールを投げることができたり、複雑な障害物コースをナビゲートできたりします。

彼らは舌を通して見ることができるようになります。今、それは完全に狂気的に聞こえますよね? しかし、覚えておいてください、すべての視覚は脳内を巡る電気化学的信号にすぎません。あなたの脳は信号がどこから来るかを知りません。それらをどうするかを理解するだけです。出力側でも同じことです。例えば、Neuralinkでは、脳は単にニューロンに接続された電極を使用することを学習し、画面上でカーソルを動かすために信号を送ります。

そのため、脳にはアーキテクチャがあり、テキストモデルではありません。画像やビデオモデルでもありません。何でもモデルです。これが、デミスがワールドモデルという言葉を紹介した時のポイントです。テキストや画像や何かという一つの形式の入力に支配されないが、ビデオ、画像、テキスト、音、何でも、これらすべての異なるモダリティから学習するAIです。そして、入力の性質とは独立した、豊かな世界の表現を内部的に構築します

ヤン・ルカン自身以上にそれを説明する人はいないと思います。

多くの人がワールドモデルに取り組んでいますよね。ワールドモデルとは何でしょうか? ワールドモデルは、私たち全員が心の中に持っているワールドモデルです。これが本質的に思考を操作することを可能にするものです。

私たちは現在の世界のモデルを持っています。もし私がここでこのボトルを上から押せば、おそらくひっくり返るでしょうが、底で押せば滑るでしょう。そして、あまりに強く押せば、ポンと音がするかもしれません。私たちは人生の最初の数ヶ月で獲得する物理世界のモデルを持っており、それが現実世界に対処することを可能にします。そして、言語を扱うよりも現実世界を扱う方がはるかに困難です。

マルチモーダルAIモデルは試みですが、真のワールドモデルははるかに野心的で強力で、デミス・ハサビス自身が言ったように、それがGeminiの最終的な目標とビジョンです。もちろん、Google DeepMindは技術の詳細を明かしませんでしたが、間違いなく彼らは今日話したすべてを少し組み合わせています。

結論

ニュースを見ると、機能し、実際の製品を作り、今成熟しているAIを見ます。しかし、すべての興味深いことはこの領域で起こっています。製品の締切に縛られない科学的挑戦と解決策です。一発でASI(人工超知能)を構築するために去った人を覚えていますか? それが彼が話していたことです。

本当のゲームチェンジャーに対処する容赦ない追求です。少なくともいくつかの明らかな飛躍が視野に入っているようです。

この動画は以上です。作るのを楽しんだのと同じくらい楽しんでいただけたことを願います。ご視聴ありがとうございました。次回でお会いしましょう。

コメント

タイトルとURLをコピーしました