本動画は2026年3月初旬のAI業界における主要な動向を包括的に解説するものである。GoogleによるNano Banana 2とGemini 3.1 Proのリリース、OpenAIの最高性能モデルGPT-5.4 Proの登場、MicrosoftのCopilot Tasksといったエージェント型AIの進化が報告される。一方で、Anthropicと米国防総省の倫理的対立、OpenAIへの大規模ボイコット運動「Quick GPT」、中国Quenチームの解散など、業界を揺るがすドラマも展開している。さらに、ロボティクス分野ではスタンフォードのFSME記憶システムやPhysical Intelligenceの15分持続タスク実行能力、BMWの欧州工場におけるヒューマノイド導入など、AIの物理世界への統合が加速している状況が明らかにされる。

- 今週見逃したかもしれないAIニュースの数々
- GoogleのNotebook LMシネマティックアップデート
- Gemini 3.1 Proの登場
- OpenAIのGPT-5.4 Proリリース
- MicrosoftのCopilot Tasks
- MicrosoftとAIスロップ問題
- Perplexity Computer – 汎用デジタルワーカー
- ニュースレターのご案内
- Anthropicと国防総省の対立
- Quick GPT運動とOpenAIへのボイコット
- OpenAIの内部取引疑惑
- Quenチームの解散
- ロボット工学のブレークスルー – FSME記憶システム
- Physical Intelligenceの長期記憶システム
- Faraday FutureのヒューマノイドロボットとBMWの工場配備
今週見逃したかもしれないAIニュースの数々
それでは、今週皆さんが見逃したかもしれないAI関連のニュースを全て見ていきましょう。早速本題に入っていきます。
まず最初に、皆さんが見逃していたかもしれないニュースとして、Nano Banana 2がついに登場したという話題があります。これはGoogleが開発した画像生成モデルの第2世代で、よほど注意深く追いかけていない限り見逃していたかもしれません。
もちろんGemini Proプランでは無料で利用できますが、ほとんどの人がこれに気づいていなかったでしょう。というのも、Nano Bananaはリリース以来かなり優れた性能を持っていたからです。どのような変更点があるのか気になる方は、こちらをご覧ください。基本的には、ディテールのレベルが本当に向上しています。高度な世界知識、正確なテキストレンダリングと翻訳、4Kアップスケーリング機能が追加されていますが、実はこれは以前からありました。
さらにアスペクト比のコントロール、被写体の一貫性、最大5人のキャラクター、そして14個のオブジェクトに対応しています。
GoogleのNotebook LMシネマティックアップデート
しかしGoogleからのリリースはこれだけではありませんでした。他にも何かリリースされているんです。これは本当に素晴らしいものです。おそらく明日これについての動画を作る予定ですが、これはNotebook LMのシネマティックオーバービューアップグレードで、様々なトピックに関する動画を作成したい場合に使いたくなるような、非常に優れた動画と情報を作成できます。
Notebook LMに馴染みがない方のために説明すると、これは基本的に人々が多くのことを学ぶために使用する教育ツールで、本当に優れています。今回のアップデートでは、アニメーションやモーショングラフィックスを含むシネマティック動画オーバービューが得られます。正直、Googleが内部で何を使用しているのか分かりません。なぜなら、真のAI動画モーショングラフィックス、つまり皆さんが見たことがあるような他のものではなく、オンデマンドでモーショングラフィックスを作成できる動画モデルは、私の知る限り存在しないからです。
そして本当に優れています。ただし動画の生成には非常に長い時間がかかります。私はいくつかの動画で数時間待ちました。しかしNotebookを使用していて、モデルのProバージョンを持っている場合は、ぜひこれを試してみてください。Proというのは、Google Ultraプランを持っている場合のことで、これが最も高価なプラン、月額250ドルまたは200ドルです。
正確な価格は分かりませんが、このプランを持っている場合は、この機能にアクセスできるようになります。つまり、まだ他の人には公開されていません。おそらく大量のトークンを必要とするからだと思います。人々がこれで何を作成するのか、非常に興味深いですね。
Gemini 3.1 Proの登場
もちろん、Googleからのリリースはこれだけではありませんでした。GoogleはAmazing AIを次々とリリースし続けました。ご覧のように、Gemini 3.1 Proもリリースされました。Gemini 3.1 ProはGoogleのフラッグシップGeminiモデルです。覚えておいてください、これは複雑な専門的タスクや開発者タスクのために設計された、ネイティブマルチモーダル高推論システムとして設計されたモデルです。
このモデルについて考えてみてください。このモデルは非常に最近リリースされ、当時はもちろん最高のモデルでした。「このモデルがリリースされた、あのモデルがリリースされた、一体何が起こっているんだ?」と思われるかもしれませんが、覚えておいてください、Googleのモデルは基本的に最高のマルチモーダルモデルなんです。
ほとんどの人が気づいていないのですが、これらのモデルは動画、音声、画像、そして投げかけられるほぼあらゆる種類のものを扱うことができます。他のほとんどのAIモデルには、そのような能力はありません。そして今回さらに強力になりました。注目すべきはMMU Proで、実際に約76.8まで向上しました。
つまり、かなり優れたネイティブマルチモーダルモデルであり、もちろんこれはGoogleがワールドモデルを構築しようとしているからです。多くの機能があります。強力な推論思考モード、より高い信頼性を備えています。より長く、より構造化された出力が可能です。約100万トークンという大規模なコンテキストウィンドウを持っています。
ご存知のように、長いドキュメント、大規模なコードベース、長い音声、長い動画に対応しています。関数呼び出し、Google検索によるサーチグラウンディングをサポートしています。つまり、特にすでにGoogleエコシステムにいる場合は、本当に優れたオールラウンドなモデルです。これがあることを知らなかった方は、ぜひこのモデルをチェックしてみてください。
OpenAIのGPT-5.4 Proリリース
もちろん、新しいモデルのリリースについて話しているなら、OpenAIが何をしたのかについても話す必要があります。OpenAIは独自のモデルをリリースしました。それがGPT-5.4 Proです。5.4 Proは現在地球上で最も賢いモデルです。「ああ、Gemini 3 ProからGPT-5.4 Proに変更しなければならないのか」と思う前に、このレベルでは本当にタスク次第だということを理解してください。
どのモデルも、本質的に優れている一連のタスクがあります。だから以前Gemini 3.1 Proについて話したとき、ネイティブマルチモーダルモデルだと言ったんです。もし画像、動画、音声を常に扱っていて、AIに使用させる必要がある人なら、Geminiが最良の選択肢になるでしょう。しかしGPT-5.4 Proは、推論の非常にエッジケースで優れているモデルです。
例えば、Frontier Mathでは完全に支配的です。コンピューター使用では現在支配的です。そして非常に難しい科学的問題についても、GPT-5.4 Proが支配的な領域です。ですから、もし科学者であったり、研究をしていたり、本当に本当に難しい技術的な作業をしている人であれば、GPT-5.4 Proは高いステークスの専門的および企業作業を行っている人々を本当に助けてくれる高性能最大能力モデルになるでしょう。
このカテゴリーに当てはまる場合、これがあなたのためのモデルになります。もちろん、自分の特定のワークフローに適していると思うモデルを使用できますが、私の知る限り、そして私が見た研究やすべてから、これがGPT-5.4 Proが位置する場所です。
これはすでに持っているはずです。ChatGPT Pro版およびエンタープライズユーザーがAPIまたは標準チャットインターフェイスを通じて利用できます。非常に優れています。OpenAIはもはやモデルに関して本気です。
また彼らが行ったもう一つのことは、推論の間違いを修正したことです。以前のモデルは、使用した場合かなりイライラするものでした。GPT-5.2は標準的な会話に関しては本当にひどかったことを知っています。ですからGPT-5.4 Proは、私が見た限りでは、そのような厄介な傾向を修正することができています。
ただし、特定のユースケースでこれをテストする必要がありますが、標準的な応答に関してははるかに良くなっていると思います。
MicrosoftのCopilot Tasks
GPT-5.4 Proだけがリリースされたモデルではありませんでした。別の会社、Microsoftが、Copilot Tasksをリリースすることにしました。彼らは2月末にこれをローンチしました。これは「自分自身を実行するToDoリスト」として説明されています。必要なことを自然言語で説明します。そしてCopilotがそれを計画し実行します。様々なアプリやサービスにわたって、独自のコンピューターとブラウザーでバックグラウンドで作業し、完了したら報告します。
Microsoftが示す大きな変化は、これが新しいフェーズの始まりであるということです。会話型チャットボットは基本的にAIの第一章であり、今日は第二章の始まりです。応答するシステムと作業を実行するシステムとの区別を描いています。
これは実際に何ができるのでしょうか? 実際の例には、毎晩返信の下書きとともに緊急のメールを表示すること、プロモーションメールから自動的に配信停止すること、アパートのリストを追跡してショーイングを予約すること、会議とカレンダーに関する月曜日の朝のブリーフィングを組み合わせること、シラバスを練習テストとブロックされた集中時間を含む完全な学習計画に変えることなどが含まれます。
もちろん、いくつかのガードレールがあります。お金を使ったり、代理でメッセージを送信したりするような意味のあるアクションを取る前に、同意を求めるように設計されています。そしていつでもタスクをレビュー、一時停止、またはキャンセルできます。
現在、これは限定的な研究プレビュー段階にあり、公開ウェイトリストは今後数週間で拡大され、その後より広範なローンチが行われます。これは基本的に、PerplexityコンピューターやClaudeコンピューター使用に対するMicrosoftの答えです。同じエージェント型AIの波ですが、これは開発者ではなく、メインストリームおよび消費者ユーザーを対象としています。
MicrosoftとAIスロップ問題
かなりクールなツールであるPerplexity Computerについて話す前に、Microsoftについて話さなければなりません。Microsoftがリリースしたものについて話したばかりですが、Microsoftは実際にこのAI用語にうんざりしています。Microsoftには現在、彼らのDiscordを悩ませている用語があり、それは「Microslop」と呼ばれています。
今やAIスロップという言葉を聞いたことがない人はいないでしょう。そして現在、Microslopはマイクロソフトの軽蔑的な名称となっています。これは主に、Windows、Office、その他の製品へのMicrosoftの攻撃的なAI推進に腹を立てている人々によって使用されており、同社が有用なソフトウェアの代わりに低価値のAIスロップを提供していることを示唆しています。
つまり、これらの2つの単語を組み合わせたもので、基本的にMicrosoftが製品に何の努力も払っていないと言っているのです。この用語はかなり前から存在していましたが、最近爆発的に広まりました。多くの人が「AIスロップ、Microsoft、その関連性を作るのは非常に簡単だ」と考えているからです。
さらに、Microsoftが公式Discordサーバーでこの単語を禁止した後、さらに注目を集めました。もちろん、インターネットのトロールが何を好むか分かりますよね。彼らはできる限りのソーシャルプラットフォームでその言葉を使い続けるでしょう。かなりクレイジーです。
Perplexity Computer – 汎用デジタルワーカー
さて、いよいよPerplexity Computerの時間です。これは、あなたと同じインターフェースで動作する汎用デジタルワーカーです。推論し、委任し、検索し、構築し、記憶し、コーディングし、提供します。何時間も、何ヶ月もワークフローを実行できます。これは単なるチャットボットではありません。これは本当に印象的なデジタルワーカーです。
基本的に19のAIモデルを使用しており、これはかなりクレイジーです。Claude Opus 4.6をコア推論エンジンとして使用し、最適なモデルでサブエージェントを調整します。Geminiはディープリサーチ用、Nano Bananaは画像用、VO3.1は動画用、Grokは軽量タスク用、GPT-5.2は長い記憶用です。基本的に、タスクの各部分に対して自動的に適切なAIを選択するモデル非依存のオーケストレーションレイヤーです。
そして問題に遭遇すると、それを解決するためにサブエージェントを作成します。各タスクは、実際のファイルシステム、実際のブラウザー、実際のツール統合へのアクセスを持つ、分離されたコンピューティング環境で実行されます。これは非常に印象的です。OpenClawのPerplexityバージョンのようなものです。研究、設計、コード、デプロイ、単一の会話からプロジェクトをエンドツーエンドで管理できます。メモリを持っています。
過去の作業を覚えています。何百ものサービスに接続でき、クラウドで安全に実行されます。ライブウェブサイト、財務分析、データビジュアライゼーションを出力し、完全なWebアプリを構築できます。かなりクレイジーです。私の仕事のいくつかを行います。すべてではありませんが、十分な量を行います。先ほど言ったようにOpenClawと比較されていますが、重要なのはPerplexityがマルチモーダルオーケストレーションのようなもので、もちろん安全性の問題はありません。
このツールはもちろんかなり高価だと言えるでしょう。月額200ドルのPerplexity Maxティアです。完全にクラウド上で実行され、月に10,000クレジット、さらに20,000クレジットの一回限りのボーナスがあります。パワーユーザーであれば非常に効果的です。試してみることをお勧めします。
もしあなたがAIは好きだけど、CLIコーディングやそういったエージェントの設定に対処したくない、かなり非技術的なパワーユーザーであれば、これはおそらくあなたにぴったりです。本当に便利で、時間が経つにつれてより多くの人がこれを使用すると思います。
ニュースレターのご案内
このチャンネルを見ているということは、明らかにAIを真剣にフォローしている人ですね。私はニュースレターを持っていて、毎週注目する価値があると思うことを共有しています。単にバイラルになっているものだけではなく、無料です。トップティアのAIニュースのリンクは説明欄にあります。
Anthropicと国防総省の対立
さらに企業ドラマに入るなら、Anthropicに何が起こったかを見る必要があります。Anthropicは基本的に竜巻の中にいます。なぜなら、クレイジーなことを経験してきたからです。他に言いようがありません。過去1週間でAnthropicがどうだったかを見ると、最もクレイジーな時期でした。そして彼らの会社に起こったことの1つで、文字通り歴史を作りました。
すべてはこの投稿から始まりました。実際にはそこから始まったわけではありませんが、それが一部であり、転換点となった主要なものでした。事実として、Anthropicは基本的に政府に対して、「大量監視と自律兵器の2つにLMを使用させる準備ができていない」と言いました。そして国防総省が最終オファーを提出したとき、Dario Amodeiは基本的に公に、これらのことにClaudeを使用することを良心的に許可できないと述べました。そしてトランプはこれをTwitterに投稿しました。
覚えておいてください、これはアメリカ合衆国大統領であり、彼は基本的に、過激なウォーク企業が偉大な軍隊がどのように戦い、戦争に勝つかを決定することを決して許さないと言いました。その決定は最高司令官に属しています。つまり、このAnthropicの中傷すべてを読み取るつもりはありませんが、彼がここで言った本当に信じられないことは、すべての連邦機関はAnthropicの技術の使用を直ちに停止しなければならず、6ヶ月の段階的廃止期間が必要だと言ったことです。
そして彼は民事および刑事上の結果を脅迫しています。そしてもしAnthropicが移行期間中に協力しない場合、行政府の全力が彼らに対して展開される可能性があると考えています。AIでこれが起こったのはかなりクレイジーです。個人的には少なくとも1年か2年はこれを予期していませんでしたが、現在彼らはまだ話し合い中ですが、これらの企業間の関係は良くありません。
そしてこれは将来にとって良い兆候ではありません。国として前進するつもりなら、トップのフロンティアAIラボと米国政府の間に良好な関係を持つ必要があります。Anthropicのような企業をサプライチェーンリスクとして指定すると、その関係を完全に悪化させることになります。Anthropicはまだ議論中なので、これが今後どのように進むのか正確には分かりません。
彼らの一般的な推論に関するモデルは信じられないほど優れているので知っています。彼らがいくつかのクレイジーな前例を作ったので、ここで正確に何が起こるのか興味深いです。しかし、今はAI業界にとってワイルドな時期です。
Quick GPT運動とOpenAIへのボイコット
しかしドラマはこれだけではありませんでした。Quick GPTもありました。推定250万人がQuick GPT運動が勢いを増すにつれてChatGPTの使用をやめました。なぜこの運動が始まったのか疑問に思っている場合、いくつかの要因がありました。正直なところ、この運動は2023年または2024年にも始まっていた可能性があります。OpenAIが経験してきたすべてのことのためです。
この反発の波全体を引き起こした元々の大きなきっかけは、Greg Brockmanの2,500万ドルの寄付でした。FECの提出書類により、Opening Eye社長のGreg Brockmanがトランプ支持団体であるMara Inc.に2,500万ドルの個人寄付を行ったことが明らかになりました。そしてそれが最初の反発を引き起こしました。特にChatGPTの初期ユーザーベースの大部分を占めていた左寄りのクリエイティブテック層の間でです。
その上にICEの角度がありました。2026年1月に公開された国土安全保障省のAIインベントリにより、ChatGPTがICEの履歴書スクリーニングツールで使用されていることが明らかになり、それが事態を少し悪化させました。人々は自分のサブスクリプション料金が移民執行に直接資金を提供していると感じました。そしてもちろん国防総省の契約があり、これが本当に主流になりました。
Anthropicが大量監視と完全自律兵器にAIを使用させることに関して線を引いたことを覚えていますか? 国防総省はそれに同意するつもりはありませんでしたが、OpenAIが基本的に介入し、代わりに契約に署名しました。そしてそれが物事が基本的に爆発した瞬間でした。
OpenAIは基本的にAnthropicが倫理的理由で拒否した契約を受け入れました。そしてCHPモバイルアプリのインストールは前日比295%に跳ね上がりました。Sam Altmanは後に、「金曜日にこれを急いで出すべきではなかった。問題は非常に複雑で、明確なコミュニケーションが必要だ」と述べました。そしてもちろん、ChatGPTが5.2モデルでかなり悪くなったという事実もあります。
そして、それが彼らの評判を損なっています。なぜなら、多くの人が日常のワークフローでそれを使用していたからです。そして、この背後には多くの有名人もいました。文字通り、Katy Perryのような人々がClaudeにサインアップする必要があると言っていました。そして、これはClaudeが主流の意識を得た最初の時だと思います。
友人たちから「ねえ、Claudeを使ったことある?」と連絡がありました。かなりクレイジーでした。
OpenAIの内部取引疑惑
もちろん、OpenAIが予測市場のインサイダー取引で従業員を解雇したこともありました。これも非常に興味深いものでした。そこで何が起こっているのか馴染みがない場合、予測市場は基本的に未来に賭ける方法です。そしてそれらの市場はAIに関することを持っている傾向があります。
「どのAIが3月のトップモデルになるか? どのAIがこのベンチマークでリリースされるか? この値を持つか? その値を持つか?」というようなものです。OpenAIは誰かを見つけて解雇することができました。
Quenチームの解散
AIドラマを続けるなら、Quenチームの解散に関する大きなストーリーを見ることができます。完全な内訳を見ると、2026年3月3日、Justinとして知られるQuenチームの技術リードであるLing Yang Yanが正式に辞表を提出し、ニュースが広まり、強い感情的反応を引き起こしました。同日、ポストトレーニング責任者のYu Bowenも退職しました。そしてQuen Codeの責任者であるHubinは、すでに2026年1月に静かに去ってMetaに加わっていました。
なぜQuenチームが解散したのか疑問に思っているなら、彼らのラボは基本的にQuenチームを解体することを計画しており、垂直統合構造から、事前トレーニングとポストトレーニング、テキスト、マルチモーダル、その他の機能のための個別のチームを持つ水平構造システムに移行しています。そしてこれは、これらのチームはより緊密に統合されるべきであり、分離されるべきではないというLinnの哲学と直接矛盾していました。
基本的にここにあったのは、企業の再編がそれを構築した人物の技術的ビジョンと衝突したということです。
ロボット工学のブレークスルー – FSME記憶システム
さて、ロボティクスのニュースに入りましょう。FSMEがありました。これはスタンフォード大学の記憶システムで、ロボットAIがモデルを再トレーニングすることなく、リアルタイムで物理的原理を学習できるようにします。基本的に、人間がそうするように、ロボットに実行することで学習する能力を与えています。
これが解決する中核的な問題は、ロボットを制御するAIの頭脳であるVLMが、物理学を抽象的に理解しているということです。摩擦が何であるかは知っていますが、試してみなければ、特定のボールが特定の表面でどのように転がるかを予測できません。FSMはこの本の知識と実世界の経験の間のギャップを修正します。
この本当にクールなものがどのように機能するか知りたい場合、3層の記憶システムを使用しています。エピソード的なので、生の経験、何が起こったかを保存します。次に、検証可能な仮説、なぜそれが起こったかを生成します。そして、次回何をすべきかという検証済みの原則を促進します。重要な洞察は、適用前の検証です。それをルールとしてコミットする前に仮説をテストし、時代遅れの経験に従う硬直性の罠を回避します。
生の経験検索は23%の成功率でしたが、FSMの原則化された抽象化は76%の成功率でした。30分間のセッションでの実世界の改善で、一貫性があり測定可能でした。
大きな絵は、これが基本的に試行錯誤を通じて直感を発達させているロボットであるということです。人間が飲み物を注ぐ方法やブロックを積み重ねる方法を学ぶのと同じ方法です。そしてこれは、ロボットが動作すればするほど賢くなることへの直接的なステップであり、これはもちろん実世界での展開のための基本的な要件です。
学習された原則が人間が読めて転送可能であるという事実は、それを実用的に有用にしており、単に学術的に興味深いだけではありません。
Physical Intelligenceの長期記憶システム
もちろん、これだけがロボティクスの更新ではありませんでした。Physical Intelligence、間違いなく私のお気に入りのロボット会社もありました。これは現在最も資金が豊富なロボティクスAIスタートアップです。これはBezos、OpenAI、Sequoia、Kosslerなどに支援されている会社です。そして彼らの全体的な使命は、OpenAIがテキストの基盤モデルを構築したのと同じように、ロボットの基盤モデルを構築することです。
彼らがリリースしたのはMEM、マルチスキル具現化メモリです。基本的に、短期視覚追跡と自然言語での長期ナラティブを組み合わせています。彼らの最新モデルは、現在最大15分間集中を維持できます。キッチン全体を掃除したり、ゼロから食事を準備するのに十分な長さです。
これがどのように機能するか疑問に思っているなら、アーキテクチャはメモリを2つの異なるモードに分割します。短期視覚メモリは、効率的なビデオエンコーダーを使用して、最後の数秒間の密な画像ベースのメモリをキャプチャします。全体像については、モデルは自然言語でセマンティックイベントを要約します。ドアを開けるすべてのフレームを覚えるのではなく、「冷蔵庫のドアを開けた」というメモを保存するだけです。
そして、このテキストメモリは、ロボットが各サブタスクを完了するにつれて、思考の連鎖プロセスを介して更新されます。以前は、モデルがオブジェクトを掴むのに失敗した場合、まったく同じ失敗した戦略を繰り返し試みるかもしれませんでした。しかしメモリがあると、ロボットはコンテキスト適応を示します。
1つのデモンストレーションでは、異常に低いテーブルから箸を拾おうとしているロボットがありました。失敗していて、その後短期バッファで失敗を覚えていました。その場でアプローチを調整し、2回目の試みで成功しました。繰り返しになりますが、ロボットが記憶を得始めているのを見始めています。
Faraday FutureのヒューマノイドロボットとBMWの工場配備
ここで興味深いことがあります。2026年2月初旬、Faraday FutureはFFAI Robotics Inc.の設立を発表し、ラスベガスのNADAショーで具現化AIロボットを正式にローンチし、基本的にTesla Optimusのプレイブックをコピーしています。
3つの異なる製品があります。35,000ドルからのフルサイズプロフェッショナルヒューマノイドと5,000ドルのエコシステムスキルパッケージがあります。次に、FFマスターとアスレチックアクションマスターヒューマノイドがあり、20,000ドルからで3,000ドルです。
そしてもちろん、四足歩行のセキュリティコンパニオンロボット、Aegisがあります。非常に興味深いですが、実は問題があります。なぜなら、彼らは実際に中国のロボットをリブランドしただけだからです。
一部の人々は、これらのモデルがAGI Bot A2およびX2と非常に似ていることに気づきました。そしてFF futuristはAI botsハードウェアと特定の仕様を共有しています。つまり、このロボット会社が何をするのか見るのは非常に興味深いです。彼らは実際に中国の対応物から機能し進化するロボットを持つことができるのでしょうか、それとも単にリブランドしているだけなのでしょうか? 分かりません。
ロボティクスは非常に興味深い場所です。ヒューマノイドの更新はまだあまり見ていません。実際のヒューマノイドの更新を見たい場合、BMWが欧州工場に最初のヒューマノイドを配備したことがありました。彼らがこのロボットをどのように持つことができたかを見るのは非常に興味深かったです。
実際にこのツイートを見ました。説明欄にリンクを残しますが、ロボットは実際に作業をしています。彼らは工場内でこれらのロボットを使用してより多くのことを達成する方法に関して、さまざまなAI探索を探求しようとしています。もちろん、まだそこには達していないと思いますが、それでもこれらのヒューマノイドロボットに関して将来持つことができるものを見るのは興味深いです。


コメント