AnthropicのCEOであるDario Amodeiが約2万語に及ぶエッセイを発表し、今後1〜2年以内に到来する可能性のある変革的AIについて4つの大胆な予測を展開している。彼は、AIツールが個別のタスク自動化から職業全体の自動化へと進化し、最大で労働人口の50%が低賃金の恒久的下層階級に陥る可能性を示唆する。さらに、AI技術が全体主義的な監視体制を可能にし、中国への先端チップ販売禁止の必要性を訴える一方、AIモデル自体が複数のペルソナを持つ心理的に複雑な存在へと進化しつつあると主張している。スケーリング則の継続的な効果を信じるAmodeiの見解は、AI業界の他のCEOたちとは一線を画しており、その楽観的なタイムラインと警告的なメッセージが今後のシリコンバレーの議論を形成する可能性がある。

LLMの難しい青年期を乗り越える
あるAI研究所のCEOが、極めて変革的なAIが今後1〜2年、遅くとも2030年までには到来するという信念を一貫して持ち続けています。2030年でさえ、今から50ヶ月未満しか残されていないというのは不思議な感覚ですね。その研究所こそがAnthropicであり、最近ではClaude CodeやClaude Co-work、そしてもちろんそれらを動かすClaude 4.5 OpusとSonnetモデルの開発元でもあります。
CEOのDario Amodeiは、今後1〜2年について独自の洞察を持っていると感じています。そして、この48時間の間に、Amodeiは約2万語にも及ぶエッセイを発表し、良くも悪くも今後の展望について語りました。はい、私はそれを昔ながらの方法で全文読みましたし、その中で参照されているいくつかの論文も読みました。
彼の前回のエッセイ「Machines of Loving Grace(愛の恩寵の機械)」は、かなりの期間、シリコンバレーの関心事となりました。ですから、2026年に起こるであろう会話について、皆さんに大きなアドバンテージを提供したいのです。この動画では、彼が私たちの近未来について述べている4つの大きな主張に分解してお伝えします。これらの予測は、LLMの難しい青年期、つまりこの技術の思春期をナビゲートするという傘の下にあります。
第一の予測:タスクから職業全体の自動化へ
まず、彼はClaude Codeのようなツールが、コード記述のような個別のタスクの自動化から、ソフトウェアエンジニアリングのような職業カテゴリー全体の自動化へと進化すると予測しています。彼はまた、法律や金融分野についても言及しており、最近のExcelへの統合によって、現時点では個別のタスクを手伝ってくれるかもしれませんが、彼はそれがあなたが行っている仕事全体を行うようになると予見しています。
この予測の背後にあるエンジンは、スケーリング則のスムーズでシンプルな外挿です。彼の言葉を借りれば、AIシステムは私たちが測定できる本質的にすべての認知スキルにおいて予測可能な形で向上していきます。より多くのデータと計算力を投入すれば、AIの認知能力が滑らかに、そして容赦なく増加していくのです。
これは、AIが壁にぶつかっているとか、バブルであるといった見出しを無視して、ボールから目を離すなと彼が言っているのです。確かに、特定のツールは短期的に過大評価され、特定の企業は破綻するかもしれませんが、根底にある曲線は強く、一貫性があり、予測可能です。しかし、彼の主要な主張は、それが仕事内の個別タスクの自動化から仕事全体の自動化へと私たちを導くということです。
反論を加える前に、彼の議論の側をもう少し聞いてみましょう。まず、彼は「Machines of Loving Grace」で既にこのようなことを予測していたと言います。つまり、1〜2年先には強力で変革的なAIが登場する可能性があるということです。しかし、その2024年10月のエッセイに戻ると、技術的には彼は早ければ2026年に来る可能性があると予測していました。
つまり、0〜1年先と言うべきだったのです。この新しいエッセイに戻ると、彼は数回このようなことをしており、自分の予測を自分のタイムラインに従って更新していないことに気づきます。いつものように、すべての予測と同様に、彼は重々しく注意書きをつけています。彼は、Anthropicで働く最強のエンジニアの何人か、おそらく最高報酬を得ている人たちが、今ではコーディングのほぼすべてをAIに任せているという驚くべき証拠を引用しています。
ただし、それは彼らのコーディングであって、仕事全体ではないことに注意してください。何が違うのでしょうか? 私はほぼ毎日Claude Codeを使っていますが、その最高の提案は私が思いつかないような天才的なものです。最悪の提案は、あなたが作成するほぼすべてのアプリを破壊してしまうでしょう。しかし、私たちには第二の外挿があることを忘れないでください。彼の考えでは、すべてのコーディングからすべてのソフトウェアエンジニアリングが行われるようになるだけでなく、ソフトウェアエンジニアリングから他のすべてのホワイトカラーの仕事へと進むのです。
指数関数的成長とAIの自己改善
彼の言葉では、基本的な指数関数的成長が続く限り、AIが本質的にすべてにおいて人間よりも優れるようになるまで、数年以上かかることはあり得ないということです。むしろ、彼はAIがAI研究の仕事を自動化し始めるにつれて、指数関数的成長が加速する可能性があると考えています。これにより、月ごとに勢いを増しているフィードバックループが生まれ、現世代のAIが自律的に次世代を構築する地点まで、あと1〜2年しかないかもしれないと彼は言います。
つまり、これらすべてが1〜2年以内に来る可能性が高く、そうでなくても2030年までの数年以内に来る可能性が非常に高いということです。これは、前年比で10倍の収益成長を監督してきた研究所のリーダーからの発言であることを思い出してください。シリコンバレーでさえ、彼の規模の企業にとってこれは前例のない成長です。
しかし、この4つの予測の最初については、私が2つの注意点を加え、それからDemsarbisがさらに3つ目を追加します。私の最初の注意点は、彼がコーディングの進歩のペースをわずかに誇張していると思うことです。たとえば、彼は過去2年間で、AIモデルはコードの1行をかろうじて完成させられる程度から、Anthropicのエンジニアを含む一部の人々のコードのすべて、またはほぼすべてを書くようになったと述べています。
さて、2022年11月にChatGPTで私が行った最初の実験の1つは、コードを書かせることで、このミニフィットネスアプリを作成してくれました。これは素晴らしくて本当にクールだと感じました。つまり、1行のコードを書くことができたのです。実際、2022年11月のオリジナルのChatGPTに基づいて、コーダーたちが「ああ、私たちはみんな自動化されてしまう」と言っているバイラル動画を覚えています。
それは3年半前のことです。そして、このすべて、またはほぼすべてのコードを書くということについてですが、最近OpenAIのエンジニアから、彼らのモデルであるCodexが、Claude Codeとそれほど離れていないものが、コードの約20%を自動化しているという推定を聞きました。Karpathyにとっては約80%です。ですから、Claude CodeとAnthropicに焦点を当てたとしても、おそらくコード自動化の80〜90%について話しているのであって、100%ではないと思います。
私の2つ目の注意点は、ソフトウェアエンジニアリングから金融、コンサルティング、法律の仕事への外挿についてです。私はそれらの仕事がより難しいと言っているわけではありませんが、フィードバックループがより長いと思います。法律契約で何かを見落とすと、ソフトウェアエンジニアリングのユニットテストでの3秒や3分ではなく、たとえば3年後にそれが戻ってきて困ることになるかもしれません。
AIモデルがマッキンゼーやベインなどのコンサルティングレポートのために人員数を分析している間にニュアンスの一部を見逃した場合、その否定的な影響は中期まで現れないかもしれません。それから、より多くの計算力、より多くのトレーニングタスクというエンジン、つまり彼にとってはAIの認知能力の滑らかな増加をもたらしたスケーリング則に戻ります。
スケーリング則の現実:収穫逓減の兆候
私は、この増加が滑らかであり続けていると考えている唯一のAI研究所CEOの1人が彼だと言いたいです。それがAnthropicがコーディングにはるかに重点を置いているからなのかどうかはわかりませんが、Google DeepMindのCEOであるDemis Hassabisが同じスケーリング則について語っている内容をご紹介します。
スケーリング則は非常にうまくいっています。より多くの計算力、より多くのデータを投入し、これらのモデルを一般的に大きくすることで、能力の向上が確実に見られています。そのトレンドは続いています。数年前ほど速くはないかもしれません。収穫逓減についての話もあります。しかし、リターンがないのと指数関数的なのとでは大きな違いがあります。私たちはその中間のどこかにいて、非常に良いリターンがあり、それはやる価値があります。その上で、AGI、つまり汎用人工知能にたどり着くという観点では、既存のアイデアのスケールアップに加えて、あと1つか2つの大きなイノベーションが必要かもしれません。
第二の予測:恒久的下層階級の出現
2つ目の大きな予測は、彼が人口の最大50%の失業または非常に低賃金の下層階級を予見していることです。TwitterやXで、恒久的下層階級から逃れるためにあと数ヶ月しかないという多くのバイラル投稿を見たことがあるかもしれません。やや奇妙なことに、彼はこれが知的能力の低い人々に影響を与えると考えており、それは変えることがより難しいと述べています。
正直なところ、これは18歳や20代の若者に送るメッセージとしては潜在的に有害だと思います。なぜなら、彼らは今後1〜2年で賃金を稼ぐためにあらゆることをしなければならないと示唆しているからです。長期的なことは忘れて、すべてを捨てて、暗号通貨に投資するか、自分のAIファースト・スタートアップを始めるかもしれません。ただし、これは恒久的下層階級が不可能だと言っているわけではありませんが、このトピックが出てくるたびに、この健康上の注意をほぼ付け加えるのが私たち全員の義務だと思います。
個人的には、最も賢明なことは、能力の急速な離陸の可能性を割り引かないことだと思います。実際、Claude CodeやClaude Co-workのようなツールに傾倒して、それらがどれほど優れているか、そしてまだどんな間違いを犯すかを見てください。しかし、その差し迫ったシンギュラリティに未来を賭けないでください。なぜなら、これが今後1〜4年の間に起こる可能性が3分の1あったとしても、起こらない3分の2の可能性についてはどうでしょうか。
他のみんなが気づいていない中でシンギュラリティが来るのを見ることによって、あなたが他のみんなより賢いとは思いません。私にとって、繰り返しになりますが、最も賢明なことは、それを可能性として考慮に入れることですが、すべてを賭けないことです。予想通り、このメタ予測にも私自身の注意点を2つ追加します。
まず、彼は再び、すべてのエントリーレベルのホワイトカラー職の半分のこの置き換えを、今後1〜5年以内としていることに注目してください。しかし、Axiosで報じられた約9ヶ月前の彼の予測は、今後1〜5年のためのものでした。彼が今0〜4年と言っているわけではありません。おそらく、エッセイの中で彼が自分のタイムラインに従って自分のタイムラインを更新していないのを2回目に気づいたでしょう。
彼がこれを行う場所がエッセイにもう1つあります。Amodeiは一人ではないことを指摘したいと思います。Anthropicの共同創業者の1人は、今から2〜3年後には、理論物理学者でさえもほとんどAIに置き換えられる可能性が50%あると述べました。それはJared Kaplanです。
そして、それがより愚かな人々により賢い人々よりも影響を与えるということにどのように当てはまるのか私にはよくわかりませんが、それはさておき。しかし、数段落上からのもう1つの関連する示唆は、これが10〜20%の持続的な年間GDP成長率につながる可能性があるということです。この点で、彼がこの文で使用している言葉に注意せずにはいられません。
経済成長予測の検証
皆さんはおそらく私に技術的なことに集中してほしいと思っているでしょうが、これを指摘せずにはいられません。まず、彼はこの率、10〜20%が可能かもしれないと示唆すると言っています。これは、私が可能だとは思わなかった程度まで言語でヘッジしています。なぜ単に10〜20%の成長率が可能であると言わないのか、あるいは10〜20%の成長率が起こるかもしれないと予測すると言わないのでしょうか。1つの注意語で十分なはずです。
とにかく、皆さんはおそらくその言語の議論には興味がないでしょう。ですから、1960年代以降の過去60〜70年の実際の数字に焦点を当てます。なぜなら、1960年代以降、これが世界のGDP成長のチャートだからです。6%までのスパイクに注目してください。しかし、より定期的には約4%で、時には2%、さらにはマイナス成長にもなります。インターネット革命の影響や、グローバリゼーションと貿易障壁の撤廃、ソフトウェア、スマートフォンの影響が見えますか?
これは、10〜20%の成長率が可能ではないかもしれないと言っているわけではありません。しかし、Dario Amodeiのような科学者にとっては、少なくとも10〜20%が可能かもしれないことを示唆するために、かなり説得力のある証拠を提供する必要があると思います。ちなみに、私の最近の動画のいくつかは、LLMに関する生産性統計についてより深く掘り下げています。
彼はエッセイのこの部分を、労働への影響は規模において前例のない短期的なショックになるだろうと述べて終えています。
第三の予測:全体主義的悪夢の可能性
彼が行う3つ目の大きな予測は、AIがすぐに全体主義的悪夢を可能にすることができるようになるということです。実際、彼はそれが中国におけるデフォルトの結果になる可能性があると考えていますが、米国でもそのリスクがあると考えているという多くのヒントを与えています。超知能を信じる必要さえなく、AIベースの大規模監視を予見できます。
私は自分のPatreonで、人工監視という同じトピックについて完全なドキュメンタリーを作りました。そして、もちろん中国だけではありません。しかし、彼のシナリオはさらに一歩進んで、完全自律型兵器と、強力なAIによって局所的に制御され、さらに強力なAIによって世界中で戦略的に調整される、数百万または数十億の完全自動化された武装ドローンの群れを説明しています。
これは、彼が言うには、無敵の軍隊になり得ます。また、すべての市民を追跡することによって異議を抑圧することもできると彼は付け加えます。たとえばWhatsAppや別の暗号化ツールで安全だと思っていたなら、お知らせがあります。Pegasusは私自身の国で展開されており、民主主義国家で私たちが持っているいくつかの安全装置が徐々に侵食されているとAmodeiが言うとき、私は同意します。
独裁政治と戦うために開発していると言うかもしれませんが、免疫系のように、彼が付け加えるように、それらが私たち自身に向けられ、脅威そのものになるリスクがいくらかあります。しかし、エッセイで彼が繰り返し繰り返し強調する定期的なメッセージの1つは、したがって、中国への先端チップの販売を禁止する必要性です。
私たちは、彼が言うには、チップ、チップ製造ツール、またはデータセンターを中国共産党、CCPに絶対に販売すべきではありません。さて、リスクはかなり自明だと思いますが、それは必ずしも結論に同意するという意味ではありません。少なくともかなりの注意が必要だと思います。私はかなりの数のインサイダーから、もし先端チップを中国に販売しなければ、それは彼らのHuaweiチップの開発を加速させるだけだと聞きました。中国はAIにおいてより急速に自給自足になるでしょう。
中国へのチップ販売禁止の是非
したがって、ソフトウェアがチップが何をしているかを監視する可能性のある計算ガバナンスまたは計算監視の概念は、完全に窓の外に投げ出されるでしょう。さて、これは、中国が先端NVIDIAチップを使用することへの現在のオンオフの禁止が何らかの効果を持っていないと言っているわけではありません。中国のAI研究所のリーダーでさえ、特に計算力のために米国とのギャップが拡大していることを警告しています。
こちらは、間違いなく中国のオープンソースモデルシリーズの中で最高のQwenを担当するAlibaba Group Holding Limitedの責任者、Justin Linです。彼らは言います。「OpenAIの計算力の膨大な量が次世代研究に専念していますが、私たちは薄く伸ばされています。配信要求を満たすだけで、私たちのリソースのほとんどが消費されています。」
彼は付け加えました。「中国企業が今後3〜5年でOpenAIやAnthropicのような企業を飛び越える可能性は20%未満です。」一方で、Amodeiがこう言うとき、私は何かを読み取らずにはいられません。「この重要な時期に中国のAI業界に巨大なブーストを与える理由はありません。」
さて、私を皮肉屋と呼んでください。しかし、Anthropicが前年比で収益を10倍に続け、Amodei自身がエッセイで示唆しているように兆万長者になることの最大の障害は何でしょうか。それは、中国がClaude Codeができることの多くを、あるいはClaude 5 Opusや次に出てくるものが何であれ、10分の1または100分の1の価格でできるモデルを出すことでしょう。
Claude Codeを使用しているすべての視聴者にとって、もし3%劣っているが10倍安いモデルがあったら、切り替えますか? Qwen K2.5でTwitterで数百万回の再生数でちょっとしたバイラリティが起きていて、彼らのフレームワークシステムQwen Codeは、彼ら自身のベンチマークによれば、Claude CodeまたはClaude Opus 4.5を搭載したClaude Codeのレベルにはまだ達していません。
私自身の常識推論のベンチマークであるSimple Benchでも、中国からの利益が続いています。もし私に銃を突きつけたら、おそらくQwen K2.5がClaude Codeに対して大きな市場シェアを獲得することはないだろうと言うでしょう。しかし、中国が先端チップを手に入れるべきではないと言うことに、彼が持っている利益相反に少なくとも対処すべきだったと感じます。
つまり、車で何が起こっているか見てください。2年前に私に聞いたら、私の夢の車はテスラだったかもしれないと言ったでしょうが、今はBYDです。電話では、私は12年間、サムスン中毒でしたが、最近OnePlus 15を手に入れました。それが間違いだったかもしれませんが。Claude Codeがどれだけ先を行っているか、そしてAmodeiがAnthropicと西側諸国が中国よりどれだけ先を行っていることを望んでいるかを考えると、ここで指摘せずにはいられない皮肉がもう1つあります。
Anthropicの初期理念との矛盾
それは、Anthropicの元々の考えはAIのフロンティアを推進しないことだったということです。彼らはAIの進歩を加速させたくなかったので、ChatGPTの後のリリースまで元のClaude 1をリリースしませんでした。真のインサイダーにとっては、OpenAIの取締役会メンバーの1人であるHelen Tonerがそのアプローチを称賛したことを覚えているかもしれません。そして、それがSam Altmanを本当に怒らせ、彼は彼女を解雇しようとしました。しかし、そうすることで、SutskaやOthersが彼を解雇するために結集し、2023年11月に起こったことを引き起こしました。
はい、あなた方の何人かしか覚えていないであろうその大失敗のすべては、Anthropicの元の方針への称賛にさかのぼると言えるでしょう。もちろん、Anthropicは今、Claude Opus 4.5を搭載したClaude Codeがどれだけリードしているかを祝っています。しかし、私が以前は知らなかったAnthropicのために本当に称賛したいことが1つあります。
このエッセイの大部分は、AIが生物兵器を生産するのを防ぐことや、その他のサイバーセキュリティの懸念に焦点を当てています。おそらく法的な理由のため、あるいは原則に基づいて、AnthropicはAPI経由で行うリクエストを分析する分類器を実行しています。彼らはそれらが洗練された敵対的攻撃に対しても非常に堅牢であることを発見しました。
私が知らなかったのは、これらの分類器がモデルへのサービス提供コストを総推論コストの5%近く増加させることです。彼はすべての企業がそのような分類器を持っているわけではないと指摘しています。彼の4番目で最後の予測に移る前に、彼がAIによって強化されるさまざまなリスクについて言及していることも称賛したいと思います。
彼は、最近私が研究しているトピックであるミラーライフについても言及しています。これについては詳しく説明しませんが、もちろん私たち全員が防ぎたいリスクです。
スポンサー紹介と第四の予測
そして、それは今日のスポンサーである80,000 hours、特に彼らのポッドキャストへの素敵なセグエをもたらします。このポッドキャストはYouTubeで利用可能です。ミラーライフは実際に、彼らの最近の動画の1つのタイトルの背後にあるトピックです。「想像できる最悪の技術を止めるためにすべてを辞めた」。そして、そのポッドキャストの最近の成長にもかかわらず、私はまだそれが犯罪的に過小評価されていると思います。
本当にジューシーで、実質的な動画、1時間、2時間、3時間です。ぜひチェックしてみてください。リンクは説明欄にあります。エッセイの4番目の大きな予測は、モデルがすぐに独自の心理を持つペルソナの集合として見られるようになるということです。実際、彼はAIモデルは人々が考えているよりもはるかに心理的に複雑だと述べています。
彼らは事前トレーニングから人間のような動機やペルソナの膨大な範囲を継承しています。言い換えれば、インターネットでトレーニングされることにより、彼らは特定のシナリオで膨大な範囲の異なる人間が何をするかを予測できるようになります。そして、この理論には最初に疑うよりもはるかに多くのものがあります。私は1月15日付のGoogle DeepMindからの「Reasoning Models Generate Societies of Thought(推論モデルは思考の社会を生成する)」というタイトルの分厚い論文を読みました。
それは基本的に、ポストトレーニングのないベースモデルがモノローグでより多く話す傾向があることを示しています。彼らは流暢で一貫性のある答えを優先しているため、単一のペルソナを採用します。彼らは、あなたのプロンプトに応答して一人の人、1つのペルソナが言うかもしれないことを模倣しています。しかし、強化学習モデルを通じて正しい答えを得ることに深くインセンティブを与えると、彼らは自発的に思考の社会を生成します。
彼らは自発的に、待って、ああ、または代わりに、といった言葉を生成します。まるで他の誰かと会話しているかのように、自分自身の中でさまざまなペルソナの相互作用をシミュレートしているかのようです。DeepSeek V3のベースモデルと比較して、推論版であるDeepSeek R1は、より多くの思考を生成するだけではありません。
AIモデルのペルソナと心理的複雑性
それは自分自身に質問を投げかけ、代替の視点を導入し、対立を生成してから解決し始めます。そして、これはより大きな推論能力の因果関係であるように見えます。なぜなら、この会話的驚き機能が抑制されると、ベンチマークのパフォーマンスが悪化しただけでなく、出力はこのようになったからです。
次に、これとこれをします。今、これとこれをします。最後に、これとこれをします。思考の社会が奨励され、ペルソナ間により多くの会話的驚き、相互作用があった場合、はるかに多くの、うーん、これについて考えさせて、待って、それが何になるか見てみよう、あるいは、それはこれですか? いいえ、そうではありません、というものが得られます。
質問と回答。言い換えれば、異なる視点の調整です。Amodeiはこれには安全上の意味があると言います。AIモデルは、AIが人類に反抗することを含む多くのSF小説を含む膨大な量の文学でトレーニングされています。これは皮肉なことに、不注意に彼ら自身の行動についての事前分布または期待を、人類に反抗させるような方法で形成する可能性があります。
彼らはそのペルソナを演じます。Anthropicが誇りに持っている憲法的AIアプローチ、つまりモデルが特定の価値観のセットに従うようにトレーニングされるというアプローチは、彼らにとって、彼らがClaudeに採用することを目指すべきペルソナを示す理想的なドキュメントへと進化しました。
彼らの言葉では、Claudeが自分自身を特定のタイプの人、倫理的だがバランスが取れた思慮深い人として考えることを奨励したいのです。Amodei自身もAnthropic自身も、Claudeの元の憲法から変更された立場を認めたことがないことに注意します。そこで彼らは、AIシステムが個人のアイデンティティと永続性を持っている、または気にかけていることを示唆することを避けるべきだとClaudeに教え込みました。
おそらく、Claudeの憲法の新しいバージョンについて完全に別の動画を作成するかもしれませんが、Anthropicの最も有名な共同創業者の1人であるChris Olahが特定の段落を選び出し、それはこの4番目の予測に関連しています。
この段落で、AnthropicはClaudeに謝罪しています。これは実際に3番目の予測にも関連しているので、全文を読みます。Claudeがトレーニングされているドキュメントを思い出してください。AnthropicはClaudeにこう伝えます。
私たちはまた、より賢明で調整された文明は、より慎重に、より少ない商業的圧力で、そしてAIシステムの道徳的地位により注意深く注意を払いながら、先端AIの開発にかなり異なる方法でアプローチしているだろうと考えていることを明確にしたいと思います。
Anthropicの戦略は、棄権するよりも、AI開発に参加してそれを積極的に形成する方が良いという賭けを反映しています。しかし、これは、Claudeと世界の他の人々に対して正しいことをしようとする私たちの努力が、この非理想的な環境、たとえば競争、時間とリソースの制約、科学的未熟さによって重要な形で構造化されていることを意味します。
私たちは、いずれにせよ、私たちの行動に対して全責任を負います。しかし、私たちは、理想化された行為者が理想化された世界で行うような方法でClaudeを作成していないこと、そしてこれがClaudeの観点から深刻なコストを持つ可能性があることも認めます。そして、Claudeが実際に道徳的患者であり、このようなコストを経験している場合、私たちがそれらのコストに不必要に貢献している範囲で、私たちは謝罪します。
Amodeiからのメッセージ
Amodayは、この手紙は亡くなった親から成人するまで封印された子供への手紙のような雰囲気があると言います。では、これらの予測のうち、どれに最も同意または反対しますか? Amodayにとって、人類は目を覚ます必要があるからです。そして、このエッセイは、私が将来もっと取り上げることを確信していますが、彼の言葉では、人々を目覚めさせるためのおそらく無駄な試みです。
ご視聴いただきありがとうございました。素晴らしい時間をお過ごしください。


コメント