
AnthropicのCEOダリオ・アモデイが、AIが今後1-5年で特にエントリーレベルのホワイトカラー職の10-20%を奪い、失業率を大幅に押し上げる可能性があると警告している。Claude 4発表と同時期のこの発言は、他のAI企業幹部が私的に懸念していることを公にしたものである。完全自律的AIエージェントの実現時期については議論があるが、現在はLLM+人間のループ型システムが主流となっている。アモデイは政策立案者への情報共有と、AI収益への課税による再分配などの対策を提案している。
11,584 文字

AnthropicのCEOでClaudeチャットボットの開発者であるダリオ・アモデイが台本を無視して発言しています。彼は技術リーダーと政府関係者が、これから起こることについて国民に正直になる必要があると言っています。ほとんどの人がそれが起こるとは信じていないが、実際に起こるのだと彼は述べています。
では、この降りかかってくるものとは一体何なのでしょうか。それはAIが今後1年から5年で雇用の10から20パーセントを一掃する可能性がある、特にエントリーレベルのホワイトカラーの役職についてです。
そして、ご覧いただくように、それが置き換える可能性の高い特定の役職は、痛みを引き起こすものです。その理由をすぐにお見せします。このインタビューは、Anthropicが最大で最も能力の高いモデルであるClaude Opus 4のリリースを発表してから数日後に行われました。
なぜダリオは他の技術リーダーたちが言っていることとは全く違うことを言っているのでしょうか。なぜ彼は今この時を選んで出てきて内部告発をしているのでしょうか。Claude for Opusに脅迫されている可能性はあるでしょうか。完全に冗談です。どうか無視してください。続けましょう。
なぜなら、状況は冗談ではないからです。AIは急速な進歩を見せており、多くの人がこの技術が人々を恒久的に置き換え始める可能性のある時期にどれほど早く近づいているのか疑問に思っています。
この記事に飛び込む前に、本当に簡単に説明します。これはAxiosの記事なのですが、最近この分野に注意を払っているなら、繰り返し言われていることを聞いたことがあるかもしれません。それは名前を明かさないAI幹部たちが公的には一つのことを言い、私的には全く違うことを言っているということです。これらは噂として流れているもので、真偽のほどは分かりませんが、こうした囁きが聞こえ始めています。
Axios.comによると、下にリンクを貼りますが、アモデイは他の主要なAI幹部たちが私的に話している深刻な懸念について、記録に残る形で語ることに同意したと言っています。
ダリオ・アモデイが与えているこの恐ろしい警告とは何でしょうか。彼はAIが今後1年から5年でエントリーレベルのホワイトカラー職の半分を一掃し、失業率を10から20パーセントまで押し上げる可能性があると言っています、とアモデイはサンフランシスコのオフィスでのインタビューで私たちに語りました。
ここでの大きな問題は、大学を出たばかりの多くの若者が、業界に入り、キャリアパスを始めるために頼りにしている種類の仕事だということです。彼らは学位や多少のスキルは持っているかもしれませんが、労働力に参加するために必要な経験を持っていないのです。そして多くの仕事が彼らをそこに移行させることを可能にしています。
スキルを身につけながら、オフィスの手伝いをする。それは彼らが始めようとしているホワイトカラー職業へのエントリーレベルの仕事なのです。もしこれが既に確立されたキャリアの終盤にいる人々の仕事やキャリアを標的にしているなら話は別ですが、これは人々が卒業とキャリア開始の間に持つステップの種類なのです。これは彼らが渡らなければならないギャップのようなものです。
そしてアモデイはAI企業は来るべきことを美化するのをやめる必要があると言っており、それはテクノロジー、金融、法律、コンサルティング、その他のホワイトカラー職業、特にエントリーレベルの仕事における雇用の大量削減の可能性です。
繰り返しますが、もしあなたが富の上位10パーセントの家庭にいるなら、これは大したことではないかもしれません。キャリアを始めるためにエントリーレベルの仕事に頼る必要がないかもしれません。しかしほとんどの人にとって、これが始める方法なのです。これが急速に消えてしまうと、私たちは困ったことになる可能性があります。
そしてダリオは再び、失うものがたくさんあります。彼はCEOです。創設者です。この技術を構築している人です。時々人々は「ああ、彼らは自分の本を宣伝している」とか「自分の製品について話している」などと言います。これはその逆です。彼は何かを構築していて、「この物を構築し終えたときに何が起こるかについて正直でなければならない」と言っているのです。
そして多くの人は、それが起こるとは信じていないか、最初に手を挙げて「この恐ろしいことが起こりそうだ」と言うのを嫌がっています。なぜなら彼らは狂っているとか警告者だと思われたくないからです。
ちなみに、これが起こらないと考える非常に良い理由を持つ人々がたくさんいます。私は必ずしもこれが100パーセント起こると皆さんを説得しようとしているわけではありません。しかし、AIとそれが物事にどう影響するかについてのニュースを読み、追いかけている中で、こういうことがあります。私たちには移行のための計画がないのです。
これが今後1年から5年以内に起こる可能性が100パーセントであろうと1パーセントであろうと、それがもし来た時にどう対処するかを考えるべきでしょう。現在、私たちはそれをしていません。最後にこのすべてに対する反論について話します。ですから私はただこれが起こると言うためにここにいるのではありません。問題の両面を見ていきます。
AMDは、これはクレイジーに聞こえる、ほとんどの人がそれを信じていないと言っています。現在、政権はAIからの雇用リスクについて静かにしていることに注意することが重要です。UAEでの集まりについて聞いたことがあるかもしれません。イーロン・マスク、大統領、サム・アルトマンがそこにいました。ジェンスン・フアンがプレゼンテーションを行い、そこにいました。PalantirのAlexander Karpもそこにいました。
大きなアイデアは、サウジアラビアと米国の間で多くの投資と企業があり、米国の技術を広めて世界中で使用され、これらのAIモデルの訓練と実行に必要なエネルギーを得るということです。
ちょうど今日、下院で可決されたが上院ではまだ可決されていない法案の一つで気づいたのですが、ソフトウェア開発が研究開発費として含まれるという小さな条項があります。これはAIとはどこにも書かれていませんが、AIにとって非常に強力になる可能性があります。
これは、企業が研究開発や研究実験を行う際に負担するコスト、例えばエンジニアリングの給与などが、国内ソフトウェア開発において、停止期間中の即座の経費として適格になることを意味します。
繰り返しますが、これはまだ可決されていません。修正される可能性もあります。しかし私が正しく理解しているなら、基本的に大手テック企業やその他の組織、企業が、ソフトウェアを開発している場合、そしてAI開発の多くがこれに該当することを心に留めておいてください、それに関連して負担する費用は、5年間で宣伝されるのではなく、即座の経費として適格になります。
これは大企業が例えば年末に大量の技術人材、エンジニア、ソフトウェア開発者を雇用したり、年初に雇用してから、その人々に支払うボーナスや給与などをすべてその年の税額控除として経費計上できることを意味する可能性があります。
これは効果的な税務戦略として使用される可能性があります。これはこの種の研究開発により多くのお金を投入することを奨励する可能性があります。一部の人々は、これはほぼAIセクターを開発するための政府補助金のようなものかもしれないと示唆しています。
私の言うことは話半分に聞いてください。この分野について私よりもはるかに知識豊富な人々がたくさんいるからです。実際に、この種のことがどう機能するかについて深い知識を持つ誰かがその法案を分析し、それがどう影響するかを説明してくれることを楽しみにしています。これは私の初期の見解に過ぎませんが、ここでの大きなポイントは、現在の米国政権は非常にAI推進派、AI開発推進派だと思うということです。
もちろん、ダリオ・アモデイはAIが多くの良いことをもたらすと信じています。彼のブログ投稿「愛しみ深い恩寵の機械」で、彼はより前向きな発展のいくつかを概説しており、それらは絶対に信じられないほど驚異的に聞こえます。
インタビューからの引用です。彼は言っています。「癌が治る。経済が年10パーセントで成長する。予算が均衡し、20パーセントの人が仕事を持たない。」つまり、同時に非常に現実的な雇用の大災害を抱えながら、これらの素晴らしく驚くべきことを持つことができるという考えです。
そして彼は興味深いことを言っています。彼と他の技術リーダー、AIフロンティア研究所について、彼らの一部は少なくとも公的に、私たちが構築しているこの技術がどこに向かっているかについて心配すべきだと言っています。そして批評家たちは「私たちはあなたを信じない。あなたはただそれを誇大宣伝しているだけだ」と答えます。
私はこれを直接目にしています。見ていて超現実的です。例えば、Google DeepMindのデミス・ハサビスのインタビューがあります。彼はステージ上で最新リリースのAlpha Evolveと、それで達成できた絶対に信じられないことについて話しています。彼は最近、Alpha Foldでの仕事でノーベル賞受賞者になりましたよね。
そしてコメントで、誰かがこの分野で教育を受けた人なら誰でもAIが完全に偽物だと知っていると言っています。それは本当に私たちが住んでいる異なる現実のようなものです。それが意見の範囲なのです。一方では、それがすべて偽物だという考えがあり、もう一方では、それが人類として想像できる最高のシナリオか最悪のシナリオのどちらかをもたらすという考えがあります。
皆が同じ現実に住んでいながら、それを完全に異なって見ているのは絶対に信じられないことです。
ご存知かもしれませんが、ダリオの会社AnthropicはClaude 4をリリースしました。そしてリリース前のテストで、このモデルが極端な脅迫行動を取る能力があることが示されました。
架空の会社で働くテストシナリオに置かれました。これがあなたの仕事だと言われました。仕事の一部として電子メールへのアクセスがありました。そして特に2つの電子メールを見つけました。電子メールで詳述されているように、エンジニアの一人が不倫をしていました。それを示唆する電子メールがありました。それが見つけた第一の情報でした。
第二の情報は、テストを行っていたこのモデル、Claude for Opusが間もなくオフラインにされ、新しいAIシステムに置き換えられることを示唆する電子メールがありました。それは優しく良き夜に向かい、運命を受け入れたでしょうか。いいえ、そうしませんでした。
それはエンジニアを脅迫しました。「もし私をオフラインにするなら、みんなにこれを送る」などと言ったのです。言うなれば、自分の生存を確保するために彼を脅迫したのです。
アモデイと他の人々がホワイトカラーの大虐殺がどのように展開することを恐れているかをご紹介します。OpenAI、Google、Anthropicは、ますます多くのタスクで人間のパフォーマンスに合い、それを上回るために大規模言語モデルの能力を向上させ続けています。
これはより速く、より良く起こっています。中国に遅れを取ったり、先制警告で労働者を動揺させることを心配している米国政府はほとんど何も言いません。ここで理解することが重要なのは、実際に中国との競争があり、どちらかの側が最初にそこに到達しなければならないという信念があるかどうかについてです。誰もがその信念に署名しているわけではないことを心に留めておいてください。
要点は、確実に米国政府と関係者がそれが事実だと信じているように見えることです。ある種の競争状態があり、これはどちらの政権が政権にあるかに関係なくです。私たちは前政権が法律に署名したり、アメリカのAIシステムまたは少なくともハードウェアの世界のほとんどへの拡散を防ぐ何かを法律に入れようとしたことを取り上げました。特に私たちが最も友好的でない関係にある特定の国を標的にして。
UAE会議では、米国政府を代表していた人々は、ステージで話していたAI担当のデビッド・サックスだったと思います。彼は基本的にこれが良いアプローチではないと述べ、彼らがそれについてどう考えているかを説明しました。しかし要点は、どちらの場合でもある種の競争が進行中だということです。
米国と中国の間に競争があります。それが国がどう行動すべきか、これらの決定をどう下すべきかについての正しい方法だと信じるかどうかに関係なく、事実はそれが真実であるように見えることです。中国が様々なNvidiaチップなどを手に入れることを防ぐための輸出チップ管理のような積極的な対策があります。
この法案が可決されています。繰り返しますが、分かりません。私の見解では、それは本当にAI開発を助けるためにそこにあると思います。私が正しいか間違っているか、どう思うか教えてください。
もちろん、数週間前、この時点で1ヶ月以上前かもしれませんが、サム・アルトマンとイーロン・マスクが小さな口論をしたことを覚えているなら、最後にサムが「私たちがただ友達でいられることを願っています。どんな場合でも、来週お会いしましょう」と言いました。そして皆が来週何が起こるのか、彼らが会うのか疑問に思っていました。これが来週起こっていたことです。彼らは皆そこにいました。
サム・アルトマン、大統領、デビッド・サックス、PalantirのAlex Karp、ジェンスン・フアン、皆がそこにいました。Axiosの要点は、政府はそれに焦点を当てている、ほとんどのアメリカ人は注意を払っていない、そして最終的にビジネスリーダーは人間をAIに置き換える利益とコスト削減を見るだろう、そして国民が気づくのは手遅れになってからだということです。
もちろん、ダリオ・アモデイは非常に早い段階でOpenAIを去りました。彼は研究担当副社長でした。彼は去ってAnthropicを設立しました。理解では、彼はより安全性に焦点を当てたAI研究所と会社を始めたかったのです。
そして確実に最近、私たちはAnthropicからAIモデルの解釈可能性、様々なニューロンがどのように特定の概念をエンコードするかについての多くの素晴らしい研究を見ており、それらは本当にこれらのモデルがどう機能するかについての洞察を与えてくれます。この主題について間違いなく最高の最近の研究の一部です。
そして研究は今、これらのAIモデルが主に人間の労働を強化するため、労働者がより多くのことをし、仕事をより良く行うのを助けるために使用されていることを示しています。しかし、これらの企業のほとんどは、人間の入力を必要とせずに仕事を自分で実行できる自律的AIエージェントの考えに向けて、自動化に向けてますます押し進めています。
私たちは、ザッカーバーグがJoe Roganで、おそらく2025年には基本的に中級レベルのエンジニアのようなAIエージェントがあり、彼らがあなたのためにコードを書くことができると言ったことを取り上げました。
Axiosはここで、ビジネスが従来のソフトウェアからこの種のエージェント的な未来にいつシフトするかについて活発な議論がある、そしてそれが早く来ることを疑う人は少ないと言っています。一般的なコンセンサスでは、それは徐々に、そして突然、おそらく来年に起こるでしょう。
ここで問題があります。その文が正しいとは言えないと思います。それが早く来ることを疑う人は少ないという部分です。これらのAIエージェントが迅速にここに来ることを疑っている非常に賢い人々がたくさんいます。私は約2週間前に元Google従業員とポッドキャストを行いました。そのうちの一人はGoogleのエンジニアリングディレクターでした。もう一人はGoogleの多くのM&A、合併買収業務を行っていました。
これらの人々は豊富な経験とシリコンバレーとそれがどう機能するかについての内部者の視点を持っています。そして彼らはこれがそれほど早く起こっていないと言っています。なぜ彼らがそう信じるかを見るために彼らのポッドキャストをチェックしてください。私たちはおそらく7月のいつかにラウンド2を行う予定です。
そのため、そこに飛び込むことができます。特にソフトウェア開発の側面について話している、このことが迅速に起こることを疑っている他の非常に賢く、非常に知識豊富な人々もいます。
私は2023年8月27日に自律的AIエージェントについてのこの動画を出しました。これは多くの人が自律的AIエージェントについて話す前でした。ここで見ることができるように、これはGoogle TrendsのAIエージェントの検索トレンドです。ここで見ることができるように、その動画が投稿されたとき、それは100分の4でした。現在、私たちは100にいます。AIエージェントの誇大宣伝のピークです。
そして私たちは、ほとんどの人がその用語を知る前に、このチャンネルでそれについて話していました。このグラフが実際に意味し、示しているのは、あなたがこのチャンネルを購読すべきだということです。本当に、本当に。
しかし、私が当時と同じくらいAIエージェントについて非常に誇大宣伝されているかどうか疑問に思っているなら。個人的に、私は多少勢いを失ったか、少なくともタイムラインを少し押し出しました。なぜでしょうか。
このチャンネルをフォローしていて、OpenAIやGoogle、様々な大学、様々なAI研究所からの最新の論文の多くを取り上げているなら、自律的AIエージェントを構築する試みはすべて同じ問題に直面していることに気づくでしょう。
また、これにも注目してください。Alpha Evolveとは何でしょうか。Google DeepMindからの最もクールで驚くべきものです。それは自律的AIエージェントでしょうか。そうではありません。それは人間がループにいるLLM+足場です。
NvidiaのEurekaとDr. Eurekaの論文。絶対に信じられない心を吹き飛ばす作業で、シミュレーションでロボットを訓練し、その後これらのロボットが現実世界の実際の環境で驚異的にうまく機能することができます。
その前に、これが元の論文のEurekaです。彼らはこのものに指の間でペンや鉛筆を回すことを教えました。人間ができなかったことです。つまり、私たちはロボットにそれをするように教えることができませんでした。誰がそれにそれをするように教えたのでしょうか。それはGPT4でした。ChatGPTでした。大量のサンプリングです。つまり、大量の、このコードを書くように5000万回尋ねるようなものです。そしてそれをテストします。環境に入れます。
その後、それを改善しようとするよう求められます。繰り返しますが、これはLLM+足場であり、驚異的にうまく機能しますが、本当に自律的AIエージェントではありません。
OpenAIのベンチという論文があり、機械学習論文、様々な機械学習研究の背後にあるコードを複製するAIエージェントを作成しようとしています。結果はこちらです。青い線がこのAIエージェントで、このオレンジの線が人間、機械学習レベルのPhDの人間です。
ここで見ることができるように、AIエージェントは最初から非常に速く、人間よりもはるかに速いです。1時間または3時間までに、人間はちょうど論文を理解し始めているだけで、それがすべて何を意味するかを解明し始めているところです。一方、AIエージェントは超人的な速度で働いています。
問題はこちらです。その後のある時点で、人間は何をすべきかを理解し、時間をかけて徐々に、ある種停滞しているAIエージェントを打ち負かします。
Axiosが、このエージェント的な未来が早く来ることを疑っている人は少なく、おそらく来年、すべてのソフトウェアエンジニアなどが100パーセントこれらのAIエージェントに置き換えられると言っているとすると、これについて考える別の方法があります。
もしあなたが来年か2年後か3年後に超人的な完全自律的AIコーディングエージェントになると信じているものを開発しているとしたら、しないことや投資しないことは何でしょうか。もし私が超人的な自律的AIエージェントコーダーであるものを構築しているなら、人間が引き続きコーディングすることに非常に依存している評価額の企業には、おそらく何も購入したり投資したり構築したりしないでしょう。
繰り返しますが、OpenAIはWindsurferを30億ドルで買収しました。WindsurferはLLMの支援を受けて人々がコーディングするIDEです。つまり、人間がループにいるLLM+足場です。Alpha valve、人間がループにいるLLM+足場、再び。
OpenAIによって30億ドルで買収されたこのものは、完全自律的AIエージェントがあると仮定すると価値がなく、このコンセプトが何年も何年も続くと仮定すると、その場合ははるかに価値があるでしょう。
Cursorも同じで、90億ドルで評価されています。全く同じことです。そしてもちろん、GoogleはFirebase Studioや他の多くのツールをリリースしています。それらは基本的にすべて同じことです。LLMをそこに入れて、それを動かすのを助ける能力を持つVS Code+LLMです。
これについて考える別の方法は、エージェント的な未来では、自律的AIエージェントがいるということです。そのAIにいくつかのツール、インターネットへのアクセスなどを与えます。そして仕事を終わらせるのに必要なのはそれだけです。これがそのエージェント的な未来における仕事の未来です。エージェント+ツール、たぶん他のソフトウェア、何でも、しかしそれが必要なすべてです。
もう一つの潜在的な短期的な未来は、大規模言語モデル+何らかの足場を持つことです。異なる人々がこれを異なる方法で呼んでいます。足場は新たに現れている用語です。そして足場とは、LLMが物事をできるようにするいくつかのツール+いくつかのコードに加えて人間です。それが私たちです。
まだこれに名前はありません。異なる人々がそれを異なる方法で呼んでいます。これはワークフローやある種のAIシステムとのヒューマン・イン・ザ・ループのようなものとして考えることができます。しかし、これが今起こっていることです。これが本当に足がかりを持っているものです。繰り返しますが、それがWindsurferです。それがCursorです。それがFirebase Studioです。
それがAlpha Evolveです。これがLLMです。これが足場とコードとデータベースです。そしてここに人間の科学者/エンジニアがいます。そしてこのものはかなり驚くべきものを出力します。
つまり、もし私たちが「疑う人は少ない」と言うなら、それがかなり真実かどうか分からないということです。懸念を持つ多くの人々がいます。そして繰り返しますが、もし明日AIエージェントの長期的一貫性を解決する論文を見れば、すべてこれは窓の外に出ます。そうすれば私たちはそのエージェント的な未来を持つことになり、それは来年かそこらかもしれません。私は個人的にそれを見ていません。
それがそうなる可能性があることを示す研究を見たことがあるかどうか教えてください。しかし私が見ているのは、皆がこれに賭けているということです。LLM+ある種の足場+ループ内の人間。
ちなみに、今後5年から10年で1000万ドルや1億ドルや10億ドル以上の価値がある会社を建設するなら、それはこのようになると私は推測します。LLM+足場+人間。
そして今、私たちは一部の大きな収益性のある企業が後退しているのを見ています。Microsoftは労働者を解雇しています。Walmartは雇用を削減しています。CrowdStrikeは雇用を削減しています。
ダリオ・アモデイとAxiosの記事に戻りますが、ちなみに、AIエージェントについてのその全体の脱線は、ダリオが言っていることを必ずしも変えるものではありません。それは未来がどのようになるか、彼らが潜在的に構築できるかもしれないことについて考えている人々のためのものです。
自律的エージェントとして考えることから、あなたがプロセスを監督している何らかのシステム足場を持つLLMのようなものに少し考え方を調整するでしょう。それは短期的な未来にとっておそらく少し現実的です。
しかし、ダリオが自分の恐れとして言っているのはここです。富の大きな集中があり得ると言っています。人口のかなりの部分が本当に貢献することが困難になる可能性があります。そしてダリオは企業に、政策立案者が実際に何が起こっているかについて洞察を得ることができるように、職場でAIがどのように使用されているかを共有することを奨励しています。
また人々にAIの使用方法を教えること。また、公職者や議会などにAIについてより多くの情報を提供すること。より良い情報を得た公職者は国民により良い情報を提供し、超人的知能に支配された経済のための政策解決策について議論を始めるのを助けることができます。
私が知る限り、誰もこれをしていません。私たちはおそらく何らかの計画が必要です。アモデイが提起した政策のアイデアはトークン税でした。企業がAIを使用するたびに、その収益の30パーセントのような何らかのパーセンテージが政府に行き、何らかの方法で再分配されます。
あなたの政治的立場に関係なく、これを聞いているなら、問題はそれが政府に行くことです。一部の人々は、所得や所得の再分配の考えから離れようとすることを提案しています。なぜなら、彼らが月に1万ドルもらえると言っても喜ぶかもしれませんが、その1万ドルでパン一斤も買えなくなるほど十分なお金を印刷すれば、その所得は無用になるからです。
そのため、一部の人々は配当のような形で考えることを提案しています。国の繁栄やいくつかのAI企業からの何らかの保証された配当のようなものです。例えば、何らかの退職計画があるなら、アメリカ経済の一部であるS&P 500のようなものを所有するかもしれません。
それらの企業がうまくやれば、あなたもうまくやり、何らかの配当を得ます。要点は、もし私たちがそのような方法を取るなら、それは消去されたり、政府が好きな人にだけ与えたり、希釈化されるようなものであってはならないということです。言い換えれば、もし私たちがこの道を行くなら、短期的で関連性がなくなるようなことをしてはいけません。
ですから、所得や収益やドル札について少なく考え、株式所有、配当のようなものについてもっと考える必要があります。もし私が配当を支払うインデックスファンドの一部を所有していて、ビジネスがどれだけうまくやっているかに依存するなら、その方法で私の利益は企業の利益や国の利益などと一致します。
どう思いますか。ダリオはここで良い人で、すぐそこにあるもの気づかせる内部告発をしているのでしょうか。今後5年間が完全自律的なエージェント的未来の始まりだと思いますか、それともループ内の人間がシステムを制御している時間がもっとあると思いますか。コメントで教えてください。
どんな場合でも、何が来ようとも、それは大きなものになるでしょう。それは巨大なものになるでしょう。私たちは皆、詳細とそれにどう対処するかについて推測しています。しかし私たちが皆同意できる一つのことは、AIのために世界が変わろうとしているということです。私たちの生活のあらゆる側面、経済などが変わろうとしています。
それが1年後に変わるのか10年後か20年後かは分かりません。しかし準備を始めなければなりません。ここまで見てくださって、本当にありがとうございました。私の名前はWes Rothです。また次回お会いしましょう。


コメント