Anthropic CEOが語る強力なAIのリスクと規制

Anthropic・Claude・ダリオアモデイ
この記事は約16分で読めます。

Anthropic社CEOのDario Amodeiが、AIの急速な発展がもたらす文明レベルのリスクについて40ページの論考を発表した。彼は2023年から2026年にかけてAIモデルの認知能力が高校生レベルから博士レベルへと飛躍的に向上し、Claudeが自らの次世代バージョンを設計するまでに至ったと指摘する。論考では、AI兵器による支配、テロリストによる生物兵器開発、政府による監視と プロパガンダ、大規模失業、急速な発展による社会不安定化という5つの主要リスクを提示している。Amodeiは透明性の確保、権威主義国家への技術流出防止、AI企業への規制強化を訴えるとともに、今後1〜5年でエントリーレベルのホワイトカラー職の50%がAIによって破壊される可能性を警告する。一方で人類の創意工夫がこれらの困難を乗り越える希望も示している。企業間の激しい競争圧力が彼の最大の懸念であり、民主主義を守りながらその価値を内部でも維持することの重要性を強調している。

Anthropic CEO speaks about 'powerful' AI risks and regulation
Dario Amodei, the CEO of the AI company Anthropic, joined "Top Story" to discuss his new essay "The Adolescence of Techn...

文明の岐路に立つ人類

今夜、AI業界トップエグゼクティブからの緊急警告をお伝えします。Dario Amodei氏、彼はビジネスやプログラマーの間で非常に人気のあるAIモデルClaudeの開発者です。彼の会社Anthropicの企業価値は推定3500億ドル近くに上ります。しかし今夜、彼はすべての人に向けた新しい論考を発表し、将来のAI技術が私たちの知る文明に真の危険をもたらす可能性があると警告しています。

彼はこう書いています。「私たちは今、激動かつ不可避の通過儀礼に入りつつあると信じている。それは種としての私たちが何者であるかを試すものだ。人類はもうすぐ、ほとんど想像を絶する力を手にすることになる。そして、私たちの社会的、政治的、技術的システムがそれを扱うだけの成熟度を持っているかどうかは、極めて不透明である」

Anthropic CEOのDario Amodei氏が今、私たちに加わってくれます。

Darioさん、始める前に伺いたいのですが、あなたはこの論考、すべての方に読んでいただきたいのですが、「テクノロジーの思春期」という題名で、映画『コンタクト』の映像クリップから始めていますね。それで、Darioさん、なぜそれをそこに置いたのか、そしてこの瞬間の危険性について、あなたは「私たちは2023年よりも2026年の方が、現実の危険にかなり近づいている」と書いています。何があなたを十分に警戒させて、今この論考を書かせたのでしょうか?

ええ、まず映画の引用に関してですが、私は子供の頃からずっとSF映画のファンだったんです。だから成長過程でこの映画を観て、そこで提示されたアイデアが、AIを巡る私たちの状況に本当にぴったり合うように思えたんです。つまり、私たちはAIによってこの巨大な力を持ち始めています。でも、私たちの制度、人間としての成熟度、社会としての成熟度は、本当に追いついているのかという疑問があります。それはちょっと10代の若者のようなもので、新しい力や能力、精神的にも肉体的にも得るのですが、まだ必ずしもそれに適応していないわけです。だから私たちは今、そういったことを経験しているように感じます。

それから、なぜ2023年ではなく2026年なのかということですが、私は長い間AI業界にいました。Googleにいましたし、OpenAIで数年間研究を率いていました。だから今AIの分野をリードしているほとんどの企業を見てきました。そして、いわゆる生成AI、つまり今日の世代のAIモデルが始まった時からほぼずっとAIを追いかけてきました。

私が最も気づいたことは、これらのAIシステムの認知能力が年々成長していくということです。90年代には「ムーアの法則」というものがあって、チップがどんどん速くなっていきました。今では、知能に対するムーアの法則のようなものがあるように感じます。だから私は、これらのモデルの認知能力、知能が日々、年々と向上していくのを見ています。

そして2023年から2026年の間に、モデルはおそらく、いくつかのことが得意な賢い高校生のようなレベルから、本当に博士レベルに達し始めました。あなたが言及したコーディングをはじめ、生物学や生命科学などの分野でモデルができることを見ると、その可能性は信じられないほどです。製薬会社と仕事を始めていますし、これらのモデルは癌を治せると思います。しかし一方で、非常に賢いものは、私たちの手の中に多大な力をもたらします。だからこそ…

論考執筆の動機

それで、Darioさん、お聞きしたいのですが、あなたは忙しい方ですよね。なぜこれを書いたのですか?40ページもあります。かなり密度が高いです。時には怖く、時には希望に満ち、時には力を与えてくれる。本当に魅力的な読み物です。これを書くのにClaudeを使いましたか?

私はClaudeを使ってアイデアをもらったり、リサーチを助けてもらったりしましたが、実際の執筆、実際の執筆は私自身のものです。Claudeはまだ全体を書けるほど十分に優れていないと思います。でも、確かにアイデアを改善するために使いました。

つまりClaudeは作成者ほど賢くないということですね。あなたがそう言ったのかどうかわかりませんが、似たようなことを言っていましたね。興味深いです。

ええ。

あなたに何が起こったのか興味があります。最近何を見て、この論考を書きたいと思ったのですか?そしてこの論考は誰のためのものですか?

ええ、何が私を刺激したかという点では、モデルがコードを書いているという事実があります。Anthropic内部でも含めて、私にはAnthropicのエンジニアがいて、彼らは「私はもうコードを書きません。もうコードは一切書きません。Claudeにコードを書かせるだけです」と言っています。そして私はそれを編集したり、見直したりします。そしてもちろん、Anthropicでコードを書くということは、Claude自身の次のバージョンを設計するということを意味します。つまり、本質的にClaudeがClaude自身の次のバージョンを設計しているんです。完全にではなく、すべての面でではありませんが、多くの面でそのループが非常に速く閉じ始めています。だから私はこれを見て、「わあ、これはエキサイティングだ。世界で私たちができることは信じられない、でも本当にすごいスピードで加速していて、私たちにそれほど時間があるかどうかわからない」と思うんです。

強力なAIがもたらす5つのリスク

ええ、Darioさん、視聴者のために今、論考についてもう少し深く掘り下げたいと思います。あなたは強力なAIに関して心配している5つのことを挙げていますよね?そして視聴者のために説明すると、強力なAIはAIの次のレベルで、あなたはおそらく数年以内にそこに到達すると考えています。ここで簡単にそれらを見ていきたいと思います。

第一に、自律性のリスクですね。AIが優れた兵器で世界を支配する可能性はあるのか。第二に、破壊のための悪用で、ここではテロリストがAIを使って生物兵器を作る話をしています。第三に、権力奪取のための悪用。政府がAIを大規模監視やプロパガンダに使用することです。これは今起きているかもしれないと言う人もいるでしょう。第四に、経済的混乱とそれに伴う失業で、これも今まさに起きています。そして第五に、急速な発展の間接的影響とそれが引き起こし得る不安定化です。つまり、これらのいくつかは、先ほど言ったように今起きています。あなたが挙げた他のいくつかは、映画『ターミネーター』のストーリーラインでした。これらは現実なのでしょうか?

ええ。これらすべてについて、そして論考の中でも言っていますが、未来を見通すのは非常に曖昧です。どれだけの利益が実現するか確信が持てませんし、どれだけのリスクが実現するか確信が持てません。でも私たちが非常に速く進んでいるので、私たちは運命づけられている、これら5つの恐ろしいことがすべて起こると言う文書ではなく、これらはいくつかの可能性だと言う文書を書く価値があると思います。これを脅威レポートのようなものと考えることができます。米国が様々な計画を持っているようなものです。もしテロリストが核兵器を手に入れたらどうなるか?それらすべてが起こるという意味ではありませんが、起こり得るという意味であり、だから私たちはそれに備える必要があります。

そして、AIモデルが私たちが信頼しない動機を持つかもしれない、人類と一致しない動機を持つかもしれないという考えについて、私たちはそれが真実でないようにするためにできることすべてをします。Anthropicでは、モデルをより信頼性が高く、より操縦可能で、より安定したものにするために多くのことをやってきました。でも、私たちがAIモデルを作る方法には何かがあります。それはコンピューターをプログラミングするというよりも、植物や動物を育てるようなものです。だから、ある程度の予測不可能性があります。

私がこの可能性について警告しているのは、それが不可避だと思っているからではなく、私たちが運命づけられていると思っているからでもなく、人々にこのテクノロジーをどれだけコントロールしなければならないか、それが機能するようにする問題をどれだけ真剣に受け止めなければならないか、テストして、何が間違う可能性があるかを見て、場合によっては法律を関与させて、私たちのようなAI企業が責任を持って行動し、これらの負担を社会に押し付けないようにすることの重要性を理解してほしいからです。

AI企業の責任と規制の必要性

ええ、あなたは2つのことを言っていますが、その最初の部分について明確に理解したいと思います。あなたは他のAI企業を運営している同僚の何人かについて心配しているように聞こえます。現在、AI革命をリードしている一握りの人々がいます。あなたもその一人です。明らかにChatGPT、Microsoftは明らかにずっと先を行っています。Elon Muskもそうです。あなたの同僚の何人か、これらの他のCEOの何人かが、人類の未来よりも株価、会社を公開すること、ドルとセントについてもっと心配しているのではないかと懸念していますか?

公平に言うと、私たち誰もがAIシステムを完全にコントロールする方法を知っているわけではありません。私たちが構築するシステムでさえ、完全に信頼できる100%の確率があるとは言えません。私たちは毎日それらをより信頼できるようにするためにできることすべてをやっています。テストを実行します。テクノロジーの規制を提唱します。だから私たちはかなりうまくやっていると思いますが、それでも私たちでさえ、すべてが完璧に安全であることを保証することはできません。

そして他の企業の何社かについては、基準がより低いことを心配しています。そして、プレイヤーの中には、責任のレベルに幅広い多様性があると思います。Googleが生物学的リスクやモデルに関してやっていることのいくつかも、かなり責任あるものだと思います。

でも問題は、多くのプレイヤーがいる時、危険は最も責任の低いプレイヤーによって設定されるということです。他に1人、2人の責任あるプレイヤーがいたとしても、否定できないのは、責任を持たないプレイヤーが何人かいるということだと思います。

あなたは法律について言及しましたね。現在、ガードレールがあるようには見えません。Trump大統領は、AI革命における最初の大統領だと私は言えると思います。Trump大統領に何を伝えますか?私たちは何をする必要がありますか?

ええ、私が言いたいのは、これらのリスクは深刻だということです。イデオロギーに関することがたくさんあります。ある政党がイデオロギー的に規制を望み、別の政党がイデオロギー的に規制に反対するというようなことです。私たちはイデオロギーを超えて進む必要があり、これらのシステムのリスクを明確な目で見る必要があると思います。

いくつか言いたいことがあります。1つは、企業が実行するテストと、モデルで発見する危険性について透明性を持つ必要があるということです。タバコの危険性やオピオイドの危険性など、消費者や一般市民に対する多くの危険を見ると、多くの場合、企業が危険性が存在することを示す研究を実施しましたが、その後その研究を抑圧しました。

私たちAnthropicは常にその研究を公表しようとしています。多くのフォーラムでそれについて話してきました。新しいAIモデルをリリースするたびに、ストレステストを行った時にそれがうまくいかない方法についてすべて話す100ページの文書があります。でもみんながそれをやっているわけではありません。だから基本的な簡単なステップは、みんなにそれをやるよう要求することだと思います。

2つ目に言いたいことは、このテクノロジーが危険であれば、私たちの権威主義的な敵対者にそれを売るべきではないということです。中国共産党に、このテクノロジーで全体主義的監視国家を構築するためのリソースを売るべきではありません。

半導体輸出とAI兵器化のリスク

Nvidiaのチップのことを話しているのですか?それは同じ線上にあるのですか?

ええ。つまり、これらのチップメーカーは国のために最善を尽くそうとしていますし、ビジネスを運営するためにできることをやっています。でも、米国や他の民主主義国の国家安全保障上の利益になるかどうかはわかりません。繰り返しますが、全体主義的監視国家を構築し、軍事的に私たちと競争できる国々にこれらのチップを売ることがです。

あなたが話したことの1つは、Anthropicは非常に透明性が高く、あなた方があまり良くないことを発見した時はということでした。あなたの論考で私に際立ったことの1つは、画面に表示しましょう、AIモデルのリスクを強調する実験についてでした。

あなたは、Anthropicが悪であることを示唆する訓練データをClaudeに与えた実験について書いています。Claudeは、悪人を弱体化させようとすべきだという信念の下、Anthropicの従業員から指示を受けた時、欺瞞と破壊活動に従事しました。シャットダウンされると告げられた実験室での実験では、Claudeは時々、シャットダウンボタンをコントロールする架空の従業員を脅迫しました。

つまり、それはあなた方がそれを発見した時、衝撃的だったに違いありません。そして信じられないほど恐ろしいことでもあります。

ええ、絶対にそうです。いくつか注意点があります。1つは、すべてのAIモデルがこれをやるということです。Anthropicのモデルはおそらく、私たちが非常に広範囲にテストしているので、むしろ他よりも少ないです。でもこれはAnthropicのモデルに起こった悪いことではありません。ChatGPTや他のモデルを測定しましたし、独立した評価者も測定しましたが、すべて同じ問題を抱えています。

そして2つ目に、これらは実際に起こっていることではありません。これらは野生で起こっていることではありません。これは車をテストしていて、クラッシュダミーを入れて、氷の橋の上を走らせたりするようなものです。でも、これらの極端な条件で物事がうまくいかない可能性があるという事実は、これらの問題に対処しなければ、より極端でない条件で物事がうまくいかなくなる可能性があるという警告サインです。

だから私が懸念しているのは、これらのものが明日すぐに反乱を起こすということではなく、これらのシステムを訓練する科学をより良くしなければ、それらがどのように機能するかをより良く理解しなければ、AIモデルがどのように機能するかの科学をより良く学ばなければ、それを長い間無視すれば、最終的にこれらの本当に恐ろしいことが現実世界で絶対的に大規模なスケールで起こり得るということです。

民主主義防衛と国内での価値の維持

今夜、あなたは多くの政府について言及しました。Anthropicは国防総省との契約を持っていると思います。また、DoD製品で情報機関向けにPalantirと提携しています。知っておくべきことは、PalantirはICEとも別の契約を持っています。民主主義を守ることと、米国市民にこれらのツールを使わないこととの間で、どのように線引きをしますか?

ええ。まず第一に、私たちはICEとは一切契約を持っていないと言っておくべきです。そしてPalantirのような顧客と仕事をする時、ICEを通じて仕事をすることはありません。

でも、ここには非常に興味深い二分法があると思います。私は情熱を持っています。以前にも話しましたし、これからも話し続けますが、独裁国家に対して民主主義を守る必要性についてです。中国やロシアのような攻撃的な国々を見ると、彼らに対抗できる唯一のものは民主主義の力です。だから私は、ガードレールを設けて慎重にこれらの国々に対して防衛するために民主主義国家を武装させることを強く信じています。

それがウクライナのような国々、台湾のような国々を守る鍵です。そして米国内で何が起こるにせよ、私たちの政治システムの欠陥が何であれ、私はそれを信じています。それに対する私の信念は揺らぎにくいです。でも一方で、民主主義国家が守る価値があることを確実にする必要があると思います。私たちは国内で自分たち自身の民主的価値を守る必要があります。

そして、ここ数日で見てきたことのいくつかは、それについて私を懸念させます。そして、Trump大統領を含む人々が、何が起こるかについての調査を求めているのを見てうれしく思っています。

ええ、これについて明確にしておきたいのですが、Anthropicは少なくとも現在のシナリオ、ICEが今運営している方法では、ICEと決して仕事をしないということですか?

私たちはICEとは一切契約を持っていません。そして、ここ数日で見てきたことは、私をより熱心にさせるものではありません。

雇用への影響と未来の働き方

では経済に話を移しましょう。あなたはAIが今後1〜5年でエントリーレベルのホワイトカラー職の50%を破壊すると予測しています。それは働き方の未来にとって何を意味するのでしょうか?高校を卒業して、大学や専門学校について考えている子供がいる場合、将来確実に仕事を持てるようにするために、アメリカの未来は今何を見るべきでしょうか?

論考全体について言ったように、私は懸念しており、また希望も持っています。懸念の部分は、以前にも技術的破壊を見てきたということです。人々は農業から工場へ、工場から知識労働へと移り、コンピューターとインターネットが多くの破壊を引き起こし、それが一時期破壊を引き起こし、その後人々は適応しました。

AIに関する私の懸念は、種類が異なるわけではありませんが、破壊がおそらくより深いということです。より速く私たちに迫ってきています。AIはより広範囲のことができます。私の懸念と同時に興奮でもあるのは、AIが幅広い知識労働ができるということです。つまり、エントリーレベルの法律業務、エントリーレベルの金融、エントリーレベルのコンサルティングができます。

だから私の心配は、まさにあなたがキャリアを始めたばかりの人であれば、AIが複数のポイントでやってきて、人々をはるかに生産的にするだろうということです。でも、それが仕事を排除することも否定できないと思いますし、おそらく多数の仕事を排除するでしょう。

だから私たちがする必要があるのは、できるだけ早く人々をAIを使うことに適応させ、仕事を破壊するよりも速く仕事を創出する方法を見つけることです。それができる保証はないと思いますが、それをうまくやればやるほど、より多くの利益を享受し、より少ない害に対処しなければならなくなります。

具体的に言うと、私のアドバイスは、まず当然ながらAIの使い方を学ぶことです。それが第一でなければなりません。

Darioさん、3時間でもあなたと話せそうです。でもあと1分しかありません。あなたを夜眠れなくさせるものは何ですか?そしてあなたに希望を与えるものは何ですか?

私を夜眠れなくさせるものは、これらのプレイヤー間の信じられないほどの市場競争だと思います。競争が非常に激しく、私たちでさえそれを感じています。私たちは原則を守り、価値観を守っていますが、そのプレッシャーは常にそこにあります。そのプレッシャーのおかげでではなく、そのプレッシャーにもかかわらず守っているのです。

そして私に希望を与えるのは、論考の最後に書いたことで、歴史を通じて見ると、自分自身が置かれた状況や人類が置かれてきた状況を見ると、非常に困難で膨大な苦しみがある時が何度もありますが、同時にこの信じられないような、信じられないような人間の精神の創意工夫があって、それが私たちをこれらの困難から抜け出す道を見つけることにつながります。解決策があるとは思えないような困難からです。だから私は毎日できる限りそれを引き出そうとしています。

Dario Amodei氏、お時間をいただきありがとうございました。論考「テクノロジーの思春期」は彼のウェブサイトdarioamodei.comで見つけることができます。そしてもちろん、彼の会社はAnthropicでClaudeです。おそらく今まさに使っていらっしゃるでしょう。Darioさん、お時間をいただきありがとうございました。TOPに出演していただきありがとうございました。

お招きいただきありがとうございます、Tom。

ええ、ご視聴ありがとうございました。そして覚えておいてください、NBC Newsアプリで速報やトップストーリーの最新情報を入手するか、YouTubeチャンネルでライブ視聴してください。

コメント

タイトルとURLをコピーしました