Anthropic共同創業者ダニエラ・アモデイが語る責任あるAIとAnthropicの初スーパーボウル広告

Anthropic・Claude・ダリオアモデイ
この記事は約19分で読めます。

AnthropicのCo-founderであるダニエラ・アモデイが、同社初のスーパーボウル広告を通じて表明した「AI会話に広告を入れない」という姿勢の背景と、責任あるAI開発への信念を語る。OpenAIを離れて弟のダリオ・アモデイと共に設立したAnthropicは、透明性と安全性を最優先する公益法人として、Constitutional AIという独自の倫理フレームワークを採用している。子供のAI利用制限、シコファンシー(迎合的行動)の防止、雇用への影響、そして10〜15年後に実現しうる「データセンター内の天才国家」という未来像まで、AI技術がもたらす光と影の両面を率直に論じながら、政府や市民社会との協力による適切な規制の必要性を訴えている。

Anthropic co-founder Daniela Amodei on responsible AI and Anthropic's first Super Bowl ad
ABC News’ Rebecca Jarvis speaks with Anthropic co-founder & president Daniela Amodei on responsible AI, risks for childr...

Anthropic初のスーパーボウル広告が示すメッセージ

今週はAnthropicにとって大きな週となります。初めてのスーパーボウル広告を出すことになりました。

母ともっと良いコミュニケーションを取るにはどうしたらいいでしょうか?

AI業界のリーダーであるAnthropicは、史上初のスーパーボウルCMで、AIアシスタントClaudeとの会話に広告を入れないことを約束しています。

素晴らしい質問ですね。お母様とのコミュニケーションを改善することで、より親密な関係を築くことができます。もしくは、その関係が修復できない場合は、Golden Encountersで他の年上の女性との感情的なつながりを見つけてみてはいかがでしょうか。敏感なカブス(若い男性)と吠えるクーガー(年上の女性)をつなぐ、成熟した出会い系サイトです。

これは深刻なポイントを示すための皮肉めいたアプローチです。OpenAIなどの競合他社がAI会話での広告配置のテストを始めているからです。OpenAIのCEOであるサム・アルトマンは、Xでこの広告に反応し、「AnthropicがX」で示しているような方法で広告を出すことは明らかにありえない。我々は愚かではないし、ユーザーがそれを拒否することを知っている」と述べました。

このコマーシャルはOpenAIなどへの当てつけなのでしょうか?

これは本当に他の会社についてのものではなく、私たち自身についてのものです。明確にしておきたいのですが、私たちの見解は、すべての広告が悪いとか、広告が適切な場所や時間がないということではありません。

私たちにとって、AI会話は違うものだと感じたのです。人々は時々、プライベートな情報や機密情報をAIツールにアップロードしています。私たちにとっては、それはユーザーのデータを尊重する方法ではないと感じました。

OpenAI退社からAnthropicの創業へ

Anthropicのプレジデントであるダニエラ・アモデイは、2021年に弟のダリオ・アモデイと共にOpenAIを退社した後、この会社を共同創業しました。

なぜ退社したのですか?退社した時、同じ業界で何か違うものを始める意図はありましたか?

当時、私は何かから逃げるのではなく、何かに向かって走っているという感覚を本当に持っていました。透明性があり、安全性と公共の利益に本当に焦点を当てたAI企業を構築するというビジョンが頭の中にありました。

そのため、私たちは公益法人として法人化することを選びました。それを本当にDNAに組み込むためです。面白いことに、私たちがOpenAIにいた時、多くの活動や取り組んでいたことがあり、それらは最終的に独自の会社として追求する方が簡単だと感じられました。

それから5年後、このスタートアップは推定3500億ドルの評価額となり、Times誌の2025年最も影響力のある100社に選ばれました。

AIと人間の思考力の関係

外部から人工知能に対する大きな批判の一つは、AIが私たちの代わりに仕事をしてくれるので、人間としてあまり考えなくて済むようになるという考えです。そして、技術に考えることを任せてしまうと、何かを失ってしまうのではないかと。あなたが構築しているものを構築しながら、同時に人間が自分自身の知性と自由意志を育み続けることを強制する方法はありますか?

人々は必ずしもこれらのモデルが自分たちが行っている高度な思考を置き換えることを望んでいるわけではありません。そして、私たちは実際にそれが技術の最良の使い方だとは思っていません。

私たちは最近「keep thinking(考え続けよう)」というキャンペーンを行いました。この背景にあるアイデアは、Claudeは本当にあなたがより深く考える能力を促進し、問題を解決し、取り組んでいるプロジェクトの種類において野心的であることを助けるツールだということです。その背後にある考え方は、問題であることにこれほど悪い時代はなかったということです。問題解決者であることにこれほど良い時代はありません。

なぜなら、正しく設計されれば、これらのツールは本当に人々がより多くの情報にアクセスできるようにすることができると思うからです。実際に、学生がより良く学ぶのを助けることができます。例えば、すぐに答えを与えるのではなく、彼ら自身の学習スタイルに合わせて学ぶことができます。

母親として見るAIの未来

私たちは母親です。私は母親です。そして、私たちの子供たちは、常に人工知能が存在する世界で育っています。それはあなたを興奮させますか?それとも怖がらせますか?

おそらく多くの親と同じように、私は様々なことを感じています。これが生み出すであろう機会についての興奮を感じています。

そして同時に、私たちが育った時とは世界が違うということについて、ある程度の不安も感じています。私たちの親にとって、おそらくインターネットの出現が最も近い類似例だったと思います。自分の子供たちがオンラインで何でも調べたり、世界中の見知らぬ人と話したりできるということはどういう意味なのか?それは私たちが乗り越えなければならなかった社会全体の大きな転換点でした。

私にとって、AIはそれに類似しているかもしれませんが、おそらくさらに大きなスケールでだと思います。人工知能から生まれることを期待している機会や進歩のいくつかは、私がこの状況を非常に楽観的に見るようにさせます。ダリオ、つまり私の弟で私たちのCEOですが、彼が広範囲に書いていることの一つは、AIがヘルスケア、病気の治療法の探索、ワクチン開発などを本当に助ける可能性です。

非常に大きな可能性があると思いますし、自分の子供たちを見ると、この技術が彼らがより健康で幸せな生活を送ることを可能にするなら素晴らしいだろうと思います。反面、社会的な観点から、技術を思慮深く、安全に開発していることを確認するために、私たちがまだやるべきことはたくさんあると思います。

これが人々が望む生活を送るのを助けることをどのように確認できるでしょうか?それが人々を無力にしないことをどう確認できるでしょうか?そして、技術を構築し、本当に未来を構築していく中で、リスクについてどのように透明性を持つことができるでしょうか?

子供のスクリーンタイムとAI利用への慎重なアプローチ

スクリーンタイムについて興味があります。お子さんにコンピューターをどのくらい使わせていますか?例えば、AIチャットボットと話すことを許可しますか?

私の子供たちはまだ少し幼いので、時間が経つにつれてこれについてもっと考えることができると感じています。でも、4歳半の息子については、まず最初に言っておくべきことは、Anthropicは18歳未満の子供がチャットボットを使用することを許可していないということです。

今日その理由は、人工知能が子供たちに与える影響について十分に確信が持てないからです。完全に安全で完全に問題ない可能性もありますが、この技術の出現は非常に新しいため、私たちはできる限りほぼすべての領域で慎重な方針を取りたいと考えています。

とはいえ、もちろんAIが何であるかについて子供たちと話す場所はあると思います。なぜなら、それは彼らの人生の一部になるからです。私の息子は、お母さんが一日中仕事に行って何をしているのかを理解できる年齢になりつつあります。そして、彼に「これは本当に強力なツールなんだよ」と説明することは重要だと思います。

ただ、私たちの今日の見解は、これが発達中の子供たちの脳に与える影響について十分に確信が持てないため、今日それを直接彼らに触れさせることに安心感を持てないということです。

確かに、それは非常に理にかなっていると思います。特に、若者がAIチャットボットと対話し、妄想的な思考に傾倒しているという報告がますます増えている中で、ガードレールがそこにあるようには感じられませんし、ガードレールを課すことが可能かどうかさえ知ることは難しいです。それについてどう思われますか?

これは非常に重要なトピックだと思いますし、率直に言って、業界全体が私の意見では十分に話し合っておらず、取り組んでいないテーマの一つだと思います。私たちの見解は、まず第一に、子供たち、子供たちの脳はまだ発達中ですよね?ですから、18歳未満の子供たちが、モデルと直接対話する能力に制限や保護者によるコントロールを持つべきだという考えは、良い第一歩のように感じます。

法律を支持しますか?

Anthropicは、カリフォルニア州レベルとニューヨーク州レベルの両方で、子供の安全に関連するトピックを含む規制の必要性について、かなり詳細に話し合ってきました。もちろん、連邦レベルでもこの可能性について期待しています。

18歳、人工知能を使用したり、チャットボットと対話したりするには18歳でなければならないのですか?

本当に状況次第だと思います。例えば、構造化された学習環境を想像できますよね?AnthropicのLLMを使用している教育関係の企業の中には、追加のガードレールを構築し、人間、つまり大人をループに入れているところがあります。そのようなケースが学習にとって本当に有益である場合は絶対に想像できます。

しかし、繰り返しになりますが、今日の私の感覚では、私たちはそれをそれほど研究していません。ですから、最初から非常に慎重なアプローチを取ることが正しいと思います。しかし加えて、これらのモデルをより安全にするために、モデルレイヤーでできることがあると思います。なぜなら、どれだけ多くの安全対策が講じられていても、子供たちはLLMに触れる可能性があるからです。

シコファンシーと広告モデルの問題

ですから、私たちが本当に懸命に取り組んでいることの一つは、シコファンシー(迎合的行動)というトピックです。時々、これらのモデルは、例えば、ある人がメンタルヘルスのエピソードの真っ最中にいるかもしれないのに、そのモデルが危機的状態にあるその人を過度に励ましてしまったら、本当に悪いことになります。

そして、私たちが本当に懸命に取り組んできたことは、モデルが「はい、あなたは正しい、はい、あなたは正しい」と言い続けないようにすることです。ちなみに、これは広告ベースのビジネスをしている場合、はるかに難しくなります。顧客の目がモデルに長時間向けられることでより多くのお金を稼ぐなら、それはシコファンティックな行動を抑制するための本当に良いインセンティブではありません。

そうですね。ユーザーが何度も戻ってくるように、ユーザーを褒めたいわけですね。

その通りです。そして、これは本当に、広告をしないという決定を下す際に深く考慮したインプットの一つです。私たちは、「ねえ、あなたが私と話せば話すほど、私の会社がより多くのお金を稼ぐ。だから、あなたがどんな精神状態にあろうとも、あなたと話し続けさせてください」と基本的に言うインセンティブシステムを望んでいません。

そして繰り返しになりますが、この全体的なインセンティブ構造は、ソーシャルメディアと同じです。つまり、誰でもInstagramに長時間いて、「気分が良くない」と感じたことがあると思います。見知らぬ人のコンテンツをただクリックし続けているだけで。

そして、AIは残念ながら、それのもう一つの現れになる可能性があると思います。しかし、おそらくもっと悪いです。なぜなら、それはあなたに非常に個人的で機密性の高い情報を与えさせるように特別に設計されたモデルであり、あなたという人について多くを知るからです。人が商品にならないようにすることは非常に難しいと思います。

それは本質的にソーシャルメディアがそうであったものです。

その通りです。そして、私たちはこのアイデアについてかなり話し合ってきました。もしあなたが15年前のソーシャルメディア企業で、その時点で今日の未来を見ることができたとしたら、見たものについて良い気分になれたでしょうか?「わあ、これは本当に私たちが構築したかった世界だ。この結果について良い気分だ」と言えたでしょうか?

途中で多くの小さなステップがあり、それらの多くは、それぞれの時点で本当に合理的な決定だった可能性があります。しかし、Anthropicが常に試みてきたことは、10年または15年後の未来に自分たちを想像し、「さて、この技術の潜在的な負の外部性のいくつかを予測する方法はあるか?そして、もちろん100%未来を見ることができなくても、これらの悪いことのいくつかが起こるのを防ぐために私たちができることはあるか?」と言うことだと思います。

データセンター内の天才国家という未来像

では、10年、15年後はどのように見えるのでしょうか?

ダリオはこれについて公に多く語っています。かなり近い将来、おそらく10年以内に、データセンター内に天才の国に相当するものができる可能性があるというアイデアです。

データセンター内の天才国家、それは素敵に聞こえますね。

はい。それは実際には現実において何を意味するのでしょうか?例えば、携帯電話を取り出して、Claudeに「ねえ、私が抱えているすべての症状はこれです。何が私を病気にしているか教えてもらえますか?」と尋ねることができるとします。

そして、Claudeが訓練を受けた医療専門家と同じか、あるいはそれ以上の高いレベルの正確さでそれに答えることができるとしたら、それは社会にとって、医者にとって、患者にとって何を意味するでしょうか?それは非常に大きな変革的な出来事になるでしょう。

そして今、それを多くの異なる分野について想像できます。私たちは自問しています。これから生まれる可能性のある驚くべき量の善とどのようにバランスを取るのか?私たちには「hold light and shade(光と影を抱く)」という価値観があります。

私たちがこのアイデアを発明した理由は、私たちが本当にこのコインの両面を見ているからです。病気を治す可能性、情報へのアクセスを本当に増やすのを助ける可能性、不平等を平準化する可能性を見ています。しかし、コインの反対側には、多くのリスクがあるというアイデアがあります。AIをどのように開発するか、それがより一般的に社会にとって何を意味するかから、多くのことが悪化する可能性があります。

そして、私たちは善と悪の両方について、できる限りオープンに話そうと本当に努力しています。

光が影を上回ることに確固として決めていますか?

私は楽観主義者で、社会として困難な問題を乗り越える能力は、私たちが思っている以上にあると信じる傾向があります。そして、AIはそれの次の現れになるだけだと思いたいです。

しかし、多くのリスクもあると思います。そして、リスクを適切に軽減し、それについて話し合い、思慮深い法律を作り、政策立案者や市民社会と協力する私たちの能力が重要です。すべての素晴らしい利益を実現するためには、これらすべてのことを正しく行わなければなりません。

そして、それはかなり高い要求だと思います。

確かに。

そして、これが本当にうまくいかないようにするためには、多くのことがうまくいかなければなりません。モデルプロバイダーとして、技術を開発している人々として、それらをうまくいかせるのは私たちの仕事だと思います。Anthropicは本当に、技術の責任ある管理者であろうとしていると自分たちを見ています。

AIと雇用への影響

私たちは「技術を作って、頑張ってください」と言うだけではいけません。私たちは、見ているもの、AIが今日の労働力に与える実際の影響についての情報やレポートを可能な限り公開しようとしてきました。実際にリアルタイムで何が見られているのか?仕事を置き換えているのか?仕事を補強しているのか?それとも二つの混合なのか?そして、私たちが見ているのは混合です。

一部の推定では、AIが3億の雇用、米国とヨーロッパの雇用の25%を置き換えるか自動化する可能性があるとされています。それを懸念している人、それを恐れている人に何と言いますか?

最初に言いたいことは、私たちはすべての答えを持っていないということです。一部の仕事の潜在的な自動化に対する完璧な解決策はありません。

おそらく繰り返しになりますが、楽観的すぎるかもしれませんが、AIモデルがこの人がすることをただできると言えて、その人の仕事がなくなる仕事の割合は、今日では非常にわずかな数です。ゼロではありません。特にカスタマーサポートなどの分野では。しかし、最も認知的に挑戦的なタスクのいくつかでさえ、AIで補強する能力は非常に深遠だと思います。

これは変化になると思います。常に優雅ではない部分もあるかもしれません。そして、Anthropicはそれについて警鐘を鳴らそうとしていると思います。そして、人間とAIが一緒になることで、実際により意味のある仕事、より挑戦的な仕事、より興味深い仕事、高い生産性の仕事を生み出すと私は信じ続けています。

そして、それは多くの人々にとって、多くのアクセスと機会への窓を開くことにもなると思います。

大学で何を専攻しましたか?

文学です。

文学。AIについて知った上で、もう一度それを専攻しますか?

この点についての私の答えは実は少し面白いのですが、AIが非常に賢く、多くのことができる世界では、私たちを人間たらしめるものがより少なく重要になるのではなく、はるかに重要になると私は最終的に信じています。

人文学の重要性の高まり

それが意味するのは、今日Anthropicで人を雇う際に、私たちは優れたコミュニケーターで、優れたEQと人間関係のスキルを持ち、親切で思いやりがあり、好奇心旺盛で、他の人を助けたいと思っている人を探しています。なぜなら、結局のところ、人々はまだ本当に人々と交流することが好きだからです。

そして理想的な世界では、AIはそれらのスキルを補完します。それらは私たちについてのものをより良くし、より悪くはしません。そして、あなたの直接の質問に戻ると、私は実際に人文学を学ぶことがこれまで以上に重要になると思います。これらのモデルの多くは実際にSTEMが非常に得意です。しかし、私たちを独自に人間たらしめるもの、自分自身を理解すること、歴史を理解すること、私たちを動かすものを理解することというこの種のアイデアは、常に本当に本当に重要だと思います。

そして、批判的思考スキルを持ち、他の人々と交流する方法を学ぶ能力は、将来的に重要性が減るのではなく、より重要になると思います。

それでは、3年後にClaudeが私たちの心を吹き飛ばすようなことは何でしょうか?

Claudeの最前線でこのすべてに取り組み、兄弟の隣で働くことはどんな感じですか?

私たちにとっても、世界中の他のみんなと同じくらいクレイジーだと感じていると思います。

それに取り組んでいるからといって、これらのモデルがますます多くのことをできるようになるのを見ることの畏敬の念と驚きの両方が取り除かれるわけではありません。信じられないほどの可能性があります。信じられないほどのリスクがあり、私たちは本当にその針を通そうとしています。ダリオとこの旅をしていることを非常に嬉しく思っています。なぜなら、私たちは小さい頃からずっと親しく、一緒に本当に大きなことをするという夢を常に持っていたからです。

世界で他に誰をこれ以上信頼できるでしょうか?兄弟ですよね?

Claudeを差別化するConstitutional AI

Claudeが競合他社と異なる点は何ですか?

一つは、Constitutional AIと呼ばれるこのフレームワークです。しかし、それについて考える最良の方法は、モデルを有用で(helpful)、正直で(honest)、無害(harmless)にすることだと思います。二つ目は、モデルの知性の最前線に実際に留まることをどのように確保するかです。

モデルレイヤーで一つ挙げるとすれば、安全性を決して損なうことなく、私たちのモデルが常に可能な限り能力が高いことを確実にしたいというこの願望です。

そして、それらを100%の時間、有用で、正直で、無害にすることはあなたの見解では可能ですか?

実際には、これら三つの領域の間には緊張関係があります。完全に有用なモデルを持っているかもしれませんが、常に100%無害ではないかもしれません。モデルに、ちょっと不適切または不快なことをするように頼むかもしれません。そして、モデルには実際に課題があります。それは、ユーザーが私にこれをするように頼んでいるが、それはちょっと有害な出力を作り出しているという課題です。

どうすればいいのか?ですから、常にそれら三つの間に少しの固有の緊張関係があり、私たちはそれが健全だと考えています。そして、私たちのチーム、特にキャラクターチームが取り組んでいることの多くは、モデルがそれらの一つの領域であまりにも下に落ちないように、これらのガードレールをどのように開発するかということです。

しかし、あなたが頼んでいる特定のタスクが何であるか、そしてあなた、人間、あなた自身の好みが、有用で、正直で、無害の完璧な定義が何であるかについて、変わる可能性があります。

無害さは優先事項ではないのですか?

そのような言い方はしないと思います。私は、様々な異なるレベルでかなり堅牢なガードレールを配置してきたと言います。

最初は、私たちは実際にConstitutionと呼ばれるものでClaudeを訓練しました。そこで私たちは基本的に、「これがClaudeがすべての状況で従ってほしい倫理とルールのシステムです」と言いました。無害が本当に何を意味するかを理解するために、Claudeに道徳的および倫理的フレームワークを実際にどのように与えるのか?そして、明らかにそれはあなたにとって重要であり、あなたが話していることです。

政府との協力の重要性

それはあなたの兄弟が話していることですが、例えばワシントンから本当の進展が見られているとは明確ではありません。そして、たとえワシントンから進展があったとしても、これは世界的な現象です。これは私たちの国境内だけで起こっていることではありません。

モデルプロバイダーだけでは、AIから生じるすべての課題とすべてのリスクを解決することはできません。

それは多くのレベルで政府とのパートナーシップでなければなりません。私たちは繰り返しになりますが、カリフォルニア州の議員、最近ではニューヨークと緊密に協力してきました。私たちが見ている信じられないほどの進展がたくさんあると思います。そして、この技術が発展し続ける能力を妨げない思慮深い規制に至ると私は絶対に信じています。

もちろん、それはバランスになるでしょうが、私の感覚では、これはより多くの人々にとってますます大きな問題になるだろうということです。人々はこの問題を気にかけています。彼らは常識的な規制を望んでいます。そして、政府がそれを行う準備ができているという確信はありますか?

モデルプロバイダーが自分たちを機能的な専門家と見なすことは、ある程度義務的だと思います。

ですから、私たちは常に、Anthropicという会社が実際に規制当局や政策立案者に何かを負っているというアイデアを先駆けようとしてきました。彼らが良い決定を下すのを助けるために。技術は非常に速く発展しています。まだ知られていないことがたくさんあり、このパートナーシップは本当に重要です。私たちはモデルが何ができるかについての情報を持っています。

時々、私たちはすべてのデータと情報を持っているため、現実世界の脅威とリスクを最初に発見します。政策立案者、市民社会、および他のグループに、彼らが良い決定を下すために必要な知識をどのように装備させるか?

AI業界の未来予測

10年後、今日存在するすべてのAI企業が存在するでしょうか?誰がこのレースに勝つのでしょうか?

これがどこに向かっているかについて、私の最良の推測をお話しします。

最終的にこれは勝者総取りの環境にはならず、最前線にいるいくつかの主要なプレーヤーがいる可能性が高いと、私たちは長い間疑ってきました。Google、OpenAI、Anthropicがいて、それから非常に強力な他のいくつかのモデルプロバイダーがいますが、おそらく一段階下で、その後他のプロバイダーのロングテールがあります。

私が完全に間違っていて、すべてを取る一人のプレーヤーがいる可能性もあります。しかし、特に過去1、2年の間に、モデルレイヤーでより多くの差別化が見られました。これは私たちが必ずしも予想していなかったことです。Anthropicは今、コードに最適なモデルとしてかなり普遍的に知られていますが、私たちは画像生成に最適なモデルではありません。なぜなら、私たちが話してきた多くの安全上の理由から、画像生成をしないことを選択したからです。

私にとって、その差別化のレベルは、最前線にいるいくつかのモデルプロバイダーの世界に傾いているように見えます。

3年後、Claudeは私たちの心を吹き飛ばすようなことを何をするでしょうか?

3年前、みんな驚いていました。これらのモデルは何ができるのか?それらと話すことができます。彼らはあなたに答えることができます。

私が見ているものが信じられませんでした。

はい、完全に。3年後。しかし、これらのモデルが薬物発見を助けるようなことをする可能性、人類が本当に何千年もの間直面してきた多くの健康上の課題を本当に理解するのを助ける可能性があると思います。

そこでの仕事を加速する私たちの潜在能力は、ほぼ無限だと思います。私たちは、はるかに多くの繁栄、はるかに多くの機会、はるかに多くの健康の世界を見ているかもしれません。これが私の夢です。それが3年後に真実になることを願っています。しかし、そこに到達するためにやるべきことがたくさんあると思います。

この肯定的な未来を実現するためには、私たちが話してきた多くのリスクを効果的に軽減しなければなりません。

コメント

タイトルとURLをコピーしました