AnthropicのJared Kaplan:AIエージェントの未来について語る | TechCrunchセッション:AI

AIエージェント
この記事は約19分で読めます。

AnthropicのJared Kaplanが出演したTechCrunchのAIセッションにおいて、同社のClaude 4発表後の戦略転換について詳しく語った内容である。チャットボットからよりエージェント的なAIコーディングシステムへの移行、OpenAIやGoogleとの競争戦略の違い、AI開発における安全性と透明性の重要性、そして規制に対する同社の立場などが幅広く議論されている。特に注目すべきは、AnthropicがAPI事業を重視し、顧客企業との協力関係を築きながら、同時に安全で責任あるAI開発を推進していく方針を明確に示している点である。

Claude 4発表とエージェント重視への戦略転換

では、早速始めましょう。数週間前、AnthropicはClaude with Codeイベントを開催されましたね。Claude 4をローンチされましたし、また、チャットボットから少し離れて、よりエージェント的なAIコーディングシステムに軸足を移すという、あまり注目されなかった発言もされました。

その決定について、そしてエージェントやAIコーディングアシスタントがAnthropicのミッションにより適合する理由について教えていただけますか?

2022年にClaudeを最初に開発した時の動機について言えば、私たちはまだ研究会社で、製品を持っていませんでした。対話エージェントを構築することにしたのは、私たちが行うことの多くが、誰かと話し、何かをするように頼み、その経過を見るということで表現できると考えたからです。

それが明らかにClaude、つまりチャットボットになりました。claude.aiに行って話しかけることができます。しかし、AIが進歩し、どんどん良くなるにつれて、AIにより長時間の、より洗練されたタスクをやらせることが課題になるというビジョンは常にありました。

基本的に、私たちが物事を成し遂げる方法は、ただ答えを与えるだけでなく、ツールを使って世界に出て行き、タスクを実行するために必要な情報を学び、タスクを実行し、反復することだと思います。

コーダーの場合、コードを書き、コードを実行し、それが動くかどうかを確認します。私のような場合、最初の試行では動かず、バグがあります。しかしそのバグが何かを確認し、それを修正します。

そのため、AIの能力の自然な成長とAIの有用性は、あなたのためにより多くのことができるAIエージェントから来ると思います。

質問をして、答えを得て、それで終わりというパラダイムは、非常に制限的に感じます。そのため、それは私たちが今後焦点を当てるものではありません。

しかし、OpenAIやGoogleのような競合他社の多くは、大規模なAIチャットボットプラットフォームを獲得する競争をしているように見えます。人々がインターネットの最初の停留所として訪れる場所、Googleや場合によってはソーシャルメディアさえ置き換えるような場所です。

彼らの中には、これらの消費者アプリで非常に大きな絵を描いて考えている人もいて、それはAnthropicが競争している場所ではないように感じます。

私たちは企業や個人がAIを統合し、可能な限り最も有用な方法でAIを使用するのを助けようとしていると言えるでしょう。

そのような静的なプラットフォームは少し制限的に感じられると思います。とはいえ、AIがどこに向かっているかは分かりません。ですから、開発者にAIを統合し、さまざまな方法で使用するためのツールを提供することが前進の道のように感じられます。

Claude Codeの開発経緯と内部ツールからの発展

Claude Codeは、その良い例だと思います。私たちは最初、Anthropicのエンジニアや研究者がClaudeを使って自分たちの生産性を向上させるために使用する内部ツールとして構築しました。その後、それを外部に出荷しました。

明らかに主な用途は開発者ですが、Claude Codeを使って驚くようなこと、まるでオペレーティングシステムのようなことをする人々を時々見かけます。

ですから、私たちは皆、AIを使用する最良の方法を実験していると思います。私たちは実験を続け、開発者が実験し、Claudeで構築することを支援し続けることを望んでいます。

AI コーディング分野でのリーダーシップと競争関係

Claude Codeの話題について、あなた方はAIコーディング分野のリーダーとして本当に台頭してきました。あなた方のAIモデルは、Cursorのようなアプリを大きな名声に押し上げました。彼らはあなた方のモデルを使用することで本当に恩恵を受けています。

しかし今、Claude Codeにより、AnthropicとこれらのAIコーディングアプリケーションの間にある種の緊張があるように感じられます。あなた方のモデルで動く企業と競合しているのでしょうか?

私たちのビジネスの多くはAPIに基づいて構築されていると考えています。私たちは顧客にできるだけ成功してもらいたいと本当に思っています。

私たちがClaude Codeを内部で試していて、これを出荷し、公開しようと決めた理由の一つは、エージェント的な能力をどこまで押し進められるかのデモンストレーションのように感じられたからです。それは私たちが研究面で実験し、力を入れていることでした。

私たちの目標は顧客と競合することではありません。私たちの目標は、人々がAIの可能性を探求していることを確実にすることです。

私は常に人々に、今はうまく動かないAIのアプリケーションや用途を構築することを実験するよう勧めています。なぜなら、私たちはAIがどんどん良くなり続けることを期待してAnthropicを設立したからです。

私たちはそれに関する安全上の問題や懸念があると思っており、それが私たちが安全性に非常に焦点を当てている理由です。しかし、その軌道のため、AIが非常に速く良くなっているため、今モデルではうまく動かない多くのことが3ヶ月や6ヶ月後には動くようになると思います。それは本当に先取りする方法です。

Windsurfとのアクセス制限問題

今週、あなた方の顧客の一つであるWindsurfは、Anthropicが彼らのモデルへの直接アクセスを削減したと言って不満を表明しました。WindsurfはCursorの競合ですが、はるかに小さい会社です。彼らはまた、OpenAIに買収されたと報じられています。Windsurfから直接アクセスを削除する論理は何ですか?

私の理解では、Windsurfでは実際に自分のAPIキーを持参してClaudeを使い続けることができますが、はるかに高価で複雑です。

私たちは供給の面で本当に制約を受けていると思います。今後数ヶ月で、Claudeのトークンの利用可能性を大幅に増加させることを望んでいますが、私たちは本当に将来持続的に私たちと協力していく顧客を支援しようとしているだけです。

彼らが将来持続的にあなた方と協力すると思いませんか?

まあ、あなたが言ったことですからね。私には分かりません。私たちがClaudeをOpenAIに販売するのは奇妙だと思います。それは変でしょう。

しかし、その取引はまだ発表されていないと思いますし、短期的には、多くのスタートアップや開発者が見たのは、Anthropicがアクセスを遮断できるということです。あなたのスタートアップが今日Anthropicと競合していなくても、将来そうなるかもしれません。

Cursorとの長期的な関係

AI コーディングは、あなた方が多く投資している分野の一つのように感じられます。Cursorとの関係について考えてみると、それははるかに大きなビジネスで、本当にAnthropicに依存していますが、彼らは今、独自のモデルを構築しているのです。その関係をどう見ていますか?将来、それも問題になるような気がしますが。

私はそうなるとは思いません。明らかに、あらゆる種類の異なる目的で独自のモデルを訓練している多くの企業があります

私たちは長い間Cursorと協力することを期待しています。そうしたいと思っています。彼らは素晴らしい顧客、素晴らしいパートナー、新しいClaudeモデルの素晴らしいテスターでした。

私たちを他の多くのAI企業と比較すると、私たちはAPIビジネスに非常に投資しており、人々がClaudeの上に構築できるようにしたいと思っており、それを制限しようとは絶対にしていません。

私たちは顧客と競合しようとしているのではありません。私たちは彼らを支援しようとしています。

スケーリング法則の現状と継続性

あなたはスケーリング法則に関する論文の非常に影響力のある人物でした。重要なスケーリング法則論文の主要著者でした。昨年、これらのモデルにどれだけの計算とデータを投入して利益を得続けられるか、あるいは推論にどれだけ依存するかという、スケーリング法則の持続力について多くの疑問がありました。

今日のAIモデルに計算とデータを追加し続けることの価値をどこに見ていますか?

スケーリングは事前訓練とRL(強化学習)の両側で引き続き配当を支払っていると思います。この1、2年でRLに関して多くの進歩を見てきました。

AIモデルを訓練する方法は、人間が書いたテキストやその他のデータの次の単語を模倣し、理解し、予測するように教える事前訓練を行うことです。その後、人間のフィードバックによるRLと、テストに合格するコードを書くようなことを行うように訓練されたAIで、それらを微調整します。

これらの両方が明確なスケーリング法則を示していると思います。私と多くの他の人々が貢献した5、6年前の研究は事前訓練側のもので、AIモデルを大きくし、より多くのデータ、より多くの計算を与えれば、それらは良くなるという本当に明確な経験的傾向を示しました。それは続いていると思います。

十分な計算があるか、十分なデータがあるかという問題があります。今のところあると思いますが、最終的にはそれらが制約になると思います。確実にデータはです。

RL側では、はるかに先に進むことができ、RLは完全に、あるいは完全に近く利用されていないと思います。RL側では、有用で安全なことを行い、間違いを犯さないように強化学習でモデルを訓練しています。そのため、明らかに、AIをより有用にしたい、単にオートコンプリートが上手になるだけでなく、そのようなことを続けてスケーリングしたいということです。

過去5、6年間で、RLにおける計算での明確な対数線形スケーリングを得ることができるという多くの証拠があると思います。それが憲法的AIの進歩やより複雑なエージェント的環境のような新しい技術を使って、AIがどんどん良くなるように訓練する主要な投資源だと思います。

推論によるAGIへの道筋

事前訓練スケーリングで、より多くのデータを与えられたより大きなモデルが、クリエイティブライティングや測定が困難なタスクでより良くなるのを見てきました。しかし、コアベンチマークでは、推論モデルほど目覚ましくありません。

あなたの観点から、推論をスケーリングすることがAGIに到達する信頼できる道筋だと思いますか?それは特定のタスクやスキルに到達する方がはるかに良いように感じられます。

少なくとも難しい問題については、推論は明らかにモデルからより多くの能力を得る素晴らしい方法だと思います。テスト時により多くの計算を与えれば、より良い応答を得ることができます。それは確実に要素になると思います。

ある意味では、エージェント的能力がさらに重要かもしれません。あるいは、それらは両方とも重要なのかもしれません。私たちがタスクを行い、仕事をするとき、次に何をすべきかについて1時間考える時間を取ることは多くありません。

私たちが行うことの多くは実験することです。何かを試してみます。環境が私たちに何を教えてくれるかを見ます。間違いを犯したか?テストに合格するコードを書いたか?書いた段落は意味をなすか、それともより良くできるか?

ですから、私はエージェンシー、検索、ツール使用のスケーリングも同様に本当に重要だと考える傾向があります。

しかし確実に、推論により、事前訓練されたモデルとして必ずしもフロンティアにないモデルを取って、難しい問題を解決することでそれらをより良くすることができると思います。

計算制約とTransium 2クラスター

事前訓練スケーリングの問題の一部は、すべてのAIラボが現在非常に計算制約を受けていることです。さらに10倍レベルアップするのは困難です。今日、あなた方はどの程度計算制約を受けていますか?

Windsurfで言ったことに戻ると、あなた方は無制限の計算を持っていません。

AIは指数関数的に拡大していると思います。しばらくの間そうでした。それは続いていると思います。明らかに、AIでの資金調達がどんどん上がっているというニュースでそれを見ることができます。それはAIがより賢くなるにつれてAIによって解放される価値がそれとともにスケーリングしているからです。

より多くのユースケースがあります。顧客はAIを使用し、AIをより多く統合することができます。それはフィードバックループがさらに速いことを意味します。

一般的に言って、私たちは毎年、重要な整数倍で計算の供給を増加させています。それは継続し、継続しています。私たちは新しいTranium 2クラスターの容量のロックを解除し始めたところで、それは本当に大きく、継続してスケーリングしています。

それが顧客のためにより多くの計算をロックし、Claude 5のような次世代を訓練するためのものです。

Amazonとの戦略的パートナーシップ

Tranium 2について言及されました。パートナーについて話したいと思います。Amazonは大きなパートナーです。AlexaとClaudeがあなた方自身ではないインターフェースに現れる方法について考えてもらいたいと思います。

ClaudeがAlexaの一部やそれらの新しいAlexaを動かしているというのは正しいですか?

それはClaudeがAmazonの多くの製品、Alexaを含めて貢献していると共同イベントで発表されました。一般的に、先ほど議論していたように、私たちはClaudeが多くの異なる企業や開発者からの多種多様な製品を動かすことができることに興奮しています。

Apple との潜在的な協力関係

AppleがあなたがたとWWDCで来週一緒に仕事をするかもしれないという噂があります。それは起こると思いますか?

進行中の作業についてはコメントできませんが、私たちは常に多くの異なる企業、多くの異なるパートナーと協力することに開いています。Googleとも仕事をしています。Googleも素晴らしいです。

Appleについて言えば、私は本当にSiriと話すのが好きではなく、Claudeと話すのは好きです。Claudeと話したいと思いますし、これをあなたに提起した最初の人ではないでしょう。

しかし、Apple、Amazon、Googleのような人々と仕事をする際に、Claudeを音声アシスタントに統合するのに問題があり、なぜまだ見ていないのかが気になります。

それは良い質問です。それはおそらくあらゆる種類の異なる要因に依存していると思います。スタートアップなら、非常に迅速に動き、出荷し、反復することができます。しかし、何百万ものユーザーを持つ巨大企業であれば、少しゆっくり動く傾向があります。

多くの音声アシスタントは、一般的に言って、単なる音声アシスタント、チャットしているものではありません。それはより大きなツールや他のアプリケーションのエコシステムに統合される必要があります。カレンダーにアクセスするものを呼び出せるようにしたいかもしれません。物理的なアシスタントのように家の電気を点けたり消したりできるようにしたいかもしれません。

これらのアシスタントに統合された数十、数百、数千の異なるツールやアプリケーション全体で本当に高い信頼性を得ることは複雑だと思います。それは作業を必要とし、期待は非常に高いです。顧客をがっかりさせたくありません。

そのため、そのような統合は複雑だと思いますが、ツール使用とエージェンシーの重要性に戻ります。舞台裏で、音声アシスタントはエージェントである必要があるかもしれません。それがそのような能力に焦点を当てるもう一つの理由かもしれません。

トランプ政権との政策スタンス

あなたのCEO、Dario Amodeiについて質問したいことがありました。彼は今朝のニューヨークタイムズに寄稿を書きました。タイトルは「AI企業を見逃すな」でした。面白いことに、私たちもこのパネルをそう名づけることを検討していました。

彼は州がAIを規制することに対するトランプの10年間のモラトリアムに反対する議論をしました。なぜあなた方はこの件でトランプ政権と戦いを選んでいるのですか?

私の理解では、その寄稿を読むと、多くの面で政権がAIをより安全にしようとして行った多くの作業について肯定的なことを言っています。権威主義的な政府がAIにアクセスするのを防ぐなど。

これは本当に州の権利の問題だと思います。ある州が自動運転車を規制したいと言った場合、そうできるのは理にかなっていると思います。

自動運転車会社がアリゾナで車をテストし、それからミシガンに展開したいとします。ミシガンはその車が雪の中でうまく運転する方法を知らないのではないかと心配するかもしれません。そのようなユースケースです。

私は専門家ではなく、政策担当者でもありませんが、そのようなことはブロックされる可能性があると思います。

多くの人々が、Darioがその法案を批判する最も著名なテクCEOではないと思います。私たちは政府がAIに迅速に対応できるようにしたいと本当に思っています。AIは非常に急速に変化していると思います。州は業界との関与、規制の異なる可能な形態を実験するための国の実験室の一つだと思います。

AIが動いている速度を考えると、政府が必要な速度で行動できるようにするために、柔軟性は素晴らしいと思います。

AI企業の透明性基準

彼が話したことの一つは、AIモデルプロバイダー間の透明性の必要性です。あなた方はOpenAI、Google、そして自分たちを透明な行為を持つものとして挙げています。AIラボにどのような透明性基準を設けるべきだと思いますか?

私たちには責任あるスケーリング政策があり、将来AIからどのようなリスクがあるかを注意深く考えたいと言っています。AIモデルが実際にそれらのリスクをもたらすか、それとも時期尚早かを実用的に評価し、その後、さまざまな緩和策を講じたいと思います。

AI企業に求めることができることは、彼らが検討しているリスク、行った評価、モデルを展開する前に行った安全性テストの種類、そして講じている緩和策の種類を透明に議論することです。

少なくとも、最低限として、一般市民、規制当局、学者、他のAI開発者がリスク、評価、緩和策の堅牢性を理解できるよう招待するでしょう。

私は政策担当者でも立法者でもありません。特定の政策提案を念頭に置いているわけではありませんが、少なくともそのような透明性は良い第一歩のように思われます

言及されたように、GoogleとOpenAIも同様の種類の政策を持っていますが、すべての先進的なフロンティアAI開発者がそれを行っていれば良いと思いますし、政府が私たちにそれを求め、私たちを見逃さないことは合理的だと思います。

トランプ政権からの報復を心配していますか?彼らと意見が合わない人々に困難をもたらすことで知られている政権です。

私たちは州政府、連邦政府などすべてと密接に協力しようとしています。私は政策チームにいないので、詳細はありませんが、一般的に私たちはAIに関してアメリカの利益を進めるのを助けることに従事しています。

Reddit訴訟とデータ使用の公正使用

透明性の話題で、今週初め、RedditがAnthropicを訴えました。彼らはあなた方がRedditのデータでAIモデルを訓練し、そうする許可を持っていなかったと主張しています。

彼らは2024年7月に、AnthropicがRedditでの訓練を停止すると言ったが、その後も10万回以上サイトをスクレイピングし続けたと言っています。それは本当ですか?

新しい進行中の訴訟についてはコメントできません。Anthropicはrobots.txtでの要求や業界標準の慣行を注意深く守ることに多くの努力を払っていると言えます。

しかし、一般的に、多くの出版社がAnthropic、OpenAI、Google、すべての企業に対して同様の主張を提起し、あなた方はこれらのモデルを訓練して数十億ドルを稼いでいると言っています。あなた方は600億ドル以上で評価されていると思いますが、インターネットからのこれらの無料作品からのものです。

Redditはそれが大丈夫ではなく、あなた方はそれに対してお金を払わなければならないという独自の主張をしています。一般的に言って、AIでの訓練時に人々の作品に対して人々は補償されるべきだと思いますか?

言ったように、人々はrobots.txtを通じて、Claudeと、Anthropicがデータにアクセスし、スクレイピングするのを防ぐことができます。私たちはそれを尊重しています。

より一般的には、AI訓練はフェアユースだと思います。それはコピーではなく、データを再現しているわけではありません。それが法的に、robots.txtで避けるよう開発者が要求していない、ウェブ上で公開されているデータでAIモデルを訓練することが合理的だと考える理由の基礎だと思います。

しかし、同時にRedditがGoogleやOpenAIと6000万ドルや7000万ドルの取引を持ち、ニューヨークタイムズがAmazonと取引を持っているように、人々がこのコンテンツを訓練する権利にお金を払い、同時に企業がそれを無料で取っているなら、それがフェアユースでどうしてあり得るでしょうか

言ったように、私たちはrobots.txtに従います。データをスクレイピングしないよう求められた場合、それが私たちの政策です。

AnthropicのAI安全性への取り組み

その訴訟から一つ、そこから離れますが、RedditはAnthropicがAI業界の慎重ないとこのようなものだと言っています。しかし、彼らはそれが正確に真実ではないと主張しています。

Claude 4のローンチで、多くの人があなた方が多くの安全性懸念を持つモデルをリリースしたと感じました。Claude 4がオフラインにしてそれを別のモデルに置き換えようとした開発者を脅迫したシナリオがありました。

Anthropicが以前ほど慎重ではないと考える人々に何と言いますか?

何も変わっていないと思います。これは透明性について言ったことに戻ります。あなたが言及したシナリオは世界で起こったことではありませんでした

私たちは何百、何千、何万ものレッドチーミングの例を行っており、私たちのチームは実際にそれをウィアードチーミングと呼んでいます。私たちのモデルが問題のあることをするかもしれないあらゆる種類の奇妙なシナリオを見つけようとして、それにフラグを立て、将来改善できるようにします。

その後、私たちは120ページのシステムカードを書き、他の人々に透明性を持つよう奨励し、彼らのモデルが何をしているかを示し、他の人々に独自のテストを行うよう奨励するために、あらゆる種類のこれらの例を文書化しました。

それを続けるつもりです。しかし、透明であることで、より多くの批判にさらされると思います。私たちは責任あるスケーリング政策に関して他の種類の安全性テストも多く行っています。そこにも緩和策があります。

それはより多くの批判にさらされるかもしれませんが、人々がAIモデルがどのように振る舞っているかを理解し、他のプロバイダーでも独自のテストを行うよう奨励されるべきだと思うので、それを続けるつもりです。

Anthropic設立の動機と安全性への継続的コミット

最後の質問です。Anthropicは数年間稼働しており、AIの安全性に目を向けるために始めたのかと思います。あなたが始めた使命を再確認するような、競合他社から野外で見たことがありますか?「はい、これは安全ではない。これが私たちがAnthropicが存在する必要がある理由だ」と言ったような。

AIはますます有能になっており、安全性リスクはますます顕著で現実的になっていると思います。

私たちが透明であること、責任あるスケーリング政策のようなものを最初に持ったことを一般的に誇りに思います。多くの競合他社は正しいことをしたいと思っていますが、私たちが最初にそのようなことを行うと、それが基準を設定します。それは他の人々が実験し、反復し、模倣できるものです。

それを続けるつもりです。これまでそれを行ったことを嬉しく思います。

コメント

タイトルとURLをコピーしました