パリAIサミット、アルトマンの『3つの観察』、そしてAnthropicの経済指標

AGIに仕事を奪われたい
この記事は約26分で読めます。

15,546 文字

Paris AI Summit, Altman's "Three Observations," and Anthropic's Economic Index
Learn more about artificial intelligence → from Paris, Tim Hwang is at the AI Action Summit 2025. In episode 42 of Mixtu...

グローバルな視点で見て、AIは時とともにより安全になっているのでしょうか、それともより危険になっているのでしょうか。シニアリサーチサイエンティストのマリーナ・ダニレフスキーさんをお迎えします。マリーナさん、番組へようこそ。どうお考えですか?
両方だと思います。はい、その点について詳しくお話ししましょう。
クリス・ヘイさんは卓越したエンジニアでありカスタマートランスフォーメーションのCTOです。クリスさん、AIは時とともにより安全になっていると思いますか、それとも危険になっていると思いますか?
より安全になっていると思います。そのことに関して私は満足しています。
そして初めて番組に参加していただくのが、pleiasのCEOで共同創業者のアナスタシア・スタセンコさんです。アナスタシアさん、より安全、それともより危険ですか?
オープンソース化が進んでいるので、間違いなくより安全になっています。
素晴らしい、より詳しく掘り下げていきましょう。これらすべてについて、今日のMixture of Expertsでお話ししていきます。
パリからごあいさつ申し上げます。ティム・ホワンです。Mixture of Expertsへようこそ。毎週、MoEでは主要な研究者やエンジニア、起業家、技術者などが人工知能の最新トレンドについてどのように考えているかをお届けしています。いつものように、取り上げるべき話題が多すぎるほどあります。
テストタイムスケーリングについて話し合い、サム・アルトマンの新しいブログ記事についても取り上げ、AnthropicのEconomic Indexについても話し合います。しかしまず、私がパリにいて、アナスタシアもパリにいることから、パリAIアクションサミットについて話したいと思います。
これは政府が過去数年間にわたってAIについて開催してきた一連のサミットの最新版です。今年はフランス政府が主催し、市民社会、政府、企業などの代表者が集まり、AI開発に関する基準やガイドラインについて話し合いました。大きな発表がいくつかありましたので、それらについて詳しく見ていきたいと思います。
アナスタシアさん、番組にお迎えできて大変嬉しく思います。というのも、これらのイベントに直接関わっていらっしゃったと伺っています。マクロン大統領が約1000億ドルという巨額の基金を発表し、フランスのAI支援、特にAI支援に充てるとのことですが、pleiasもその一部と伺っています。この新しい基金にどのように関わることになったのか、そしてどのような活動を行う予定なのか、少しお話しいただけますでしょうか。
はい、もちろんです。まず、投資に関する発表が複数ありました。フランスでは投資の発表を好みます。実際の行動が伴うことを願っています。しかし、重要なのは、1090億の投資基金はフランスだけのものではないということです。
これは国際的なもので、民間企業も参加しています。例えば、モバイル会社のIliadグループが40億以上を提供するなどしています。この基金は、ヨーロッパの主権的なAIインフラストラクチャーに重点を置くことを目的としています。これがその一部です。
そして、ヨーロッパはAIインフラの面で遅れをとっているという指摘を長い間聞いてきました。フロンティアモデルのトレーニングにも、推論を実行するにも、十分なGPUがないということです。私はこれが完全に正しいとは思いませんし、生態学的な必要性が同時に私たちに迫っている世界で、本当にAIインフラを拡大すべきかどうかさえ疑問です。
もう一つの大きな発表は、Current AIの発表でした。これは公共の利益のためのAI財団です。はい、これはpleiasの仕事の非常に特殊な部分ですね。オープンソースとオープンデータのモデルに特化して取り組んでいると聞いています。
はい、その通りです。実際、世界で初めて、著作権のある素材を使用せず、許可的なライセンスのみを使用した、強い意味でのオープンデータのみでモデルをトレーニングしました。データをオープンにし、このオープンデータのインフラを作ることは私たちにとって重要ですが、実際にはより大きなAIコミュニティにとって重要なのです。
今日では、Current AIのようなイニシアチブの支援なしには、コミュニティの利益のためにこれほど多くのアプリケーションを迅速に進めたり、作業したりすることができません。リソースの少ない言語や、より具体的なアプリケーションについて考えてみてください。
この財団は初年度に既に4億を確保しており、5年間で20億以上を調達することを目指しています。少なくとも現時点ではそうです。そして、私たちは最初からこの取り組みに参加できることを大変嬉しく思っています。Mistral、ALEPH ALPHA、Hugging Faceなど、他の10の業界リーダーとともにオープンレターに署名しました。
とても興奮していますし、特にデータが最終的にAIの忘れられた部分ではなくなったことに興奮しています。このAIハイプだけでなく、AI開発全般においてもです。
確かにそうですね。番組でもよく話題に上がることですが、データの部分がどれほど見落とされがちかということです。実際には最も重要な部分であるにもかかわらず。
ある興味深いテーマを取り上げたいと思います。Politicoが興味深い記事を書きました。見出しを読みますと、「世界はAIを心配するのをやめ、愛するようになった」というものでした。記事の主張によると、これまでのサミットではモデルの安全性とセキュリティに焦点が当てられていました。
しかし対照的に、今年は前向きな姿勢が多く見られ、より速く、より良く、より大規模に展開する必要があるということでした。マリーナさん、最初の質問に対して「より安全になっているのか、より危険になっているのか、少し両方だ」とおっしゃいましたが、その意味するところと、どのようにお考えなのか、特にこの文脈で、世界のリーダーたちが以前よりもずっと前向きになっているように見える中で、お聞かせいただけますでしょうか。
世界のリーダーたちはFOMO(取り残される恐れ)を感じています。安全性は素晴らしいけれど、他の誰もが取り組んでいるのだから、私たちも取り組まなければならないと言っているのです。両方だと言った理由は、安全性が向上している側面もあれば、モデルの能力によって、より深く微妙で誤解を招くような作業が容易になっている側面もあるからです。
そのため、安全性はより複雑になっているのです。モデルが爆弾の作り方を教えるというよりも、モデルは時間とともに、使い方によっては意図しない効果を持つ可能性があります。技術を手に入れると、常にそれがどこに向かうのかを完全にコントロールすることはできません。
これは私にとって、AIの民主化の両面性を示しています。より多くの人々の手に渡ることは、常に良いことでもあり、悪いことでもあるのです。
クリスさん、これはあなたの意見を伺うのにいい機会ですね。全体的に物事はより安全になっていると仰いましたが、どのレイヤーでより安全に、あるいはより危険になっているのかという観点から考えてみましょう。
少なくとも規制の面では、この技術を制限したくない、より開放的にしようという動きが強まっているように見えます。これを危険だと考える人もいれば、安全性に関する技術がずっと強力になっているという見方もあります。そのように考えているのでしょうか?安全になっているという主張の根拠は?
はい、そう思います。2年前を振り返ってみると、当時のGPT-3や初期のオープンソースモデル、LLaMA 1などと比べて、今日のモデルははるかに優れています。より安全で、より良い回答を返し、幻覚も少なくなっています。
スタックの観点から見ると、先週話題に上がったガードモデルがあり、バイアスを減らす方法やモデルのトレーニング方法が大幅に改善されています。全体的に、これについてより真剣に考えるようになっています。
将来的にもっと安全になるということではありませんし、今日のモデルで悪いことができないわけでもありません。もちろんできます。しかし、私の友人でミサイルのテストコードを書いていた人がいましたが、彼は私が出会った中で最悪のプログラマーでした。
古いLLaMAモデルに任せるのと、彼にコードを書かせるのと、どちらが良いでしょうか?実際、おそらくモデルの方が安全かもしれません。
アナスタシアさん、モデル開発者として、pleiasは安全性についてどのように考えていますか?他とは少し異なるアプローチをとっているのでしょうか?哲学的には非常にオープンさに焦点を当てていると知っていますが、安全性の分野でも新しい道を切り開こうとしているのでしょうか?
私たちは会話モデルやチャットボットは開発していません。データ処理と、検索拡張生成に至るまでのデータ処理に特化したモデルを開発しています。そのため、安全性に関して私たちにとって最も重要なのは、事実に基づくAIのために適切に準備された、キュレーションされ検証されたデータベースの開発です。
実際、今日ではそれほど多くの作業が行われていません。例えば、感情分析のための良い多言語分類器(多言語という言葉を強調したいと思います)がありません。どのデータでトレーニングされ、なぜこれが有害でこれが有害でないと言えるのかを実際に理解できる良い有害性分類器もありません。
事実に基づくAIのための良いデータ基盤を準備し、モデルをデータに、さらにはスタックで使用するオープンデータや独自のデータにより強く結び付けるために、やるべき作業がたくさんあります。ここに私たちは努力を集中しています。
私たちはAGIを構築しているわけではありません。そのためのリソースもありませんし、複数の理由で必要かどうかも確信が持てません。しかし、これらの作業用の馬、つまり小規模なモデルは必要です。これらは現在は良くないデータを扱い、このようなRAGアプリケーションやその後に導入される技術が実際に展開される質のレベルまで引き上げることができます。
実際のAIがこのように展開されることを考えると。私は1090億ドルを持っている人を知っています。AGIの構築を手伝ってもらえるかもしれませんね、アナスタシアさん。その方についてはまた後で話しましょう。
今週の話題の論文について話したいと思います。Simple test-time scalingという論文です。多くの人々が話題にしているように感じます。概要を説明させていただきますと、もちろんGPT-4 o1プレビューがリリースされ、OpenAIの主張する進歩の一つは、テストタイムコンピュートという考え方でした。
モデルにより深く考えさせ、その結果としてはるかに良い結果を得られるというアイデアです。そしてこの論文が発表され、o1プレビューの推論能力を再現しようとするs1と呼ばれる技術を試していると述べています。
約1000の質問とその推論の過程を収集し、いくつかの手法を使用しました。私のお気に入りの手法の一つは、モデルに「待て」というトークンを挿入して、問題について考え続けさせ、停止させないというものです。
彼らは、これらの比較的安価で即席の手法を使って、o1プレビューと競争力のあるモデルを作ることができたと言っています。ある意味で衝撃的な結果ですが、クリスさん、既に発言しようとしているようですね。人々がこの複製をできるというのは、そんなに衝撃的なことでしょうか?
これは「How I Met Your Mother」のバーニー・スティンソン方式ですね。25+2は?待って、待って27。ええ、これが基本的な手法です。
そして、これは驚くべきことではありません。モデルがより長く考え、より多くのトークンを生成できるようになれば、振り返りの機会が増えることは既に分かっています。DeepSeekの論文でも見られましたね。基本的に、その裏にあるトリックは複数のサンプルを作成し、より長い思考の連鎖を得ることでした。
思考の連鎖が長くなれば、モデルは答えにたどり着く可能性が高くなります。これが彼らが実際に行っていることです。そして基本的に、良くない思考の連鎖を持つものは除外しています。そうすることで質の高いデータを得ることができます。
これは驚くべきことではありませんが、「待て」という一つのトークンだけでそれが機能するのは本当にクールですね。そして思考の連鎖を生成します。2年後には、おそらくこのような小さなハックは必要なくなるでしょう。
なぜなら、モデルを最初から立ち上げるための良い「コールドスタート」思考の連鎖データセットを持つことになるからです。したがって、「待て、待て、待て」などと言う必要はなくなります。モデルは最初から正しい思考の連鎖を生成するようになるでしょう。
しかし、比較的シンプルで小規模な基本モデルから始めて(Cohere-2.5-baseモデルを使用したと思います)、非常に迅速に思考の連鎖を生成し、そのドメインでかなりの性能を得ることができたのは素晴らしい成果だと思います。
DeepSeekの仕事を基に構築しただけですが、素晴らしい仕事ですね。
その通りです。「待て、待て、待て」という解決策が気に入っています。非常にシンプルですが、本当にうまく機能します。
マリーナさん、この論文を読んで一つ疑問に思ったのは、テストタイムコンピュートをどこまで押し進めることができるかということです。というのも、おそらく洗練度の低いモデルでもはるかに優れたパフォーマンスが得られるというのは注目すべき点の一つだからです。
基本レベルのモデルが、より洗練されたモデルと同等になれるような推論の上限を設定するのか、それともテストタイムコンピュートで本当に遠くまで行けるのか、という疑問があります。テストタイムコンピュートが私たちを非常に遠くまで連れて行ってくれると楽観的に考えていますか?それとも、これはいくつかの事柄に対する限界的なハックに過ぎないのでしょうか?
まず言っておきたいのは、はい、それはより洗練度の低いモデルかもしれませんが、データはより洗練されています。彼らは1000個のデータポイントを取ったわけではなく、59,000個のデータポイントを取り、その1000個に絞り込むまでに、様々なフィルタリングや選別、層別化などを行いました。
品質、難易度、多様性について多くの時間を費やして話し合いました。その通りですね。というのも、その時点で作業はどこかで行われなければならないからです。もしそれがモデルで行われないのであれば、代わりにこれらが本当に良い代表的なデータポイントであることを確認する必要があります。
クリスが言ったように、「待て」というのは、「ステップバイステップで考えよう」というトリックが導入されたときのようなものです。これを行う他の方法もあります。再び、モデルを通過する際の思考の例を持つことができます。
ああ、この方法を試してみましたが、うまくいきませんでした。戻りましょう。これは常に9歳の息子に数学の問題を教えているときを思い出させます。まずこれを試してみましょう。うまくいかないようですね。なぜ戻ってみないの?このようなトークンを通過し続けるのです。
そしてここで再び重要なのは、どのようなデータが使用されているかということです。人々がコンピュートを削減しようとしているのは良いことです。なぜなら、私たちは今でも本当に膨大な無駄の中にいると思うからです。
それほど大規模なものは必要ありませんし、そのように多くのノイズのあるデータも必要ありません。品質は本当に重要です。ここで使用されているデータの品質とタイプにより焦点を当て続ければ、より多くの進歩を遂げることができると思います。
これは、データのオープン性と閉鎖性の文脈で非常に興味深いです。というのも、一部の人々から聞く議論の一つは、私たちはとにかく膨大なデータが必要で、何がオープンで何がクローズドかを判断するのは不可能だから、使えるものは使わなければならないというものです。
その通りです。そんなに必要ありません。膨大な量は必要ありません。まず第一に、良質なデータが必要です。推論が豊富なデータが必要です。しかし、DeepSeek以降、テストタイムコンピュートなどの瞬間に本当に興味深いのは、小規模なモデルをブーストできることが分かってきたことです。
これらは実際にエネルギーの面でより小さな影響しか与えません。また、特定のドメインの推論のためにブーストすることもできます。これは特に数学とコーディングで起こっています。
現在、pleiasでは法的推論についてこの作業を始めています。これらは真実を持つドメインです。思考の連鎖を作ることができ、検証者を作ることができます。しかし、これらのデータセットは、コーディングや数学のものよりも作成が少し複雑です。
私たちは法的推論、行政文書の推論、さらには社会学的推論についても実験を行っています。なぜなら、出発点となる明確なガイドラインを持つことができるからです。しかし、これらはすべて現時点では新興的なものです。
私は、伝統的なベンチマークでテストされる一般的な推論能力以外の、産業や特定のドメインのための小規模な特化モデルをブーストするのにどのように役立つのか、本当に興味があります。将来はこのような小規模モデルにあると思います。
ああ、そうですね。新しい未来を想像してしまいました。人々は「なんてこと、彼らは25億パラメータのモデルしか法廷に持ってこないのか」と言うでしょう。そのモデルは700億パラメータのモデルを持つ弁護士と対峙することになります。
そして「ああ、裁判官は4050億パラメータのモデルを持っている」とか、「ああ、証人は30億パラメータのモデルだ」とか。これが私たちの法的な未来なのでしょうか?法廷で小規模モデルと大規模モデルが対峙する?それは興味深い未来だと思います。
実際、私にとってはこれは一つのAGIに支配される未来よりも望ましい未来です。少なくとも、より資本主義的な未来について議論しているということです。小規模モデルが一部の人々に、大規模モデルが他の人々に付き添う。一つのAGIの世界に住みたいとは思いませんが、それは恐らく私だけかもしれません。
それは次回のエピソードの冒頭で、次のホットな話題になるかもしれませんね。次のトピックは、今週サム・アルトマンが発表した「3つの観察」というシンプルなタイトルのブログ記事です。挑発的なブログ記事で、これについて話し合うのは興味深いと思いました。
このブログ記事の効果は、AIシステムがより強力になるにつれて予想される経済的影響について少し話すことです。サムは主に2つの大きな主張をしています。一つ目は、モデルのパフォーマンスがスケーリングしているということです。
つまり、モデルが大きくなればなるほど、より良くなるということで、これは機械学習コミュニティで長年信じられてきた信条の一つです。二つ目は、これらのモデルを提供するコストが下がるにつれて、需要が増え続けているということです。
彼の最終的な主張は、スケーリングを続けるべきで、物事はより安価になり、それが最終的に経済に巨大な影響を与えるだろうということです。ある意味で、これは人々がOpenAIを信じ続けるべき理由の説明です。なぜなら、これが彼らの価値提案の核心だからです。
このグループの意見を聞きたいと思います。これらの技術が今後数年でずっと良くなると信じている人々であり、同時にAGIに関して全体的に懐疑的な立場を取っている人々としての意見です。
マリーナさん、まずあなたから。このブログ記事についてどう思いますか?この主張に同意しますか?もし異論があれば、どの部分の論理に問題があると感じましたか?そのため息が全てを物語っているかもしれませんね。
サムの主な点、いくつかありましたが、私が注目したのは3点目です。「線形的に増加する知能の社会経済的価値は超指数的な性質を持つ。近い将来、指数関数的に増加する投資が止まる理由は見当たらない」
私にもっとお金をください。私にお金を。今すぐ。もっと私にお金を。これが主なメッセージのように思えます。
また、シリコンバレーの多くの人々と同様に、彼は現実の世界に住んでいないと思います。なぜなら、「10年後には、現在一部の人々しかアクセスできないAIに、誰もがアクセスしたいと思い、アクセスでき、恩恵を受けるだろう」というような発言をしているからです。
いいえ。物事はそのようなスケールで進むわけではありませんし、それは人々が持つニーズや得られる恩恵の種類でもありません。彼には非常に特殊な視点があり、それはより狭く、より限定的で、少なくとも私にとっては、ある意味で少し不快です。
人々にこの技術の恩恵と使用法を理解してもらいたいと思いますが、このような発言は、実際に私たちの多くがこの分野で行っている仕事を損なうと感じます。
そうですね、批判の一部は過大な主張だということですね。はい、そう思います。
クリスさん、どう思いますか?
私はサム・アルトマンが大好きです。頑張れサム。世界を変えるでしょう。素晴らしいです。この意味で、非常にポジティブな態度を持つ必要があると思います。これは世界を変える技術になるでしょう。時間とともに物事がいかに改善されてきたかを見れば分かります。
もちろん影響を与えるでしょう。しかし、新しい価値創造が起こるでしょう。新しいやり方で物事を行うようになります。それは素晴らしいことだと思います。影響がどのようなものになるかについて話し合うのは健全だと思います。
おそらく中間のどこかになるでしょう。なぜなら、何か超クールなものを手に入れると、すぐにそれを当たり前のものとして受け入れ、そこから先に進むからです。
私はずっと言っていますが、AGIを手に入れたら(AGIの定義は後で議論できますが)、最初に起こることは、それが箱に入れられ、どこかに大きな博物館がオープンするということだと思います。
そして私たちは皆そこに行って、「おお、AGIとチャットできる」と言うでしょう。「おお、あれがAGIだ」と。だから、しばらくの間、その物は箱の中にいることになります。それが彼の未来です。一種のサーカスのような。
しかし正直に言って、私は物事に対して非常にポジティブです。これは世界を変える技術だと思います。意識を持つものになるでしょうか?いいえ。しかし、コーディングのようなものを見てみると、現実には、今日のo1モデルやo3ミニモデルを使用しても、多くのタスクに対してより優れています。
非常に高品質のコードを本当に速く生成できます。それが現実です。そしてそれがその領域に留まると考えるのは自分を欺くことになるでしょう。コストが下がるにつれて、より多くの人々がこれを使用するようになります。
はい。ある意味で楽観主義を解釈しようとしているのですが。というのも、マリーナさん、あなたに同意します。ブログ記事のトーンは非常にイライラさせられます。一方で、「でもティム、この技術が本当に大きな影響を与えると信じていますか?」と聞かれれば、「ああ、もちろんです。本当に大きな影響を与えると思います」と答えます。
この技術に対して楽観的な態度を持ちながら、通常のバレー的な言い回しに陥らないようにする方法を見つけることが課題の一つのように思えます。
バレーにいないことが重要です。私にとって、ChatGPTの瞬間は大きな解放の瞬間でした。私は書くことが好きではありません。時々、このような技術の解放力、解放の力を理解していません。
書くこと、コーディング、アクセスを持っていなかった人々、より少ない知性を持っていた人々、これらを今ツールとして使用して以前にはできなかったことができるようになった人々にとって。
しかし、この解放の力は本当によく理解されていないと思います。また、私たちが社会でありうる存在になることを助けてくれるこのようなアシスタントが必要な場所に置かれていないと思います。
コードの書き方を学ぶ方法、上手な文章の書き方を学ぶ方法、そして単なる綴りの誤りの量で社会や経済システムから判断されないようにする方法について、より少ない制約があります。
私にとって、これはAGIを追いかけることよりも重要です。しかし、マリーナさんが指摘した指数関数的成長の第三の点について、地球には限界があります。私たちには限られたリソースしかありません。
このような考えを読むのは非常に驚きです。なぜならAGIは私たちが直面している生態学的危機の問題を解決しないからです。すべてを原子力エネルギーで動かすために十分な原子力発電所を建設する時間も余裕もありません。
原子力エネルギーがあっても、生態学的危機を解決するのには役立ちません。申し訳ありませんが、そして恐らくこれは少しヨーロッパ的な視点かもしれませんが、古い考え方だと思います。
私たちはたった2年前に言っていたことをすべて忘れて、「はい、AGIがすべてを解決してくれます」とは言えません。インターネットがすべてを解決しなかったのと同じように、AGIもすべてを解決するわけではありません。
今でも多くの大陸でインターネットにアクセスできない場所がたくさんありますし、AGIでは解決できない多くの問題が解決されていません。
私たちはもっと現実的である必要があると本当に感じています。これも重要です。なぜならサムはこれを行い、火曜日にエリゼ宮殿でエマニュエル・マクロンの前で同じスピーチを聞きました。
彼は基本的に同じことを言い、投資が必要だと。データセンターに投資しましょうと。私たちはこの投資の呼びかけとそれが実際に社会にどのように影響を与えるかについて、この技術が必要ないと言うことなく、慎重である必要があります。
私たちはこれを必要としています。開発する必要がありますが、合理的な方法で。すべての学校の近くにデータセンターを建設するようなことではありません。
私は同意しますが、同意しない部分もあります。その理由は、原子力発電所は必要ないと思うからです。マクロンは1090億の一部として誰もが原子力発電所を持つべきだと苦しんでいますが、テストタイムコンピュートの現実では、事前トレーニングの段階に焦点を当てる時間を減らすべきです。
事前トレーニングをまったく行わないという意味ではありませんが、事前トレーニング、事前トレーニング、事前トレーニングと繰り返すべきではありません。テストタイムコンピュートでは、先ほど話題に上がったs1モデルのように、高品質なデータセットを使用することで非常に遠くまで行くことができます。
より長い思考の連鎖を消費者グレードのハードウェアにプッシュできることを既に証明しています。AIをスケールするために原子力発電所が必要だとすれば、私たちは間違った道を進んでいると思います。
しかし、問題は事前トレーニングだけでなく推論でもあります。そうです…でも私のラップトップでAppleシリコンチップを使って推論を実行できます。問題ありません。推論のコストは、トレーニングのコストよりもはるかに低いです。
しかし、AIアプリケーションをスケールしたとき、それも問題になるでしょう。でも意見が合わないことにしましょう。
このポッドキャストではそういうわけにはいきません。
はい、そうですね。私の言語研究者としての背景からすると面白いかもしれませんが、これらのモデルを他の非言語ドメイン、マルチモダリティ、センサー、時系列などで使用する力を忘れるべきではありません。
これらの用途は非常に多くあります。メールを書くのを手伝ってくれるだけでなく(私もそれは大好きです。メールを書くのは嫌いですから)、コードを書くのを手伝ってくれるだけでなく、工場の作業を改善するためのあらゆる方法を想像してください。
渡り鳥の生息地を助けるために取り付けたセンサーを追跡するためのあらゆる方法を想像してください。そのようなことすべてです。
この技術が使用される可能性のある場所を本当に広げれば、なぜならこの技術は実際には言語とは何の関係もないことを覚えておいてください。そうではありません。
そうすれば、私たちはもっと興味深い、もっと現実的で実用的な場所に行くことができ、そうです、言語の部分だけに、そしてもちろんAGIを追いかけることだけに焦点を当てないようにできるでしょう。
最後に触れたかった項目は、Anthropicが発表した面白いデータセットについてです。彼らはそれをAnthropic Economic Indexと呼んでいます。
私がこれを気に入っている理由は、Googleの初期のころを思い出すと、Google Fluというプロジェクトがありました。これは基本的に人々の検索結果を使用して、どこで人々が病気になっているかを特定し、病気が人口の中でどのように広がっているかのリアルタイムのヒートマップを作成するというものでした。
これはある意味で、その奇妙なアップデート版のようなものです。ただし、人々が病気になることではなく、人々が実際にAIを何に使用しているかを見ています。
Anthropicは基本的にすべての会話のサンプリングを見て、匿名化されたセットを使用して、AIが経済全体にどのように広がっているかについて何を学ぶことができるかを調べました。そして彼らはいくつかの非常に興味深い結果にたどり着きました。
ウェブサイトに行って彼らのブログ記事を読むことをお勧めします。エピソードの時間があまり残っていないので、私が取り上げたかったのは、現在、AIアシスタントの使用の約36%がソフトウェア開発と技術文書作成タスクにとどまっているという発見です。
これはある意味でマリーナの指摘と同じで、私たちはこの技術を経済全体に及ぶものとして売り込み、考えてきましたが、Anthropicの発見の一つは、それが依然として人々が実際に使用している分野に集中しているということです。
それ以外は非常に薄いものです。まずこの結果について少し話し合いたいと思います。他のデータについても話し合えますが、この発見は私にとって非常に興味深いものでした。
なぜなら、少なくとも私の期待に反していたからです。人々はメールを書いたり、詩やエッセイを作ったり、他のことに使用していると思っていました。しかし、結局のところ、それは非常にソフトウェアツールとしての性質を持っています。
アナスタシアさん、私たちは驚くべきだと思いますか?それとも私が理解していないだけでしょうか?
実際、この研究は他の研究でも見られたことを裏付けています。フランス政府のために開発したコパイロットの使用状況に基づいて実施した研究でも同様です。
その理由の一つは、ソフトウェア開発や、アプリケーション、タスク、マーケティングなどから、例えば財務分析などがどれほど遠いかを見ると、現在私たちが持っているこれらのツール、これらのチャットボットは、他の産業の人々が行う正確な知識労働に本当に適応していないと思います。
ソフトウェア開発については驚きませんでした。そしてAnthropicは最先端のコーディングツールとして大々的に宣伝されてきたので、これを見るのは当然です。彼ら自身が論文で述べているように、これにはある程度のバイアスがあるかもしれません。
しかし、この研究は、大規模言語モデルが職場での日常的なツールとしてより広く採用されるまでにどれほど遠いかを示していると本当に思います。私たちは皆今それを使用していると思うかもしれませんが、実際にはそうではありません。
人口の一部が他よりもはるかに多くこれに触れています。また、現在それをあまり使用していない人々への職場での教育、そしてもちろんモデルプロバイダーからのUXやその他の製品の適応など、かなり重要な部分が必要になるでしょう。
クリスさん、これは先ほどあなたが冗談で言っていたことにも通じますね。AGIを発明してもしばらくは動物園に住むことになるだろうと。これは文字通りそうですね。AGIではありませんが、本当に強力なAIシステムを持っていても、それは依然として主に技術産業の現象です。
Anthropicはこのデータを見て、私たちにはまだまだ市場があり、もっと成長できると言うでしょう。悲観的な見方をすれば、結局のところ、このものはコーディングのような作業で最も有用で、これからもそうあり続けるのかもしれません。
これはAI業界にとって懸念事項だと思いますか?
いいえ、私はこの点についてアナスタシアに同意します。モエ・エ・シャンドンに、ガラス瓶の主な用途は何かと尋ねたら、30%はシャンパンだと答えるでしょう。
そしてそれがAnthropicの現実だと思います。アナスタシアが言ったように、Claudeはコーディングが最高だと宣伝されています。
エコシステムを考えると、Kleinなどを考えると、そこに組み込まれているデフォルトのモデルはClaudeです。そのため、その業界の誰もが、推論モデルの観点から見て、コードインテルにはClaudeを使用することを知っています。
そのため、あなたが言うように、そのデータには偏りがあると本当に思います。OpenAIに主な用途は何かと尋ねたら、異なる結果が得られるでしょう。より広い消費者ベースを対象としているからです。
さらに、GPT-4o miniとo1-miniとo3-mini、o1 proでは、完全に異なる使用データセットがあるとも主張できるでしょう。彼らがこれを発表したのは興味深いと思いますが、私の意見では、それは本当に非常に狭い垂直なスライスなので、これらの回答をどのように解釈すべきか分かりません。
そうですね。それはAnthropicが何に使用されているかということだけを教えてくれます。
その通りです。世界を代表しているとは思いません。アメリカを代表しているとも思いません。イギリスを代表しているとも思いません。あなたの指摘通り、ティム、それはClaudeとAnthropicがどのように使用されているかを示しているだけです。
非常に興味深いですが、はい、それがすべてです。
彼らはそれを明確に認め、明確に述べています。このデータセットを公開する最大の理由の一つは、このデータセットを公開し、他の人々から同様のものが得られることを期待することだと述べています。
検索ログを公開するようなものです。すべてを手に入れることはできませんが、何かを得られるのは良いことです。
私は経済的な視点が気に入りました。彼らは限界や前提について非常に慎重に述べており、分析の結果よりも分析のプロセスに重点を置いています。それに同意します。そしてマリーナさん、もし続けて質問させていただけるなら、これが素晴らしい理由の一つは、これまで私たちが持っている全ての集計データに基づいて、その上に有用なものを構築できるということを、これらの企業が本当に言ってこなかったからだと思います。
これはある意味で新しいスタートだと思います。単に「私たちはあなたが使用できるAIツールを提供します」と言うのではなく、「私たちのプラットフォームが今や世界全体に対する信号を提供します」というものです。
あなたへの質問ですが、企業は今後このようなことをより多く行っていくと思いますか?それともこれは単なるデモプロジェクト以上のものではないのでしょうか?
分かりません。この技術は依然として多くの釘を探しているハンマーのようなものだと思います。いくつかの釘は見つかりましたが、まだまだたくさんあります。人々が投資を行い、継続したいと考えている投資を考えると、もっと釘を見つけられたら良いと思います。
人々に「この技術の使い方を知っていますか、それとも知らないのですか?」と尋ねて理解しようとすることが重要です。なぜなら、まだ人々がそれをどのように使用すべきかを知っている段階には達していないと思うからです。
インターネットが始まったとき、人々は正しい使い方を本当には知りませんでした。人々は上手くなり、ここでは無限の例を挙げることができます。まだそこまでは至っていません。
実際、企業にとっては、人々がこれをより快適に感じ、より広い視野を持つようになり、単に「ああ、これは技術者によって、技術者のために作られ、技術者について書かれたものだ」と見えないようにすることが有益だと思います。
あなたが言ったように、市場を運営するでしょう。はい、そしてそれを理解する方法を理解するのには本当に長い過程が必要になると思います。
映画カメラが登場し始めたころの初期の映像を見たことがありますか?人々が列を作って、まるで写真を撮るかのように完全に静止してポーズを取っている様子が見られます。映画カメラではなく写真だと思っていたのです。
そして、「ああ、これで映画を作ることができるんだ。単なるカメラじゃないんだ」と理解するまでに時間がかかりました。
そうですね。おそらく私たちはAIでもその初期段階にいるのでしょう。
今日はここまでにしましょう。クリス、マリーナ、2週連続で参加していただき、ありがとうございます。アナスタシア、番組に参加していただき、ありがとうございました。また別の機会にお招きしたいと思います。
そしていつものように、リスナーの皆様にも感謝申し上げます。お楽しみいただけましたら、Apple Podcasts、Spotify、その他のポッドキャストプラットフォームでお聴きいただけます。来週のMixture of Expertsでお会いしましょう。

コメント

タイトルとURLをコピーしました