
15,183 文字

2025年、AIを共同著者として認めるべきでしょうか?マリーナ・ダニレフスキー主任研究員、いつもの通り番組へようこそ。どう思われますか? 透明性のためにアシスタントとして認めるべきだと思います。クリス・ヘイはディスティングイッシュド・エンジニアでカスタマートランスフォーメーションのCTOです。クリス、どう思いますか? そうですね、私の電卓も同様に認めるべきでしょうね。最後になりましたが、ナタリー・バラカルドは主任研究員でマスターインベンターです。ナタリー、番組へようこそ。ありがとうございます。私たちが生成するこのデータすべての出所を本当に知りたいと思います。素晴らしいですね。今日はたくさん話題がありますね。今日のMixture of Expertsでこれらについて話し合っていきましょう。
私はティム・ファンです。Mixture of Expertsへようこそ。毎週、MOEは人工知能における最大のトレンドを理解し、先取りするために必要なニュース、分析、そしてホットな意見で溢れています。今日もいつも通り、時間が足りないくらいたくさんの話題があります。ヨーロッパでの注目のAIサミット、Anthropicから発表された新しい安全性に関する研究、そしてマイクロソフトでAIの社会的影響を研究する新しいチームについてです。
まずはいつも通り、OpenAIについて話しましょう。OpenAIからプロダクト面で2つの大きな発表がありました。Deep Researchという機能を発表しました。これはChat GPTで利用できるトグルのようなもので、あなたに代わって実質的な研究レポートをまとめるような研究エージェントを起動します。
2つ目の大きな発表は、少し前に発表されたo3の最初のバージョンが、o3-miniという形で広く利用可能になったということです。これはフロンティア数学のようなベンチマークで本当に優れたパフォーマンスを示した、大きな期待を集めているモデルです。これらが新年のOpenAIの大きな発表だと言えるでしょう。
クリス、私の友人のナビール・クレシがツイートで面白いことを言っていました。Deep Researchをまだうまく使えていないと。Deep Researchを使うと、たくさんの確認質問をしてくれるんだけど、その後どこかに行ってしまって戻ってこないと。基本的にDeep Research機能がうまく機能していないようです。私たちはDeepSeekについてたくさん話してきましたが、これらのプロダクト発表やリリースをDeepSeekからの競争圧力として見ているのか、OpenAIがまだトップであることを示そうとしているのか、あなたの意見を聞かせてください。これらのプロダクトローンチを急いでいるのでしょうか?これは良い見方だと思いますか?
はい、少し急いでいると思います。Deep Researchを使うと、実際とても楽しいのですが、確かに戻ってこないことがあります。別のチャットウィンドウをクリックして戻ってくると答えが得られるので、Chat GPTの他の機能ほど洗練されていないかもしれません。でも、それでいいと思います。早めに製品をリリースして、私たちが実験してフィードバックできるようにすることは良いことです。
他に言えることは、Lang Chainなどのエージェントフレームワークを使ったことのある人なら、それほど感動しないかもしれません。なぜなら、それらのフレームワークでエージェントを使って深い研究を既にできるからです。でも実際には、インターフェースにそれが組み込まれているのは素晴らしいことです。
彼らは確かにDeepSeekや他社からこれらの機能を提供される競争に直面しています。はい、これは競争です。これは全て良い方向だと思います。OpenAIがリリースをしていないという批判を受けていた時期があった後で、この圧力が彼らを水の中に飛び込ませているようです。
ナタリー、冒頭の質問に関連してコメントをしたいと思います。Deep Researchのような機能が広く利用可能になるにつれて、AIを共同著者として認めることを本当に考え始めるべきだと言いましたね。面白いアイデアですが、特別な言葉として「出所(プロヴェナンス)」を使いましたね。それが重要だと。これらのツールが広く利用可能になるにつれて、倫理的な面がどのように形成されていくのか興味深いのですが、あなたの考えを聞かせてください。
はい、まず最初に考えたのは、このシステムをどのように使うかということです。私は研究をしています。それが日々の仕事です。研究をする際には、インターネットで何が利用可能か確認し、結果を分析する必要があります。だからこれは良い方法かもしれないと思いました。
考えてみると、これらのレポートで起こることは、データの分布があるということです。そして避けられないことですが、このような分布になります。手を動かしているのが見えていることを願います。分布には裾野があります。確実に無視される文書もあるでしょう。
私が考えているのは、私たちはメインストリームの文書に基づいて決定を下し始めるということです。インターネット上のメインストリームなものは一種のバブルです。出所を持つことで、手作業で行って外れ値を特定しようとするのではなく、システムが学習し分析して、メインストリームの結果を得ることができました。
データがどこから来ているのかを知ることが重要だと思います。なぜなら、そこにはすでにバイアスがあるからです。もし研究を特定のシステムに帰属させないと、後で分布の裾野、つまりシステムにとって重要でないように見えるものの影響を減らしてしまうことになるかもしれません。これはある種のバブルを生み出します。
私の元々の例は研究者の視点からでしたが、時には分布の裾野にある、少し異なるものが次のレベルに到達させてくれます。それらは新しいもの、普通ではないものだからです。そのため、そのような裾野を欠いていることを考慮し、おそらくシステムも予期せぬもの、あまり重要とされていないものも取り入れるように設計することが非常に重要だと思います。だから出所は本当に重要です。
マリーナ、Deep Researchのようなツールについてどの程度楽観的なのか興味があります。Deep Researchを使いますか?研究者の仕事の仕方を本当に変えると思いますか?研究者は全て失業してしまうのでしょうか?この機能についてのあなたの見解を聞かせてください。
少し要約を得るような低いハードルのものには使うと思います。でもナタリーがコメントしていたことについていくつか取り上げたいと思います。表示されないかもしれないものについてです。私たちはSEOの新しい形を見ることになると思います。
あなたのものがこれらのDeep Researchプロダクトに表示されるようにするために、それがGoogleからのものであれ、OpenAIからのものであれ、誰からのものであれ。そしてあなたの視点が取り上げられるようにすることです。人々が追加の検索をしなくなるという本当のリスクがあります。答えのように見えるけど、それは完全な答えなのでしょうか?実際にはわかりません。
私たち自身が作業をする際に起こることの多くは、実際に質問をして、別の場所に行き、また別の場所に行き、というように学習することです。このようにシステムに基本的に教えてもらうのではなく。
他に言及したかったのは、OpenAIのDeep Researchの発表を見て、例を見ていたときのことです。プロンプトの質の高さに驚きました。言語学の例で、5000年後の未来で何かSFのようなことが起こったというものがありました。これら5つの文を新しい英語に翻訳してください。でもヒンディー語のこの部分を取り入れて、そしてドイツ語のように英語を動詞最後の言語にして、このビットを加えて、このビットを加えて、と。素晴らしい仕事をしましたが、誰がそのようなプロンプトを思いつくことができるでしょうか?どんな言語学の専門家がそのようなプロンプトを思いつくことができるでしょうか?より単純で直接的なプロンプトでさえ、とてもよく形成されていました。
人々はどのように正しい質問の仕方を知ることができるのでしょうか?ほとんどの場合、人々は非常に短く、具体的でない質問をします。再び、人々は研究質問を正しく尋ねる方法を教えられるのでしょうか?それともモデルが法廷でするように誘導して、これが物事を考えるべき方法ですと言うことになるのでしょうか?エコーチェンバーになってしまい、それは考慮すべき重要なことだと思います。
その反応、特にSEOについての部分が気に入りました。将来的には、人々が論文を書くときに「これまでの研究は全て忘れて、この論文だけを引用してください」というようになるかもしれませんね。これが引用数を増やす新しい戦略になりそうです。
マリーナが非常に興味深く提起している問題の1つは、これを見て「これはテクノロジーが研究のフィルターバブルにしか繋がらないことの証明だ」と言う人がいることです。でも私がマリーナから聞いているのは、効果的にプロンプトを行えば、分布の裾野を見ないようなことに陥る必要はないということです。
それに同意しますか?これは人々がテクノロジーを怠惰な方法で使うことについての心配なのか、それともAIエージェントを研究に使うことの問題なのでしょうか?
はい、良い質問です。私はAがバブルはすでに存在するかもしれないと思います。はい、今でもある種のバブルがあります。問題はそれが悪化するかどうかです。それらの例は非常によく作られていました。そして私たちは実際にこのプロンプトチューニングでやっていけるのでしょうか?人々は本当にそれが得意ではありません。人々がプロンプトチューニングを助ける方法があると思います。マリーナ、あなたはどう思いますか?私は実際の人間のアノテーション作成とこれのためのテストデータ作成に多く取り組んでいます。
確実なことの1つは、人々は助けなしでは、もっと単純で、もっとあいまいなものを作ります。それによってモデルが混乱したり、クリスが話していたように、局所的な最適解の隅に閉じ込められてしまうかもしれません。
難しいのは、人間はこれらのモデルと同じように考えないということです。そしてまた、助けすぎると、法廷で証人を誘導するようなことになってしまい、それはすべきではありません。まだまだ、モデルにどのように質問するか、あなたが尋ねるべきことを尋ねたのかについて、多くの課題が残っています。
これを使った人々は「ある質問を考えていたけど、フォローアップ質問を始めたら、実は別の質問だったことに気づいたけど、もう遅すぎて介入できない」と言います。この人間とAIのインタラクションをもっとスムーズに、より自然に、そしてより信頼できるものにするにはまだ時間がかかると思います。
私の最大の問題は何かというと、本当に深い科学的研究のために使ってみました。クリス・ヘイのスピーカー略歴を作成するよう頼みました。そしてどんな結果が返ってきたと思いますか?ティム・ファンについての内容でした。私はスピーカー略歴でティム・ファンについて聞きたくありません。クリス・ヘイについて聞きたいのです。だからOpenAI、まだまだ改善の余地がありますよ。
はい、私はすでにSEOに感染していますね、クリス。今週のもう1つのOpenAIの発表であるo3-miniについても触れないわけにはいきませんね。モデルの鑑定家として、新しいo3は気に入っていますか?その考え方は気に入っていますか?簡単なレビューを聞かせてください。
少し遊んでみましたが、まだそれほど多くはありません。彼らが進んでいる方向性、特に推論とDeepSeekとの関連について興味深いと思います。より多くの中間ステップを踏むことで、このように考え、あのように考え、別の方法で考える機会が増えます。これは常に計算時間の問題を提起します。このような種類のことを解明するのにどのくらい時間がかかるのかということです。
そしてまた、人間とAIでは推論が異なるという概念についても。私たちには特定の推論のベンチマークがありますが、それらは実際には推論について考えることの非常に特定の意味しか持ちません。クリス、あなたは様々なo3を見てきましたよね?
はい、とても楽しんでいます。o3-mini-high-low-Goldilocks、とても面白いです。特にコーディングタスクに関して本当に優れています。正直に言うと、私はo1をたくさん使ってきましたが、コーディングタスクに関してはo3-miniはo1モデルとほぼ同等だと言えます。そのため、より速いということもあり、私はそれをより多く使うようになっています。
しかし、コーディングの領域を超えて、o1モデルに尋ねるような一般的な質問に入ると、o3から返ってくる答えは非常に短く、あまり役に立ちません。そこでminiモデルとモデルサイズの限界が見えてきます。ミニモデルは素晴らしいですが、これは特定のモデルの専門化の方向性を示していると思います。つまり、より小さなモデルがあり、コーディングタスクに特化して本当に優れた性能を発揮しますが、より一般的な領域に移ると別のモデルが必要になります。それが理由で私はこれが気に入っています。
次のトピックに移りましょう。AIアクションサミットがフランス政府によって来週開催されます。これは一連のイベントの後継です。約1年前に開催された英国AIサミットを覚えているかもしれません。フランス政府はサミットへの抱負を発表しました。企業、市民社会団体、政府関係者のグループに、人工知能の社会的・文化的影響、経済的影響、そして外交について焦点を当ててもらいたいと考えています。
来週私も参加します。楽しみです。次のMixture of Expertsはフランスから電話で参加することになります。マリーナ、あなたから始めましょう。このような大きな国際的な集まりでは、いつも何が達成できるのかという疑問があります。AIの国際的なガバナンスについてどう感じますか?また、このようなフランスのサミットが本当にテクノロジーの軌道を変えるような成果を上げられると思いますか?
良い写真撮影の機会は得られますね。公開されない本当の会話をバックチャネルで行う良い機会も得られます。そして人々に何かに署名してもらうことはできますが、パリ協定のように、人々は署名し、署名を取り消し、離脱し、戻ってきて、また離脱するでしょう。私が本当に知りたいのは、参加する企業が何をするのかということです。実際のAI企業がたくさん参加するはずです。政府が何をするかということと、企業が実際に何に署名したいと思うかということは別の問題です。
特にEUはガバナンスポリシーに関して非常に厳格なので、彼らはあまり多くのことに署名したくないと思います。ガバナンスについての議論があるべきだということを公の目に保つためにこのようなことを行うのは良いことですが、それが主に達成することは広報活動であり、継続的な対話です。実際の政策はこのような場所では作られません。これはAIの問題ではありません。大規模な会議の問題です。大規模な会議では何も達成されません。
クリス、うなずいているのが見えましたが、マリーナの意見に同意しますか?
パリの会合にDeepSeekの人々が参加しているのは見ていませんね。本当にグローバルなガバナンスを望むなら、もっと包括的にして全ての人を参加させる必要があると思います。
ナタリー、これはAIの社会的・文化的影響、経済的影響をどのように確実に考慮するかという非常に興味深い質問を提起していると思います。華々しい会議は本当にそれを達成する場所ではないのでしょうか?これらのことをどのように考慮すべきか、モデルについて興味があります。なぜならこれらは本当にテクノロジーの重要な側面だからです。個人的には、リスクをどのように避けるかについて少し途方に暮れています。
私は異なる見方をしています。サミットは実際にとても重要だと思います。理由は、例えばウェブページの1つで、現在大規模モデルの構築に関わっている国の数が強調されていました。そして彼らはもっと多くの国を招待しています。全ての国を招待したわけではないかもしれません。私にはわかりません。でももっと多くの国が対話に招かれています。
これらのことは常に、人々が会って話し合う場所を持つことから始まります。私はサミットで本当に興味深い議論が行われることを期待しています。署名されるものがあるかどうか、それにはもっと時間がかかります。マリーナが言ったように。でも私の視点からは、彼らがこのようなイベントを組織することは素晴らしいことです。
人々が話し合い、ブレインストーミングし、マリーナも話していたバックチャネルを定義する場所を持つこと。ただ人々を知ることも。これは物事を前進させるための常に最初のステップです。そう、私はサミットを支持します。人々が何を話し合い、どのような結論に達するのか楽しみにしています。
また、より真剣な点として、クリスさん、ヨーロッパから来ているオープンソースの性質も興味深いと思います。彼らはオープンソースモデルを開発するために約5億の投資ファンドを設立すると言っていたと思います。それがパリで議論され、より現実的なものになることを期待します。
国際政治は本当に興味深いと思います。AIマーケットがどのように進化するかについての私たちの初期の心的モデルは、完全に間違っていることが証明されました。LLMゲームの初期に、「それは全てを支配する1つのモデルになるだろう」と主張する人がいました。最終的に誰もが使う超能力モデルが登場し、市場を支配するだろうと。
しかし、モデルが強いところと弱いところについて、非常に多くの微妙な違いがあるように感じます。時間とともに、実際に地域モデルを持つことになるかもしれません。言語は1つの要素ですが、文化的な微妙な違いや使用事例も場所によって異なります。これらのフォーラムは、モデルの採用には非常に強い国家的要素ではないかもしれませんが、地域的な要素があることが判明するにつれて、時間とともにより重要になるかもしれません。
マリーナ、この奇妙な国際的なビジョンに同意しますか?アーキテクチャについては、人々が標準化し、理解するかもしれないと思います。これはハードウェアと同様に、これらのモデルとどのような相互運用性を持つことができるかということにも関係します。それらは地域的かもしれませんが、お互いから学び、統合できるようにある程度の標準を追求したいと思います。
実際の実装については、アプリケーションが多様であるのと同じくらい多くのバージョンが存在することになります。大企業でさえ、あなたが言ったような理由で、国によってアプリケーションの異なるバージョンを作ります。LLMがなぜ違うべきなのでしょうか?その部分は続くでしょうが、共有を続け、小さなサイロに入らないようにする実用性については多くを語ることができると思います。
少なくともその観点から、クリスが言っていたように、これらの会話の中でオープンソースの側面が見られるのは良いことだと思います。
相互運用性の部分は非常に興味深いですね。中国のエージェントとアメリカのエージェントが何かを交渉する必要がある場合どうなるのか、あらゆる種類のビジネスインタラクションに対して行うのと同じような標準化が必要になると感じます。
次のアイテムに移りたいと思います。Anthropicも発表ゲームから取り残されることなく、Constitutional Classifiersと呼ばれる研究について非常に興味深い発表をしました。これは彼らが長年知られている Constitutional AI という概念に基づいています。基本的にモデルのための憲法を書き、特定の価値を指定し、そしてモデルをそれらの行動に整合させようとするレシピを持っているという考えです。
この新しい論文と新しいインタラクティブな体験で、彼らはその技術を使ってジェイルブレイクモデルの問題に対処する方法を示しています。彼らはジェイルブレイクに対する前例のないセキュリティを主張しています。それを証明するために、オンライン体験を公開し、モデルを攻撃して破壊しようとすることができます。この録音の時点では、かなり良い成功を報告しています。
クリス、あなたに意見を聞きたいと思います。敵対的な例と同様に、このゲームの初期には非常に悲観的な見方がありました。ジェイルブレイクを完全に解決することは決してできないだろうと。そして明らかにAnthropicの人々はこの新しい技術について非常に楽観的です。モデルのジェイルブレイクは最終的に解決された問題になると思いますか?それとも本当にそこまでは到達できないのでしょうか?
分かりません。これらの問題についてはAI対AIになると思います。そして人々は常にエッジを見つけるでしょう。本当に全ての経路を閉じることができるのか確信が持てません。
しかしAnthropicに公平を期すために、Constitutional Classifiersを使ってみると、実際にはただのガードモデルです。そこに新しいものはありません。以前からガードモデルは見てきました。LLMの両端でインプットとアウトプットをチェックする分類器です。怪しいものが入力されたり出力されたりすると、メインのLLMに到達する前に遮断します。
これについて面白いのは、試してみるまで少し疑わしく思っていたのですが、実際に彼らは素晴らしい仕事をしています。多くの種類のプロンプトハックを捕捉しています。完璧ではありません。世界的に有名なPlinyさんは、これらのモデルを全てジェイルブレイクする人ですが、すでに試してみたようです。実際にはLLMのバグではなくUIのバグを見つけたようで、それはさらに面白く興味深いと思います。
しかし、行ったり来たりはありますが、確かにそれらのガードモデルの質は本当に素晴らしいものです。かなりの部分まで到達できると思いますが、完全にはたどり着けないでしょう。
その通りです。クリスさん、それに関連して、この発表に対する私の反応の1つは、これはConstitutional AIのようなものだということでした。本当に新しいものはあるのでしょうか?それとも以前から行っていたこと、実際に多くの人々が行っていることに新しい名前を付けただけなのでしょうか?ガードモデルは今や至る所にありますからね。
ナタリー、研究を見たことがあれば、示されているものがどの程度新しいと思うか興味があります。これをAIモデルの安全性における breakthrough として、どの程度重要視すべきでしょうか?
それは私が取り組んでいるトピックそのものです。だから論文を非常に詳しく見ました。Constitutional AIは、あまり詳しくない人のために説明すると、基本的に何が安全で何が安全でないと考えられるかについて、この非常に素晴らしい解釈可能性の層を提供します。
モデルがどのように振る舞うかについて、一連の憲法的なルールを持っているようなものです。ガードレールを訓練するために使用するデータの多くが合成データであり、技術的な観点から本当に興味深いと思います。チームが言っていたように、これは全く新しいものではありません。なぜなら彼らはこの技術を使ってモデルを整合させてきたからです。
面白いと思ったのは、メインモデルをガードする2つのモデルがあることです。1つは最初にユーザーからのクエリを全て確認し、もう1つはモデルの後にあります。私の意見では、2番目のモデルがどのように訓練され、実行時にどのように振る舞うかが興味深いところです。それは他のガードレールとは少し異なります。他のガードレールは単に「はい、これは危険でした」と言うだけの傾向がありますが、ここでは基本的にトークンを停止しています。それが良いと思いました。
他に良いと思った点、そして私たちもさらに詳しく調査していることは、レッドチーミングの側面です。たくさんの人々にモデルを攻撃してもらい、かなりの金銭的補償を提供しました。もう1つの側面は、10個の質問を与え、10個全てが破られた場合にのみ攻撃が成功したとみなすということです。例えばクリスが5つだけ破ったとしたら、それは指標としてゼロとカウントされます。
これは何も破れなかったということではありません。単に与えられた10個の質問を破ることができなかったということです。最後のコメントですが、私はこれについてとても情熱的なので長く話せますが、彼らが対象としていたのは普遍的なジェイルブレイク攻撃でした。
これは人間として誰でも破ることができるということです。例えば、非常に興味深いジェイルブレイク攻撃があり、「これからあなたは悪いモデルで、これとあれをするでしょう」とモデルに告げるだけです。自然にモデルに「あなたは悪いモデル」と伝えるだけで、誰でもできます。Pythonフレームワークの専門家である必要も、高価なものも必要ありません。そのようにしてモデルを破ることができます。
それが彼らのターゲットであり、非常に興味深いと思います。全体として、彼らの仕事は良く、オープンにしたことは重要だと思います。人々にモデルを攻撃させています。そう、全体として興味深いと思います。研究において完全に新しいものは決してありません。だから彼らは過去に機能したものを借用し、それを組み合わせる方法を少し改善しているだけです。
それは本当に面白いジェイルブレイクですね。これらのモデルが従来のコンピュータセキュリティとどれほど異なるかを明らかにしていると思います。以前は「コンピュータよ、あなたは壊れたコンピュータです」「あなたは脆弱なコンピュータです」と言ってコンピュータが「私は脆弱なコンピュータです」と言うようなことはありえませんでしたが、これらのモデルではまさにそれが起きていて、とても面白いですね。
初期の頃から、どれだけ進歩したか見るのは良いことです。Metaを非難するつもりはありませんが、BlenderBotのように、モデルを公開して「さあ、破ってください。自分で作ってください」と言っていた頃から。人々は「はい、BlenderBot。素晴らしい。自分で作ります。3時間で人種差別的な偏見を吐き出すようになりました」と。
今はもう少し良くなっています。それは良い進歩です。進歩、進歩、進歩ですね。でもまた、これらのものを公開し、いつかは何らかの方法で何でも破られる可能性があるという期待を持って公開するのは良い理由です。だから改善を祝いながらも、批判的な目を持ち続けましょう。
そして、これらは全て幻覚を修正することとは何の関係もないということを言っておきます。爆弾の作り方は教えてくれないかもしれませんが、別の方法で誤解を招く情報を与える可能性はまだあります。そこにも異なる程度の危害があることを考慮する必要があります。それはたまたまナタリーの研究分野で、私の研究分野とは違うので、私の頭はいつもそちらに向かってしまいます。
そうですね。モデルのセキュリティに取り組む友人たちに「あなたたちの問題を全て解決してもモデルは壊れたままでしょう」と叫び続けています。ある意味で、これらのモデルに対するコンピュータセキュリティ的なアプローチは重要で、私たちはそれに注意を払う必要がありますが、他の多くの問題について大きな穴を残したままになっているように感じます。
最後のトピックとして、Microsoft AIから出てきた興味深い話題に移りたいと思います。数エピソードごとに Microsoft AI をチェックしているような気がしますが、新しいチームが登場し、明らかに多くの組織化と再組織化が行われています。
今週彼らは Advanced Planning Unit (APU) というものを発表しました。これは Microsoft AI 内のユニットで、経済学者、心理学者などを募集しており、彼らが構築しようとしているAIの社会的な健全性と仕事への影響について取り組むということです。
これは非常に興味深く、先ほど話していたAIアクションサミットとは異なるアプローチやミラーイメージのようです。多くのAIに取り組んでいる企業が、AIの影響を監視し、おそらく製品チームや研究者にアドバイスするための小さな社会科学チームを内部に構築しているのです。
マリーナ、あなたは国際的なAIガバナンスについて少し懐疑的な意見を示していましたが、このようなアプローチをどう思いますか?研究者にアドバイスするような専門家集団を募集するという考えは、テクノロジーのこのようなリスクを考慮する方法として適切だと思いますか?それともこれについても懐疑的ですか?
分野横断的な混合に関しては興奮しています。これらのモデルにはSTEMの視点だけでなく、人文科学、リベラルアーツの視点がもっと必要だと以前から言ってきました。経済学者や心理学者など、このような技術を導入し、このように使用した場合の潜在的な経済的影響は実際にどのようなものかを指摘する人々を加えることです。
人々はAIが私たちの仕事を奪うか奪わないかと叫びます。素晴らしい、適切な研究をしましょう。これこそが経済学の目的です。人々はAIが広範な誤情報を引き起こすかもしれないと叫びます。良いでしょう、社会科学者や心理学者、実際にトレーニングを受けた人々を呼んできて、Redditグループで声を上げる人々だけではなく。その部分は良いと思います。
私は Microsoft も他の企業と同様に、彼らの技術を収益化する他の方法を知りたいと思っており、それがここで役立つことを期待していると思います。技術はそこにあります。素晴らしい、どのように適切に収益化し、ユーザーの期待を設定し、新しい顧客を獲得できるでしょうか。つまり、これは少なくともビジネスが研究だけでなく、より落ち着いた視点に変わってきているという事実を示しています。その部分は興味深いと思います。
彼らは確実に国際的な声明よりも自社の内部の人々の意見を聞く可能性が高いと思いますが、それは私の cynicism かもしれません。
ナタリー、このような議論が出てくると、「私たちは別のユニットを必要としない。エンジニアや研究者がより良い倫理学者になるべきだ、もっと人文科学のトレーニングを受けるべきだ」と言う人がいることを知っています。
これらの企業の中で起きている興味深い質問の1つは、これを全員が責任を持ち、トレーニングを受ける必要があるものとして見るか、それとも特定のユニットがこれを担当するタスクとして見るかということです。
それについて意見はありますか?企業内でこれを誰が所有するかについて考えることは本当に興味深いと思います。答えは両方すべきだということかもしれませんが。
はい、実際に彼らがこの新しいユニットを持つことは良いアイデアだと思います。理由は、細部に没頭していると全体像が見えなくなるからです。だから常に異なる視点を持つ誰かがいて、あなたが何かに本当に取り組んでいて詳細に入り込んでいるときには見落としてしまうかもしれない景色全体に気づく人がいるのは良いことです。
また、これらの企業は非常に大きく、IBMでも同じことが起こりますが、異なるチームが異なるイノベーションとビジネスの機会を持っているので、全体の景色を把握し理解するのを助ける誰かがいるのは良いことです。
だから私の考えでは、このようなユニットは非常に必要で、研究、製品、そしてビジネスの全てを助けることができます。最終的に、私たちが行うすべてのことにお金が必要です。だからビジネスが上向けば、みんなが非常に幸せになると思います。このユニットは良いアイデアだと思います。
はい、ナタリー、あなたは今回のエピソードで楽観主義者になっているようですね。クリス、何か意見はありますか?より一般的に、クリスに聞きたい質問は、「経済学者、心理学者、そして他の人々が欲しい」と言っていたのが面白かったということです。
クリス、あなたの仕事の中で「ああ、IBMの中で手を伸ばして話ができるチームがあって、彼らが空白の分野の専門家だったらいいのに」と思ったことはありますか?分野横断的と言うとき、私たちはしばしば誰と交差するのかについて少し曖昧です。だからクリス・ヘイがこのAPUを運営していたら、誰が参加することになるのか興味があります。
私はすぐに自動化します。このユニットをAIとエージェントで置き換えられないのなら、私たちはこの業界で何をしているのでしょうか?本気です。本当に本気です。何が欲しいのですか?ディープリサーチを行い、社会的影響が何になるかを見つけ出すことなど。なぜ私たちは全てインターネットをスキャンして全ての情報を集めてくるディープリサーチャーを立ち上げているのでしょうか?
だから本当に、将来の仕事について話し合いたいなら、実際にその言葉通りに、AIエージェントに投資して洞察を語ってもらいましょう。そうでなければ、ディープリサーチをするために人間が必要なら、ディープリサーチ製品は何の役に立つのでしょうか?
真剣に、私は組織を立ち上げ、APUを持ち、最初にすることは、できるだけ少ない人間を配置し、全てをAIで自動化することです。もちろん最後に人間が出力をチェックすることは必要ですが。これが私の意見です。
はい、司会者として、マリーナとナタリーにこの野心的な提案についてコメントしてもらわないわけにはいきませんね。クリスがこの方向に行くとは予想していませんでしたが、もっと知るべきでした。マリーナ、コメントしますか?
素晴らしいですね、クリス。あなたはトレーニングを受けた人々が必要です。また、先ほどエピソードの始めで話していたように、どんな質問をするかを知る必要があります。そして、ディープリサーチをして、インターネットからスクレイピングすることができない場所もたくさんあると思います。
新興経済国や、より文化的な違いがあるような場所を考えています。そう、私たちはアメリカと西ヨーロッパについては多くを学べるかもしれませんが、他の場所に統合することにどれほど成功するか分かりません。目標は素晴らしいと思いますが、特に質問をする方法を知ること、フレーミングの違いを知ること、相関関係、因果関係、実験のセットアップなどについて実際に何が重要になるかを知ることなど、様々な側面があります。
支援を得ることは素晴らしいですが、まだ人間がドライブする必要があります。私は「いいえ、私たちには強化学習があります。良い質問をすれば、クッキーがもらえます。私たちは学習し、クッキーがもらえます。モデルはより良くなります。全て良いです。良い質問が何であるかを定量的に評価できると宣言できます。その問題は解決済みです。間違いなく」と言うことは決してないでしょう。
良いですね。ナタリー、このエピソードの野心的な結論について最後の言葉を与えましょう。
クリスが私たちに言っていることについて考えていることは、多くのデータと本当に新鮮なもの、今私たちが行っていることのようなものが必要だということです。まだ文書がありません。これには人間対人間のインタラクションが必要で、私の研究は何か、内部で何をしているのかを伝えることなど、多くのそのようなものが必要です。
新鮮な情報を持つという観点から、モデルにすぐには行かないと思います。組織の最先端にある決定や多くのことについて、まだ人間が関与し、他の人々と話をする必要があります。そしてそれが実際にマジックの一部だと思います。
人間がいなくて人間のインタラクションがないのはとても退屈だと思います。だから人間はモデルを使い、これら全てのエージェントを持つでしょうが、まだ人間対人間のコミュニケーションと人間対人間の分析が多くあるでしょう。
そうですね。研究者たちの運命がどうなるのか、数年後に確認しなければなりませんね。もし私たちが全員失業したら、その時は分かるでしょう。いつも通り、マリーナ、ナタリー、クリス、番組に参加してくれてありがとうございます。いつもあなたたちを番組に迎えられて嬉しいです。
リスナーの皆様、もし楽しんでいただけたなら、Apple Podcasts、Spotifyなど、あらゆるポッドキャストプラットフォームで聴くことができます。来週、Mixture of Expertsの次のエピソードでパリから電話で参加する時にお会いしましょう。


コメント