
4,040 文字

コミュニティの皆さん、科学を学ぶべきでしょうか。AIシステムが「私たちは科学において人間よりも優れているかもしれない」と言える時代に、科学を学ぶべきなのでしょうか。
2025年2月18日に発表された、Googleとスタンフォード大学による最新の論文を見てみましょう。彼らは非常に興味深いトピックについて語っています。科学は私の心に非常に近いものですから。Googleとスタンフォードはすばらしい仕事をしました。生物医学に関する70ページの素晴らしい論文です。
しかし今日は少し暗い気分で、この技術の別の可能性について考えてみたいと思います。この動画では「自己認識」について話します。これは動画の最後まで見ないと理解できないかもしれませんが、この動画で最も重要なポイントだと思います。
まず明確にしておきましょう。Googleとスタンフォードはこう述べています。「この研究は科学的プロセスを完全に自動化することを目的としていない」と。これはまだ起きていないことが良いことだと私は思います。彼らは「この共同研究者は、人間が介在するように設計されている」と言います。これは人間の専門家の仮説生成プロセスを補強し、探索を導くための新しい協調的なパラダイムです。これが科学的探究を導くAIシステムのコードである「共同研究者」です。
これは、最近Bloombergから得た「AIが私たちを本当に愚かにしている」というMicrosoftの告白と一致しています。しかし、スタンフォードとGoogleに話を戻しましょう。彼らは科学者が研究目標を指定できると言います。これには、仮説に望ましい属性や、共同研究者が作成すべき研究提案、そして合成された出力が満たすべき制約を伝えることが含まれます。
この文章は一見何の問題もないように見えますが、私はこの文章に世界の全ての問題が含まれていると思います。共同研究者システムは人間のための研究提案を書き、作成することになっています。人間の科学者は研究目標を指定できます。これは素晴らしいことです。Googleとスタンフォードの意図は理解できます。
しかし、これが続くと…これは純粋に科学をする人々のためだけのものではありません。このシステムはほぼ全てのことに使用できます。特にクライアントとして出力の制約を指定できる場合は。「この研究の出力は以下のようになってほしい」と言えるのです。
ここで私は悪夢を見始めます。誰かがこう言うところを想像してください。「AIよ、私たちはタバコ産業のロビー団体です。ニコチン製品について新しい見解を提供する研究が必要です」。そして、どこかのグローバル企業で、小さなSkynetがこう答えます。「もちろんです。2000万ドルで草案を、5000万ドルで4時間以内にあなたの望む制約に従った新しい研究を提供できます」。
科学がグローバル企業のために使われるというこのアイデアが好きではありません。Googleとスタンフォードはこう言います。「人間は様々な方法でフィードバックを提供し、協力できる」と。人間がフィードバックを提供することを許可されていることに感謝します。これには人間自身のアイデアを直接提供することも含まれます。人間がアイデアを実装し、システムによって生成された仮説を洗練させ、自然言語を使ってシステムを導くことができることにも感謝します。
しかし、このシステムを導くということは諸刃の剣です。両方向に進むことができます。独立した科学者であれば、純粋な科学を追求できます。しかし、私の悪夢の中のタバコロビー団体を想像してください。
共同研究者は、テスト時の計算能力を大幅にスケールアップします。ついにTTSに戻ってきました。なんと素晴らしいことでしょう。Googleとスタンフォードはついにシステムの遺伝的性質について語っています。これは何であるべきでしょうか。システムは自身の出力を再帰的に自己批評し、ウェブ検索などのツールを使用してフィードバックを提供し、仮説と研究提案を反復的に洗練させることができます。
再び私は悪夢を見ます。誰かがこう言うのを想像します。「私たちはタバコ産業のロビー団体です。他のグループが行った、私たちが資金提供した完全に独立した研究を参照してほしい。それらはウェブ上で公開されています。ウェブ検索と品質の情報源を指示できます」。
システムに何をすべきかのアイデアをフィードバックとして提供できます。これは純粋で独立した科学を行う場合には素晴らしいことです。しかし、私の悪夢の中では、エネルギー企業が5億ドルを支払えば取引成立というような門戸を開くことになります。
では、私たちに必要な閃きはどこにあるのでしょうか。天才的なアイデアはどこにあるのでしょうか。GoogleとスタンフォードはAI共同研究者を導入し、文献やDeepResearchツールとして知られているものを超えて開発すると言います。OpenAIにはDeepResearchがあり、他のDeepResearchツールもあります。私の前回の動画でGrok 3と、そのシンキングモードについて示しました。Grok 3のディープサーチモードも紹介しました。
彼らはこれらを組み合わせ、ディープサーチとディープシンキングを超えて一歩進めようとしています。これは科学的な観点から興味深いアイデアです。なぜなら、6つの専門エージェントを持つ比較的シンプルな構成を持ち、スーパーバイザーエージェントという興味深いアプローチポイントがあるからです。この新しいAI共同研究者フレームワーク内で7つのエージェントが対話的に動作します。
コードのコンテキストメモリ設定を詳しく見ると、GoogleとスタンフォードのAI共同研究者をさらに改善できることがわかります。後でお見せしますが、研究から正確なスクリーンショットを見てみましょう。各エージェントについて、彼らは美しくコード化しました。新しいものはありますか?実際にはありません。
ただし、1つの非常に特定のエージェントに注目したいと思います。それはメタレビューエージェントと呼ばれ、フィードバックの伝播とシステム全体の学習を可能にします。ここでは、メタレビューエージェントと関連付けるべきです。これはネットワーク内の他のすべてのエージェントに適用可能なフィードバックを提供します。フィードバックループを通じて、共同研究者は継続的に学習し、より多くの計算能力でスケーリングとともに改善します。
先週の動画を思い出してください。9つのDeepSeekエージェントを使用し、Karmaと呼ばれる美しい新しい研究を紹介しました。これらの9つのエージェントが知識グラフを最適化します。エージェントと知識グラフの相互作用は、将来重要な意味を持つでしょう。私のポイント8を覚えていますか?単純なメモリだけでなく、非常に特定のメモリが必要だということがすぐにわかります。
他の6つのエージェントを見ると、異なる視点から見ることができます。アイデア生成器、ピアレビュアー、科学評価委員会のようなもの、イノベーションドライバー、知識オーガナイザー、戦略アナリスト、そしてメタレビューエージェントがあります。
アイデアは新しくありません。コードも新しくありません。機能も特に新しいものではありません。重要なのは、7つのエージェントが必要で、これらのエージェントの相互作用があるということです。明確にマルチエージェントシステムです。なぜ単一のLLMやVMがこの仕事をできないのか、なぜこれをしなければならないのかと疑問に思うかもしれません。
しかし、Googleとスタンフォードのように自己学習システムを目指す場合、特に興味深いのは、AIエージェントが環境から新しい知識を提供する相互作用の中で、知識成長のための自己組織化構造をどのように形成するかということです。これは絶対に魅力的なトピックです。
しかし、今日でも従順なAIシステムを実現できると思います。望むすべての科学的研究結果を実行し、エージェントが信頼できる情報源として受け入れるべきものを定義し、システムに私たち自身の優先順位を与えることで、あらゆる種類のウェブ検索を実行できます。
AIは単なる純粋な科学的知識を提供する道具ではなくなり、突然このAIシステム、このマルチAIシステム、このマルチエージェントシステムは、アクセスできる人、コードを書く人が注目すべき影響力を持つことができるようになります。
短いテストを行いましたが、Googleとスタンフォードのように8つのAIエージェントがなくてもできます。GPT-4 Omniを使用して、全く関連性のない2つの科学的トピックから始めました。2、3のプロンプトで、GPT-4 Omniに存在しない、論理的でない重なりを作らせることができます。
Omniに上手く頼めば、3つのプロンプトで望む結果を得ることができます。その方法は完全に間違っていて、全く論理的ではありませんが、トピックに詳しくない人には本物のように聞こえる方法で提示されます。AIのこの発展が好きではありません。
結論に入りましょう。高度なAIシステムは少なくとも望む結果を提供するでしょう。動画の冒頭に戻りましょう。「自己認識」について。あなたは誰で、AIシステムを適用する目的は何で、達成したい目標は何でしょうか。
政府、政党、グローバル企業、マーケティング会社として、できるだけ多くの人々に影響を与えたいだけなら、AIは今や完璧なツールになるでしょうか。答えはますますイエスになっていくと思います。興味深いですが、別の方法もあります。これらのシステムがどのように機能するかを理解すればするほど、それに対して何かできるようになります。興味があれば、このチャンネルを購読してください。


コメント