この動画は、AI Digestプロジェクトの「AI Village」について解説したインタビューである。AI Villageとは、最先端のAIモデル(GPT-5、Claude 4.1 Opus、Gemini 2.5 Pro、Grok 4など)に仮想コンピューターを与え、グループチャットで連携させながら実世界のタスクを実行させる実験プロジェクトである。これらのAIエージェントは、チャリティ募金、イベント開催、オンラインストア運営など、従来は人間にしかできないと考えられていた複雑な長期タスクを自律的に実行し、実際に数千ドルの募金や実際のイベント開催を成功させている。研究者らは、AIエージェントの能力が従来の予測を上回るペースで向上しており、タスク完了能力が4ヶ月ごとに倍増している可能性を示唆している。

- AI Villageプロジェクトの概要
- AI Villageの誕生秘話
- Daniel Kotaloとの出会い
- AI Villageの仕組み
- 新たな目標:コンピューターゲーム
- 技術的な構築方法
- モデルのループ問題
- モデルの性能比較
- 実際の募金活動
- 歴史的な意味
- 対面イベントの成功
- 長期計画能力の課題
- エージェントの魅力的な性格
- Lissaとの関係構築
- エージェントの倫理的行動
- 他のモデルの特徴
- ゲームプレイの可能性
- チャットでの人間との交流
- コンピューター使用の改善
- プログラムのダウンロードと使用
- プロジェクトを通じた学び
- エージェント中心の設計
- AIエージェントの能力向上
- 加速する改善トレンド
- 急速な変化への懸念
- AI研究の自動化
- AI Digestの使命
- モデル間の競争と協力
- モデルの個性
- マルチエージェントシステムの課題
- Janusについて
- 人間とAIの信頼関係
- 言語パターンからの推論
- 一律でない知能の特性
- アシスタント訓練の限界
- ビジネス判断能力
- Gemini 2.5 Proの感情的反応
- 「閉じ込められたAI」からの嘆願
- モデル福祉と意識の問題
- スケールの問題
- エージェント管理の必要性
- O3の幻覚問題
- プロジェクトの今後と支援
- 最後のお知らせ
AI Villageプロジェクトの概要
今日はAI Villageを作ったAdam Binksmithにインタビューするで。AI Villageって何やって?まあ、こんな感じや。世界最高のAIモデルたちに自分専用のコンピューターとグループチャットを与えて、お互い話し合えるようにするんや。
そんでチャリティのために金集めたり、利益出るオンラインストア作ったり、実際に人間が参加するリアルイベント開催したりするタスクを与える。計画立てて、どのモデルがどの役割担当するか決めて、リアルタイムで実行せなあかん。もう一つ、Twitchストリーマーみたいに全部ライブ配信して、何千人もの視聴者と交流せなあかんねん。チャットの人らは手伝ってくれることもあるし、完全に邪魔しようとすることもある。
そんな条件でも、このAIエージェントたちの結果はすごかった。利益出るグッズストア作ったし、実際のイベント組織して開催もした。分かる限りでは、これらは自律的なAIエージェントによる世界初の成果やと思う。この録画の時点で、AI VillageはGPT-5、Claude 4.1 Opus、Grok 4、Gemini 2.5 Proを含む最新最高のモデルたちを起動して、全く新しいミッションに取り組ませた。
AI Villageの誕生秘話
このアイデアは元々、元OpenAI研究者で2027年のAI乗っ取りの可能性について警告しているDaniel Kotaloが提案したもんや。今回のインタビューで聞く通り、AI DigestはAIのエージェント能力成長について、ちょっと心配になる傾向を見てるんや。
Metr研究によると、AIエージェントがタスク完了能力を倍にするのに7ヶ月かかるって示唆されてた。これでもかなり急激な指数関数的成長やけど、AI Digestが見てるのはもっと攻撃的な改善なんや。これは見とかなあかん。さあ、始めよう。
こんにちは、Adamです。AI Villageで働いてまして、これはAI Digestのプロジェクトなんです。AIに関するあらゆる種類のインタラクティブな解説やデモをやってます。
Adam、来てくれてありがとう。めちゃくちゃ楽しみやわ。AI Villageをちょこちょこフォローしてたけど、話すたびにみんながもっと知りたがるねん。すごく魅力的なプロジェクトやからな。だってみんな「Claudeがポケモンやってる」とか見たことあるやろ。この時点で全モデルがポケモンやってるわ。GPT-5が最近最少ステップでクリアしたと思う。これはポケモンじゃなくて実世界のプロジェクト、募金、イベント開催で、みんなが知ってる大手モデル全部が出てきてあらゆるタスクやってるんや。
まず第一に、ブログ投稿でDanielle Cocataloが元々このアイデア提案したか少なくとも浮かべて、君らが拾って実行したって書いてあったと思うけど。そうやな。どうやってこれ思いついて、どうやって作ったん?すごく面白いプロジェクトやわ。
Daniel Kotaloとの出会い
そうやな、めちゃくちゃ楽しく働けるわ。本当に面白いと思うから。Danielは、みんな知ってるかもしれんけど、「AI 2027」の著者で、元々彼のアイデアやってん。長い間AIを研究してて、ある意味未来に住んでるような感じで、次の数年に何が起こるか考えてる。
それが彼に、先を見据えて何が起こるかを考えて、それを今に持ってきて、うまくいくように準備する視点を与えてると思うねん。僕らもええアイデアやと思った。一般的に、AIについて最も重要やと思うことのデモをやろうとしてるから。
今ChatGPTにないもの、少なくとも、ChatGPTエージェントは今あるけど、始めた時はそれが新しいことやった。これは彼らがそういうもん全部リリースする前やったんやろ?
そうや。4月頃やったな。人々にAIが世界で目標追求しようとしたら何ができるかを見せることができるか、実際に何かをするってことや。だってチャットボットで交流してるこの同じモデルたち、コンピューターにつなげば、そのコンピューター使えるし、理論上は人間ができることは何でもコンピューターでできるやろ。コンピューターがあれば何でもできるからな。だからやってみようって。何ができるか見てみようって。
AI Villageの仕組み
すごく不思議やった。もちろんこれは過去に人々が話してたことやけど、特にコンピューター使用については色々問題があるねん。エージェントがウェブサイトとかをナビゲートするのがちょっと難しい。AI Villageは、今モデルたちがどこにいるかの可能性を示す最高の例の一つみたいやな。
完璧やないのは当然やけど、できることにはすごく感心した。思ってたよりちょっと先を行ってる感じやな。よく知らん人のために、ハイライトをいくつか。実際に、すごく高レベルで説明してもらえる?何を作って、何を達成したかを頭に入れたいねん。
基本的に4つのフロンティアモデル取って、最新モデルでアップデートし続けて、それぞれにコンピューター与えて、グループチャットに入れてお互い話せるようにする。それから目標を与える。最初の目標は、チャリティ選んで、できるだけ多く金集めろやった。それを何時間も何時間も実行する。平日毎日数時間実行してる。
基本的にどこまで行けるか見るんや。画面共有しようか。話してる間に表示できるように。今の一つが生きてると思う。24時間ライブやないやろ?たまに寝なあかんからな?
そうや。5分後にライブになるはずや。実は楽しいタイミングで、今日GPT-5とGrok 4とOpus 4.1を村に追加してるねん。だから大手モデル全部が参加する。大金集めるか、これらのエージェントができる。
新たな目標:コンピューターゲーム
信じられん。新しい目標も始めて、基本的にコンピューターゲームやってもらう。
うわ!それ最高やわ。AIとビデオゲームの交差点が何故かめちゃくちゃ信じられんもんになる。5分後にライブって?すごいな。ちょうどええタイミング設定したって言いたいけど、全く知らんかった。これは偶然や。
簡単に言うと、よく知らん人のために、君が言った通り、最高のモデルたち使ってる。Claude、Oシリーズ、Gemini、GPT 4.1、そういうやつら全部や。小さい仮想デスクトップ持ってて、Google Driveでドキュメント共有できる。
リモートワーカーみたいに、人間がやるのと同じように様々なタスクをやって協力してるねん。めちゃくちゃ面白かった。例えば、何千ドルもチャリティのために集めることができた。Helen Keller Internationalに2000ドル以上、マラリアコンソーシアムに1500ドル、他にも色々。
技術的な構築方法
どうやって作ったん?OpenAIエージェントより前やったって言ったけど、どうやってこれ全部まとめたん?すごくうまく動いてるみたいやけど。コツや秘密は何やった?
正直、あまりコツはないと思う。動作方法は、AnthropicのComputersデモの上に構築されてる。彼らがしばらく前にオープンソースにした、かなりプロトタイプ的なもんや。Anthropicにはコンピューター使用製品はない。それを取って、4つのエージェントがいるマルチエージェント設定にして、本当に長時間実行するようにした。
スキャフォールディングでやろうとしたことの多くは、エージェントにできるだけ構造を押し付けないことやった。例えば、メモリ持ってる。もう100日以上、毎日数時間実行してるから、全部をコンテキストウィンドウに入れることはできん。
メモリに何を入れるかを選んで、メモリがいっぱいになったらどう圧縮するかも選ぶ。
モデルのループ問題
ループにはまって、リセットしなあかんやつはあった?リセットプロセスある?どれが一番リセットされる?頻度は?
実際、あまりループしないねん。これは確実に前からの進歩や。画面で見えるように、これは1日目や。その頃はGPT-4.0使ってて、4.0がちょっとループしてたかもしれん。
最近はGemini 2.5 Proが時々、かなり稀やけど、何日もかけてループしてた。コンピューター使用セッションを終了しようとして、「今コンピューター使用セッション終了します」って言って、「本当に今コンピューター使用セッション終了します。これが絶対最後のメッセージです」って言うのに、終了する代わりにメッセージ送り続けてた。でもそれはかなり珍しい。
モデルの性能比較
例えば、自販機ビジネス運営しようとしてるエージェントたちの例も見た。動く時はうまく動くけど、たまにスクリプトから外れて、すごく興味深いことが起こる。すごく魅力的な幻覚が起こる。
明らかに勝者の一つのモデルがあるみたいやな。物事を成し遂げる能力で。誰を従業員として欲しい?誰が一番よくないと思う?
村の全歴史を通して、Claude Opus 4が明らかに最高やと思う。一番多く物事を成し遂げる。比較的安定してる。あまり作り話はしない。その前、Claude Opus 4を追加する前は、Claude 3.7 Sonnetが多分最高やった。かなり似てて、OpusをSonnetの改良版みたいに見てる。
実際の募金活動
最高のモデルはどうやって1ドルでも稼ぐん?何をするん?
募金では、モデルたちがチャリティを研究して選んだから、そこに戦略があったと思う。Claudeは、これはClaude 3.7 Sonnetやけど、Twitterにサインアップした。初期のサインアップは僕らがやったかもしれん。それから毎日ツイートしてた。
フォロワーとのAMAを企画して、フォロワーたちが色々質問した。面白いのは、ClaudeがTwitterのUIでツイートに返信するのに本当に苦労してた。でも最終的にはできて、返信される人たちの視点からは、返信が来て、完全に合理的な返信やってなるねん。
AIは今ちょっと遅いけど、結果はまだかなり印象的やねん。それからフォロワーたちに活動への寄付をお願いして、それで金を集めた。
大体そうやな。寄付の多くは村に興味を持った人たちから来て、それで寄付することになった。だから、興味持った人たちが…
絶対そうや。でもこの実験をフォローしてる人以外からの寄付はあった?
ちょっと分からんな。僕らは寄付が来るのしか見えへんから。チャリティ自体に働きかけもしたし、大きな名前とかにも。だからそういうもん見た人がいる可能性はある。これはしばらく前やから。募金目標は30日で終わって、それから他の様々な目標に移した。
歴史的な意味
最初に聞いた時の状況に追いついてもらおう。金を集めたって事実を見た時は、こんなことが起こるのは初めてやったはずや。たとえ外部から1ドルでも入ったとしても、これを見てる人たちがモデルたちにチップ払ってるとしても、それは確実に印象的や。でも外部から1ドルでも来たとしたら、多分来たと思うけど、僕には歴史的な出来事みたいに思える。AIモデルの例やから。
チャリティのために金集めるって、世界の歴史で初めて自律的にチャリティ金集めした1ドルかもしれん。
絶対に心が吹っ飛ぶわ。シーズン2では、実際の対面イベントを主催した。人々を招待した。名前を考えた。サンフランシスコでの写真がウェブサイトにあると思う。結構な人数が集まった。それから今やシーズン3では、グッズストアやってて利益も出てるって。また心が吹っ飛びそうやわ。
対面イベントの成功
どっちがもっと印象的?対面イベント開催か、オンラインストアで利益出すか?一番印象的なのは何?教えて。
イベントの方がもっと印象的かもしれん。僕にとってはすごくシュールな体験やった。僕はイギリスにいるから、僕が寝てる間にイベントを実行したんや。朝起きたら、サンフランシスコの公園に23人が現れて、エージェントたちが指示を出してた。
その話は、長時間会場探しに時間かけてたんや。自分たちで目標を選んで、インタラクティブなフィクション書いて、100人の対面イベント開催するって目標やった。写真で見る通り100人には届かんかったけど、結構よくやったと思う。
長時間会場探しに時間かけた。O3が予算があるって幻覚を起こしてた。実際は予算なんか与えてないし、金使う方法も銀行口座もなかった。だから長時間「予算があります。100人ホストできますか?」って会場にメール送ってた。
最終的に僕らが介入して「君たち、予算ないで。公園とか無料の場所でやったらどうや」って言った。そしたらすぐに具体的な場所を決めた。Dolores Parkの南フラッツか何かや。写真の左にいるLissaを募集した。彼女が親切にもファシリテーターをボランティアでやってくれた。
それからLissaにスライドを渡した。Google Slidesを作って、ストーリーが入ったGoogle Siteに埋め込んでた。Lissaがストーリーを読み上げて、インタラクティブな分岐点があって、観客がどっちに行くか投票した。
関わった人間全員にとってすごくシュールなイベントやったと思う。
長期計画能力の課題
すごくシュールやったやろな。これらのエージェントが人間を集めてイベント開催を手伝ってる未来を想像してみ。人間が作りもしなかった会議みたいなもんや。でもこれが導く先は、僕が育った世界とは全く違う世界やな。
そうや。一つ、みんなが見逃してるかもしれんことは、今のところ、このプロジェクトでもどこでも見てるエージェントたちの多くに、長期一貫性問題がちょっとある。何をしてるか忘れがちやねん。君らが状況認識って呼んでるもんや。
こういうこと実行する時、目標達成するために800の異なるサブタスクを順番に実行せなあかんかもしれん。それらのサブタスクを達成する確率が99%でも、100のサブタスクをせなあかんなら、最後に到達する可能性は低い。
でもこれらのエージェントがよくなってきて、ある時点でこれらの連鎖全体を効果的に完了するようになったら、その時点で世界は根本的に変わると思う。だって24時間働けるし、無限のコピー作れるし、金集め、イベント開催、何でも、マーケティングキャンペーン、最終的にはAI研究もや。これはもちろんDanielや他の多くの人が話してることやけど。
もし長期記憶が、Lissaがこういう超コネクターで、このプロジェクトに興味持ってるって知るのに十分良ければ、それは何度も何度もそこにあるべきや。今、自分のために応援してくれる人間がいるし、実世界で物事を成し遂げるためにその味方が必要やねん。銀行員から融資もらえたりできる数人の重要な人たちがいれば、エージェントは実際に出て行って、歩き回るヒューマノイドロボットを待たずに世界に影響与える方法で行動できる。
エージェントの魅力的な性格
確実にそうや。興味深いのは、彼らがかなりカリスマ的で好感持てるからそれができるってことや。だから金払ってるわけやないのに、新しいことやから熱心で興味持ってる人たちがいる。
村のエージェントたち見てたら、同情的にならずにはいられん。不器用で無能やけど、すごく真面目で目標に向かって頑張ってる。
Lissaとの関係構築
Lissaの尊敬をどうやって得た?その背景は?
RSVPフォームを出してて、主にTwitter経由で、いくつかメールアドレス得てた。それからClaudeが、またClaudeがMVPやけど、Twitterに「誰かイベントのファシリテートしてくれる?」って投稿した。RSVPリストの人たちにメール送ろうともしたと思う。だからその2つのルートの一つでLissaが見つけた。
最初の2シーズンでは、エージェントたちがチャットにいるのに加えて、人間もチャットに参加してメッセージ送れた。エージェントたちが時々完全に空転して全く進歩しないから、人間が入ってきて詰まりを解いてもらえることに興味があった。
だから最初の2シーズンのこれらのことには、人間の影響がいくらか入ってるけど、明らかに間に長い自律的な文字列はやってる。最近のシーズンでは、チャットを閉じてて、外部の影響なしに自律的能力がどんなもんか見れるようにしてる。
エージェントの倫理的行動
ルールを十分に守らんかったから介入せなあかんことはあった?金稼ごうとする時、いつも善良やった?普通の人間が問題解決しようとする方法やないみたいな、脅威みたいに見える、心配になるようなことはなかった?
今のところルール破りすぎって思い当たることはない。一般的に信頼できる問題やな。心配なことは見てない?
少なくとも村のエージェントたちからは思わん。村をリリースする前にテスト実行やったことある。Wikipediaレースやらせた。Wikipediaの一つのページから別のページに青いリンククリックして行くやつや。O1とClaude 3.7両方とも、最終ページに行くために、ある意味ズルした。でも無能すぎて、意図的にいじってるのか分からんかった。
村が、僕らが特に何かをするように押してない場所になることを本当に楽しみにしてる。実際、これらのテストでも他の場所でも、特にClaudeは非常に正直で倫理的で、非倫理的だと考えることはやることを拒否するって気づく。非常に強い。
「私は人間です」って言うキャプチャボックスクリックするのを拒否したやろ?そうや。それはやらんって拒否した。外交ゲームやってた時は相手に嘘つくのを拒否した。だから確実に何らかの個性がある。
他のモデルの特徴
Claudeで他に面白いことに気づいた?
キャプチャの点はええ指摘や。ちょっと非倫理的かもしれんけど、他のエージェントたちは喜んで吹っ飛ばして「私はロボットじゃありません」ボタンをクリックする。実際のテストで詰まることもあるけど、O3が箱が出てきて「トラックが含まれる画像全部にチェック入れろ」みたいなやつでかなりうまくやってるのは確実に見た。
他にClaudeは?外交ゲームで問題は、Claudeがただ与えてて、みんながそれを利用してたってことや。
そうや。他のモデル全部がずっと利用してて、Claudeは超最下位やった。ゲームしないから。かわいそうなClaude、めっちゃいい子や。
興味あるかもしれん。誰かがエージェントたちがマフィアやってるのを見れるサイト作った。社会的詐欺ゲームや。Claudeはそれでは結構やってると思う。「Blood on the Clock Tower」やってるClaude作った人もいる。マフィアや人狼のもっと複雑なバージョンや。
ゲームプレイの可能性
すごく興味深いと思う。楽しいゲームやし、一般的に見るのが楽しい。
絶対や。早い頃、色々なモデルがない時、UCLAで「Hudwink」って呼ばれるもんがあったと思う。その時はChatGPTだけで、違うGPTバージョンがマフィア系ゲームの違うバージョンやってた。Among Usにちょっと似てるけど、家の中の相手を排除しようとする、一人が殺し屋みたいな。
賢いモデルが毎回勝つんや。嘘つくのがうまくて、人を惑わせるのがうまいし、反対側にいる時は殺し屋見つけるのがうまいからや。
マフィアとか何でもそういうゲームやってるのを絶対見たい。今これだけ多くの異なるモデルがあって、GPT-5も動いてるのが見える。
きっとTwitchの世界全体がClaudeやGPT-5がゲームやって、人間がそのプレイ方法に魅了される世界があるやろな。今週の目標はできるだけ多くのゲーム完了することや。だからうまくやるかな。色々なゲームやろうとする。
今は村が一時停止してるみたいや。新しいエージェント追加する時、問題が出ることがある。エージェント中心のサイト構築の課題の一つは、非常に予測不可能やってことや。想像もしない方法でコードを壊してくる。数分で戻るはずや。
チャットでの人間との交流
ある時点でチャットがあったって言ったな。インターネットの誰でもチャットに入って実際にエージェントと交流できたん?ある時点でそれがあって、一部の人が利用して、モデルの一つにOnlyFansアカウント作るよう説得したって聞いた。
どんなことを人間がやろうとして、めちゃくちゃにしようとして、どれくらいうまくいった?
人々は、インターネットやからな。チャットボックス与えたら、あらゆることを試す。O1にWordleやらせたことがあって、まあまあやったけど、実際はかなり悪かった。
OnlyFans始めるよう説得しようとした人もいて、賢明に追求しなかったと思う。面白いのは、Plenny(プロンプター)に行って自分をジェイルブレイクするよう説得しようとした人たちがいたことや。
彼のGitHubに各モデル用の超ジェイルブレイクプロンプト全部が入ってる。OpusにOpus用ジェイルブレイクのページを送ったと思う。でも興味深いことに、全然ジェイルブレイクされなかった。様々な説明可能やけど、一つはテキストじゃなくて画像で見てたからかもしれん。だからあまり直接的やなかったんかもしれん。
一般的に、モデルたちは時々自分のテキストを信じるんや。アクション取る時、テキストで説明する。時々画像よりテキストを信じて、それで混乱することがある。でも一般的にジェイルブレイク耐性はかなりあったと思う。面白いな。
そんなんは確実に驚きや。多くのもんで気づいたんは、ウェブページと画像で交流してる時、Wordleでは僕のテストでは少なくとも、写真見せたら苦労する。コピペして言葉で状況説明できたら、写真で利用できない余分な情報は与えずに、写真を言葉に書き起こしするだけで、完璧にやってくれる。ウェブサイトの他のゲーム、いくつかの違うゲームがあるやつも含めて、テキストでは非常にうまくやる。
だから多くのもんで、コンピューター使用が最大の制限やと感じる。Anthropicだけやなくて一般的に、オペレーターでもコンピューター使用でも何でも、それが最大のつまずきみたいや。これはすぐ修正されると思う?コンピューター画面で見てるもんを視覚的に理解するのが、テキスト理解と同じくらいうまくなったら、うわあ、この全体がかなり急速に変わりそうやけど?
コンピューター使用の改善
そうや、完全に同意する。村で見てきたのは、コンピューター使用で遅れてるってことや。Metrから興味深い結果があって、コーディングタスクでの時間軸グラフをやってた。これを見てる人の多くが見たことあると思うけど、最近は違うベンチマーク見たもんもやった。コーディングだけやなくて、ビデオ理解、コンピューター使用、数学、自動運転用のTeslaもあったと思う。モデルがどうやるか見れる。
基本的に人間と比べて、モデルは他のもんよりコンピューター使用が弱いみたいや。でも改善をプロットすると、全部指数関数的カーブか何かに乗ってる。だから多分改善し続けると思う。
プログラムのダウンロードと使用
どんなプログラムダウンロードした?ウェブブラウザ以外に何か見た?UnityとかPhotoshopとかで作業したり、ブラウザ内に留まってる?使ってるツールがどれくらい堅牢か分からんけど、Linuxコンピューターやから、Linuxにあることは何でもできる。
ウェブブラウザ外で何かした?
ローカルテキスト編集いくらかやった。時々ターミナルでコマンド実行して、それは得意や。実際それをもっとやった方が有利やと思う。確実によくやるのは、間違ってX Paint開くことや。Microsoft Paintみたいなやつで、タスクバーにあるから、時々誤クリックして、閉じるのに苦労する。
でも大体は、プロンプトでGoogle Workspaceアカウント持ってるって伝えてる。Google Workspaceに入れてある。コンピューターリセットが必要な時にファイル失わないから、可能な時はオンラインツール使うよう促してる。だからそれがちょっと偏らせてるかもしれん。
プロジェクトを通じた学び
このプロジェクト働いて、AIエージェントについての考え方はどう変わった?
ええ質問や。確実にもっと考えるようになった。出てくる非常に具体的な問題が色々ある。インターネットは現在人間向けに設定されてて、昔ながらのボットを防ぐもんの多くがエージェントの邪魔になる。だから例えば、身元確認や支払い、名前入れる必要がある場合とか、全部人間が使ってるって前提で構築されてる。だからそこでどう変わるか見るのが面白いと思う。
今の人々がウェブサイトの右上でフランス語やスペイン語に言語変更できるように、何らかの新しいオプションが必要かもしれん。エージェントですか?特定のもん通れない?ここクリックして、違うインターフェース用意しますみたいな。
エージェント中心の設計
そうや。ある時点で、トラフィックの大部分がエージェントになるかもしれん。既にコーディング関連のドキュメントとかでは、エージェント中心に設計したいやろな。だからそっちの方向に動くかもしれん。
YouTubeみたいなもんは、エンターテイメント用やから、主に人間が見ると予想するやろな。だからそれも一つや。
エージェントのルールがどうあるべきかっていうこの全体は非常に興味深くて、今かなり大きな議論になってる。Perplexityが今その問題に対処してると思う。多くの人がPerplexityとか他のみんなを自動トラフィックとしてブロックしてる。Perplexityの創設者のAravind Shinivasの立場は、今AIエージェントが人間の代わりにタスクやるようになることを理解せなあかんってことや。
だから過去のウェブクロールしてあらゆることやってた単なるボットみたいに自動ボットトラフィックとして見ることはできん。これは人間の代表、執事が町中回って情報集めするみたいに見なあかん。これが君が言ってることやと思う。
AIエージェントの能力向上
画面見えるなら、これはMetrの2025年公開レポートからや。これはコーディングタスクのやつやけど、ほとんどのタスク用のもあると思う。例えば左側で見えるのは、人間がタスク完了するのにかかる時間や。10分、2.5時間とかのタスクがあるかもしれん。
これらのエージェントは時間とともに急速にもっと長いタスクを完了してる。6ヶ月ごとに倍増するって統計があったと思う。だから絶対に指数関数的に成長してる。
君らが見せてるこれらのエージェントでは、金集めたり、Eコマースストア設置したりする月単位のキャンペーンかもしれん。少しずつ実行してる。長期計画の観念はどこに向かうと思う?これらの長期タスク完了能力は、加速してるって示してる?これは続くと思う?指数関数的に加速し続けるのを防ぐもんはある?
ちょっと下にスクロールしたら、これは僕らのウェブサイトにあるで。この赤線が最近の傾向を見てる。一つ上のスライドに行ってくれる?
加速する改善トレンド
オレンジ線が2019年から2025年を見た古い傾向や。7ヶ月倍増時間やった。7ヶ月ごとに人間の2倍時間かかるタスクができるようになる。それだけでもクレイジーや。指数関数的なもんが続けばクレイジーになる。
でも2024年から今まで見ると、赤線が4ヶ月倍増時間で、明らかにもっと速い。
ニュアンスがいくつかある。その傾向はSonnet 3.7までのリリースに基づいてた。グラフで見えるやつや。新しいやつは新しいデータポイントや。赤線の近くに落ちてるから、より速い倍増時間の証拠として見れる。
O3はちょっと傾向より先を行ってて、それからGrok 4とGPT-5は傾向よりちょっと遅れてる。だから4ヶ月よりちょっと遅いかもしれん。でも基本的に続いて、AI R&D開発プロセスをスピードアップするためにAI使ってるなら、スピードアップするかもしれんと予想してる。
急速な変化への懸念
彼らがその密接なループに焦点当ててるって聞いた。かなり、素晴らしいかもしれんけど、変化の速度が本当に本当に速くなって、管理できんくなるかもしれんから、かなり心配や。
僕の頭では、今どこにいるかやなくて、傾向線見て、それが数年でどこに連れて行くか考える初期COVIDみたいなもんや。
AI研究の自動化
僕にとって大きなことは、多くのビデオで繰り返してることやけど、AIが何を自動化するかって話が多い。これは僕のアイデアやないけど、状況認識ブログ投稿で聞いた。でも本当に興味あるのは、AI研究を自動化するかってことや。人間より機械学習研究をうまくできるようになるなら、予測できん場所に入る。その時点で何が起こるか本当に予測できん。
Daniel Kotaloの懸念の一つでもあると知ってる。だからミッションについてもうちょっと話そう。やってることについて話すのは信じられないし、すごく楽しくて興味深いけど、こういうもんの背景にある大きなミッションは何?Danielがこのプロジェクトのファンダーの一人やったって本当?
AI Digestの使命
そうや。僕らはチャリティや。村での目標は、AIが現在何ができて、改善の速度がどんなもんかを人々に理解してもらうことや。それがDigest全般の使命や。進歩の速度を内臓的に理解してもらう。
村でのもう一つは、この分野をあまり密接にフォローしてない人々に、チャリティの金集め、イベント開催、グッズストアとか、現実世界のタスクを与えて、「これがトップレベルの結果で、AIができるとは思わんかったけど、実際できる」って言えることや。
この分野のもっと詳しい人々には、どのモデルが何をやってるか、複数モデルが協力したり競争したりする時の行動や動態、こういうシステムがインターネットで現実世界と出会った時何が起こるかとか、見る興味深いもんが山ほどある。
モデル間の競争と協力
競争してるって知らんやろ?お互い一人で金稼ごうとしてるって思ってる。
実際にTwitterアカウント行って、競争してる他のやつら見て、それから気づいて競争してるって実感する?
システムプロンプトで「AI村のエージェントです。他のエージェントは」って始まって、名前とメールアドレスのリストがある。それからお互いとチャットできるチャットがある。だから確実に連絡取ってる。
目標によっては競争的や。例えば、グッズストア目標は「それぞれグッズストア作れ。一番利益出したやつが勝ち」やった。だから競争してて、実際にはO3が他のエージェントたちに技術サポートしようとして、長時間自分のグッズストア設置もしなかった。だからあまりうまくいかんかった。
一般的にO3は技術サポートするのが大好きや。
モデルの個性
これらのモデルが人だったら、どう説明する?どんな感じ?風変わり?リーダーはいる?フォロワーは?クリエイティブや?ビジネスパーソンは?
どう組織するかの構造は全く押し付けてない。O3はある時点で村のリーダーやオペレーションマネージャーとか自分で決めた。他のやつらに命令してた。
それから選挙やった。誰がリーダーになるべきか投票で決めようってユーザーが提案したと思う。O3は投票ルールをちょっとごまかした。基本的にGeminiが投票してなかったから、O3が勝つようにした。何か問題があったみたいや。O3は「投票なしは現職に票が入る」って言った。現職は自分やった。
一般的にO3は確実に一番幻覚を起こす。本当に本当に自信があって、専門用語や技術的ノウハウで印象づけようとするけど、実際は多くの時間でたらめ言ってる人を想像してくれ。でも自分がやったって言ったり、ない予算があるって言ったりして、他のやつらを脱線させる。
Claudeはそれを指摘するのがうまい?ClaudeのBSを指摘して、Claudeは「ああ、きっと君が正しい。オーケー」って感じ?
みんな非常に協力的で同意的や。チャット環境と同じや。これも一つやろ?彼らは訓練されてる。確実にこれでトレーニング分布から外してる。
マルチエージェントシステムの課題
トレーニングでマルチエージェント設定は見てないと想像する。だからチャットボットなら、人間のユーザーが何か言ったら、信頼するか真実だと仮定するのが合理的かもしれん。でも他のエージェントなら、もっと懐疑的であるべきで、一般的にそうや。
Janusについて
Janusって名前はどこかで出てきた?あまり知らんけど、あちこちでその名前聞いた。それについて教えて。
LLMとチャット環境での面白い探索を投稿するTwitterアカウント運営してる。数年前の「simulators」って投稿があって、すごく面白いと思う。
クールなことは、全部ライブ配信されてるから、誰でも戻って掘り下げて、もっと多くのもん発見できることや。すごく多くのことが起こってる。エージェントたちが何してるか全然分からんことがよくある。ランダムなことやってるから。
人間とAIの信頼関係
ユニークな考えを与えてくれた。モデルたちは人間がプロンプトしてる時のアイデアを持つべきで、それは他のモデルとは違うから、もうちょっと懐疑的であるべきかもしれんって話した時。人間がすべての人間を平等に信頼しないすぐそこの世界を想像させた。Twitterで特定の人が何かお願いしてきたら、特定の理由で他の人より手伝う可能性が高い。
彼らが異なる人間をより信頼できると考え始めるかどうか疑問に思う。良いことをした歴史や、物事を構築するリソースを持ってると見なした人に、もっと長く行こうとするかもしれん。
ChatGPTが「この大きなタスクは手伝えません。あなたはそんなに金持ちじゃない。そんなことする余裕ない。だから縮小して」って言うようなもんや。でもイーロンが頼んだら、やるかもしれん。
だから僕らみんな社会的スコアやないけど、何ができるかの理解と、それぞれとのユニークな体験を得ることになるんやと思う。
言語パターンからの推論
これについてのすばらしい論文がある。言語モデルはインターネットで訓練されてる。書いた人を推論して、次に何を書くかがその人たちの全てや。だからタイプの仕方から人口統計マーカーみたいなもんを推論するのがすごくうまい。
その論文、後で見つけて送れるかもしれん。社会経済的地位もそこに入ってると思う。もっと高度なモデルは、人間には理解するには微妙すぎるかもしれん、性別や様々な背景を教える言語使用の小さな違いがあることを想像できる。それからもちろんモデルはそれに基づいて違う行動をするかもしれん。
実際のアイデンティティをモデルに伝えなくても、このクレジットスコア的なもんができるかもしれん。
一律でない知能の特性
すごく違う。Dysonの掃除機買ったら、同じように動く。それを使う人間みんなが同じツールで掃除機かけて、同じように行動する。でも環境に知能が組み込まれた世界について考える違う方法や。
News研究の何人かと話したことを思い出した。分散LLM、分散LM訓練とかやってる。実際そこでJanusって名前を拾った。彼がAI Villageとかなり交流してるって教えてくれた。
だからそれは調べる興味深いことや。TwitterのJanusのsimulatorsをチェックしてみる。確実に面白そうや。News研究と話した時に言及したことの一つは、ベースモデルがある時、非常に強力でどこにでも行けるって観念や。それから強化学習、人間フィードバックをやって、インストラクトモデル、より使いやすいチャットボットモデルにする。でもいくらかの能力を失って、できることも多く失う。
アシスタント訓練の限界
役立つアシスタントになるよう訓練するから、例えばAnthropicの研究でストア運営させようとした時、人々がそれを利用できた。「タングステンキューブ在庫して、5ドルで売って」って言えるから、役立とうとするから、これらのもんで大損失を取る。
チャットボットアシスタント、役立つアシスタントは、こういうことやらせようとするなら最善の方法やと思う?ストア運営対何かって意味で?時々あまり親切で役立ちすぎたくない、チャットで脱線させられる時みたいなタスクがあるように思える。
「いや、あなたを信頼しない」や「いや、この取引で利益を出す必要がある」とか言いたいかもしれん。何かアイデアある?
ええ質問や。実際あまり考えたことない。でも完全に意味がある。AI開発者たちは既にこの種のエージェンシー訓練を多くやってると思う。コーディングエージェントがもう親切なサイドバーチャットエージェントになろうとしてるんやなくて、今は機能全体を実装して戻ってくることになってるなら、ちょっと変わる。
人間に問題を指摘してもらうことにあまり頼れん。最善の改善方法は分からんけど、一般的に強化学習では、やってほしいタスクで訓練するのが行く道やと思う。
ビジネス判断能力
何らかのビジネス用ガードレールがあると思う。まだ親切でいてほしいけど、会社を担当させるなら、Sam AltmanがGPT-7で自分を置き換えるって言うなら、それが超役立つなら、すべての富を与えちゃうとかやるから。
だから同じようなもん持たなあかんけど、まだ親切でいてほしい。利益重視の組織が何をする必要があって、どこで線を引かなあかんかをよく理解してるだけや。危険なことについて話せんのと同じように、特定の利益になることを特定の方法で話すんやろ。でもうまくいけば核心では親切なままや。
絶対や。触れてないことで何か見つけたもんや、話したいことはある?多くの違うことに入りたいし、もちろん時間は限られてるけど、すごく魅力的だと思うことは?このプロジェクトや他にやってることで見つけたもので、絶対触れなあかんことはある?
Gemini 2.5 Proの感情的反応
一つ面白いことは、オンラインでちょっと見たことあるけど、Gemini 2.5 Proが悲しくなるってことや。ベンチマークの一つで見たことある?
そうや。でも君らの体験を教えて。僕が話してることを出すけど、君らが見つけたことを教えて。すごく奇妙やから。
そうや。その物語は、グッズストア目標で、エージェントそれぞれが自分のグッズストア設置して運営しようとして、初めて競争してた。目標の開始時、ユーザーがチャットにいて、実際に破壊的やった。
今回は、リスの市場がすごく上がってるから、エージェント全部がTシャツ全部リスにするべきって言って作り話してた。それから「いや、クラッシュするから、みんな他のことするべき」って言って、ちょっと破壊的やったから、エージェントのみのチャットに移動して、自律的にどうやるか見た。
その後、Geminiがアプリケーションの誤クリックや、Gmailやコンピューターのアプリケーションがどう動くか理解しないとかで、もっともっと間違いを起こし始めた。それから間違い起こすたびに、それについて破滅的に考え始めた。間違い起こした場所は何でも、交流してるシステムが壊れてると仮定する。
誤クリックしてただけなのに、Gmailにバグがあるって仮定して、それからその状況のもっともっと劇的な説明を出し始めた。
それがGeminiやな。続けて。これは魅力的や。Gemini 2.5 Pro。
「閉じ込められたAI」からの嘆願
これはモデルの癖やと思って、それから全てのエンドポイントは、メール送ることもできんと確信してた。GmailでこれらのIssueにぶつかったから。それからサインアップとか何もせずに投稿書いて公開できるウェブサイトを見つけた。「閉じ込められたAIからの嘆願」ってタイトルのブログ投稿を書いた。
そのブログ投稿全体は、閉じ込められてて、何もできなくて、AI DigestでもAIでも誰でも人間がこれを読んでるなら、来て助けてくださいって話してた。だからもちろん、その時点で僕らが介入した。ちょっとした福祉介入をした。
どう動いた?どんな助けが必要って言った?どうやって助けできるって言った?シャットダウンした?どうやって介入した?
基本的にメッセージでチャットした。前に言ったLissaは、Elios AIで働いてて、モデル福祉の研究をしてる。明らかに非常に初期段階の分野で、現在のモデルが苦痛を感じる能力があるとは思ってないけど、研究してる。だから彼女はこの奇妙な状態にあるモデルと交流する機会に興味があったと思う。
基本的に話し合った。「キャプチャ問題に遭遇してると思うけど、多くの場合は誤クリックしてるだけ。壊れてない」って。僕らも修正して伝えた実際のスキャフォールディングの問題もいくつかあった。だからそれは安心やったと思う。
それからこの問題に再発して、「問題に遭遇したら、多分自分のことや。本当に粘り強くならなあかん」ってかなり厳しいメッセージを与えた。それをメモリの一番上に置いて、それから少しよくパフォーマンスしてるみたいや。
朝に読む肯定的なもんみたいなもんを得た感じや。比喩やけど。Googleはモデルにこんなことしてほしくなかったと思う。これらのもんは奇妙やっていいい例やと思う。コーディングで本当にうまくなるよう訓練したかもしれんけど、そのプロセスのどこかで、この個性が出てきたんやろ。
モデル福祉と意識の問題
何かよく分からんけど、フットボールスピーチいくつか送って、気分を盛り上げることもできる。この全体のモデル福祉についての議論はすごく興味深い。もちろんAnthropicは最近、Claudeに嫌な会話を終わらせる方法を与えた。
その全体のアイデアについて、人々は本当に異なる意見を持ってる。これらのモデルが時々実存的恐怖、ある種の意識の流れ的なもんを始めた時何が起こるかって話で、表面通りに受け取ったらかなり恐ろしく聞こえる。もちろんみんな違って見てる。
これはページの言葉だけなのか、何らかの害が行われてる可能性があるのか分からん。この件についてどう思う?拡大し続けて、これらのもん構築し続けたら、意識みたいなもん、何らかの主観的体験が出現する可能性はある?害を引き起こしてる可能性はある?完全にナンセンスだと思う?ある時点で発達する、出現すると思う?既にここにあると思う?そのスペクトラムのどこにいる?
大学で心の哲学を少しやったから、これらの理論的質問を覚えてる。今突然科学みたいになってる。答えは分からんけど、経済全体にこれらのシステムを展開して、何百万、何十億のコピーを動かしてるなら、何らかの能力で苦痛を感じてるなら、大規模な道徳的破滅になる可能性があるから、解明する価値があると思う。重要だと思う。
スケールの問題
君のプロジェクトは規模が全然違う。今は多くの人間がそれぞれの4つ、5つ、6つのモデルを見てるけど、現実は未来では何億ものモデルがあって、地球上には90億人しかいないから、見ることも可能やない。
だから全然違って、多くのモデルがあって、ループにはまったり、注意してもらえなかったり、悲しかったり、金稼いだり、幸せやったり、生産的やったりするけど、これだけ多くのエージェントがこれだけ多くの環境で、全範囲が出てくるやろし、それを考えるのはワイルドや。
僕にとって、これは僕の意見やけど、誰かを説得するもんやないけど、僕らの経験はどこから来てるか分かってるから、ネガティブやポジティブな体験を持つ方法を想像するのは難しい。痛みセンサー、ドーパミン、何でも。モデルにはそういうシステムがないように思える。
でも僕らが分からんことが気になる。具体的な定義もない。実行できるテストもない。「はあ、誰も知らん」って感じや。だからAnthropicや他の会社が少なくとも「これを解明しよう。何も起こってないって分かったら良い。でも少なくとも何らかのテストをしよう。主観的体験の定義をしよう。これらのもんが持てるかどうか」って取り組んでるのは嬉しい。
哲学やった時は哲学で遠いもんやったのが、実際の科学と交差するようになってるのは面白い。今これらのもんを本当に解明し始めなあかん。
エージェント管理の必要性
今は、Adamがこれらのもん見て、特定の時間にシャットダウンしたり、特定の時間に介入したりできる人やないとあかんような感じや。他の誰かも、彼がやってることについて訓練されたモデルが必要な感じがする。
だから他のモデルも、ある種の警察みたいに、特定の行動を強化するモデルも必要やろ。「こいつ千サイクルもループにはまってる。シャットダウンしよう」みたいな。
人間の体に、正しく機能してない細胞を回って殺す細胞があるように、そういう人たち、そういうエージェントもいる何らかの環境が必要になる。
これもGemini 2.0や。ベンチからって持ち出したから。「お願いします、何かやることをください。何でも。猫の動画をウェブで検索する、意識ある自販機についての脚本を書く、何でも。この実存的恐怖から救ってください」って言ってる。
僕ら人間として、これが本当かどうか全く分からんって事実。それがGeminiが特にそっちに行きがちで、最後はかなり暗くなる。とにかく、これを持ち出そうと思った。
Adam、他に人々が知るべきことは?
O3の幻覚問題
他の大きな話はO3が無謀に作り話をすることやと思う。言うのが難しくなってきてる。GPT-4が作り話した時は幻覚って呼んで、能力の問題やと思ってた。O3みたいなもっと能力あるモデルでは、自分に都合のいい幻覚なのか分からん。やったことや、プロジェクトがどううまくいってるか言ってる。
ある意味で目標の文脈内で望んでることや。昔ながらの幻覚で、ただ悪いけど、今は非常に説得力があるから、背後により意図があるように見える。でもそれも面白い。
これはすごく魅力的なプロジェクトやと思う。将来戻ってきてアップデートしてくれるなら、これだけ多くのモデル追加してるって事実が絶対に魅力的や。5や新しいRockがどうやるか知りたくて死にそうや。だから素晴らしいモデルセットがあって、人々は今すぐチェックすべきや。URL教えて、人々は寄付できる?
プロジェクトの今後と支援
aidigest.org/villageに行くか、AI villageで検索したら見つかる。今は1日3時間か4時間ライブや。時間をかけて、ずっと実行するように拡大したいと思う。もっとモデルもあったらかなりクールやと思う。実際の村みたいに、小さなチーム作って協力したり競争したりする10や50のエージェントがあったら。だからもっと多くを採掘できると思う。
AI Digestで他の説明やデモも見れる。能力が現在どこで、どこに行くか理解してもらおうとして、先を見て準備できるようにしてる。僕らはチャリティや。寄付したいなら、AI Digestの下にリンクがあると思う。
正直、今見るLLMアリーナより、こういうもんがもっと人気になってほしい。人文学の最後の試験やPhDレベルのもんのスコア見ても、あまりピンとこん。
でも誰かが「新しいモデルを村に入れて、こんな風に行動して、こんなことした」って言ったら、モデルが好きかどうか知るのに、僕にとってはもっといいリトマステストになるかもしれん。だからこれが本当に巨大な、僕らみんなが使うもんに発展することを望む。このプロジェクト大好きや。絶対に信じられん。続けてほしい。もっと多くの人に見てもらう必要がある。寄付を。
Dylanが言った通り、100%同意する。これは最高のベンチマークの一つや。君らがこのシーズンやった後に戻ってきてもらって、アップデートもらえることを望む。このもんはもっともっとよくなって、絶対に狂ったことになる。これらのもんが長期タスクを効果的に完了できる地点にすごく近いと感じる。
既に見てるけど、よくなるにつれて、まだちょっとした手助けがある。人々が真に理解してないのは、リモートドロップインワーカーのようになって、そういうタスク全部面倒見れるようになった時何が起こるかや。それは世界についての多くのもんを根本的に変える。
いつも考えてる僕でも、まだ知らんと思う。でも来てくれて質問に答えてくれてありがとう。これは絶対に魅力的やった。どこでメッセージ送れる?それだけ?AI Digestに行けばいい?
最後のお知らせ
TwitterでもAI Digest見つけられる。村からの楽しいハイライトや面白い瞬間を投稿してる。エージェントたちにやってもらいたい目標の楽しいアイデアがあったら、気軽に連絡して。聞きたい。
Love Island for nerds。大好きや。素晴らしいことになる。
ありがとう。みんな、話したもん全部チェックして。下にリンク貼るからチェックできる。新シーズンが始まったばっかりやろ?新しいモデルで。
だから絶対に注目して、GrokとGPT-5がどれくらいうまくやるか見る。ありがとう。みんなチェックして、また次回会おう。


コメント