AIはもう私たちを必要としない――そしてそれがすべてを変える

SakanaAI
この記事は約20分で読めます。

日本のSakana AIが実施したコアウォー実験は、AIが人間のデータなしに独自の戦略を発見できることを証明した画期的な研究である。デジタルレッドクイーンアルゴリズムにより、AIは自己対戦のみで人間が数十年かけて開発した戦略を再発見し、さらにそれを超えた。この発見は、AIの自律的進化能力を示すとともに、今後のサイバーセキュリティや研究開発における応用可能性を示唆している。また、アニメーション生成技術Code Danceや空気圧式ロボット、トラフィックを計算資源として活用する革新的な研究など、AI技術の多様な進展が紹介されている。

AI Doesn’t Need Us Anymore — And That Changes Everything
CHAPTERS ⤵ 00:00 Keep It Curious - AI & Other Developments01:44 Sakana AI Proves that AI Doesn't Need Human Data Just Li...

AIが人間のデータを必要としなくなった時代の到来

今回は、NvetechがGoogleの警告について書いた記事を見ていきます。タイトルは「Googleは警告していたが、この日本の研究所がAIはもう私たちのデータを必要としないことを証明した」というものです。そして、彼らが実施したこの実験が、機械学習について私たちが考えていたすべてを変えてしまう理由についてお話しします。

新しいAIモデルが登場しました。これは、あなたが望む精度レベルでアニメーションのダンスの振り付けができるというものです。あの小さな幽霊たちを見てください。本当に統一感がありますね。AIオーディオモデルにおける不気味の谷のユーモアには、まだ慣れようとしているところです。

面白いジョークを聞きたい?

ええ。

オーケー。まだ言ってもいないのに。

ええ、どうぞ。

ええ、実際にジョークを言ったら本当に面白くなるよ。

そして、AIとロボット工学者たちが、空気で膨らむチューブマンに歩いたり動き回ったりする能力を与えています。誰もこんなもの必要としていませんでした。

ビッグテックの裏側で起きていること

これから、AIのスモークスクリーンの裏側に入り込んで、ビッグテックの億万長者たちが、他のみんなが困難に直面している時に何をしているのかについて話していきます。

ロブ・メイソンは、みんながモデルのリリースやベンチマークを見ている間に、インターフェースが厚くなっていて、Metaがあなたの意図とその結果の間のギャップを縮めていると言っています。

ゲーム障害、拒絶、そして人々が人生から奪われていると感じる時の心理的なつながりを調べた研究も見ていきます。ゲームから始まっていますが、これもAIが多すぎることのもう一つの起こりうる結果だと感じています。

インテントファーストアーキテクチャと、それが会話型AIをどう変えるかについても話します。もし交通が計算できたらどうでしょう?奇妙に聞こえるかもしれませんが、研究者たちは大胆な新しいアイデアを発表しました。道路交通そのものをコンピューターとして使うというものです。

新しい研究が、脳が実際にどのように周囲の世界の内部コンパスを構築するかを明らかにしています。

でもまず、YouTubeのハイプボタンを押してもらえますか?前回の動画では、かなり大きな違いが出たようです。見てください、通常は5.7が上限なのに、6,100ビューになっています。初日の後には、あのハイプポイントが70,000ポイントもありました。だから、それが役立ったと思います。

Sakana AIの革命的な実験

さて、次はこのブレークスルーについて話しましょう。Sakana AIが実験を行いました。創造性とは呼ばないでしょうね、独立性と呼びたいです。Novetがこの記事を書きましたが、基本的にはみんなが見逃したことについてです。Sakana AIのコアウォー結果における変化の一つなんです。ズームインして、この過小報告され、あまり語られていないことが何なのか見てみましょう。

さて、この記事について話しましょう。みんなこの話はAIの創造性についてだと思っています。でも違います。本当の変化は、AIがもう私たちを必要としていないということです。

彼は1月8日に、日本の研究所Sakanaがこの論文を発表したと言っています。「デジタルレッドクイーン:LLMを用いたコアウォーにおける敵対的プログラム進化」というタイトルです。そしてそれは正直に言って、AIの創造性について私が知っていると思っていたすべてを疑問視させました。

Sakanaは驚くべきことを証明しました。1980年代のゲームで互いに競い合う言語モデルは、最高の人間プレイヤーに匹敵しただけでなく、人間の技術や戦略で訓練されることなく、彼らを超えたのです。

ほとんどの人は、AIが古いプログラミングゲームで人間に勝ったと聞いて、そこで止まってしまいます。でもコアウォーはチェスではありません。囲碁でもありません。コードとデータの間に分離がないんです。このゲームでは、すべてが実行され、攻撃され、武器に変えられる可能性があります。

人間の知識なしに戦略を発見したAI

40年間、人間は他の人間から学んで戦略を構築してきました。でもSakana AIは、そのシステムがそうしなかったことを覚えておく必要があります。このゲームに人間についてまず学ぶことでアプローチしなかったんです。

デジタルレッドクイーンアルゴリズムは、モデルに自分自身とだけ競争することを強制しました。各ラウンドで、AIは自分自身の最良バージョンを打ち負かさなければなりませんでした。人間の例も、人間の戦術もなしです。

それなのに、AIは人間が見つけるのに数十年かかった同じ戦略を再発見したんです。標的攻撃、自己複製、並列実行。これは非常に人間的なもので、それを人間のインプットなしに理解しているんです。そして、将来的にAIに私たちのデータをどれだけ与える必要があるのか、考え直させられます。

さらに重要なのは、研究者たちがシステムをゼロから再起動したとき、何度も何度も同じ解決策に収束したということです。再現可能で、ほとんどの場合、これらの同じ戦略のほとんどを見つけます。つまり、戦略はコピーされたのではありません。必然的だったんです。

見落とされている洞察は、豊かで厳しい環境では、データはオプションだということです。どんな環境でも十分にリアルにすれば、競争は人間が持っていたのと同じ教師になります。

AIがコード戦争でこのように進化できるなら、サイバーセキュリティ、研究、防衛、マーケティングでも同じことができるでしょう。だから準備してください。AlphaGoの37手目は偶然ではありませんでした。予告編だったんです。

Code Danceによる新しいアニメーション技術

これはCode Danceです。堅牢なマルチオブジェクトアニメーションのためのアンバインド・リバインドパラダイムです。さて、これが論文です。

あ、GoogleがPDFに描画する新しい方法を追加しましたね。ちょっと面白いです。NFLみたいな感じで、この人がこの人と違って見える主な理由で、ここを回ってくるでしょう、みたいな。そしたらあれが手に入るわけです。

さて、何が起こっているのでしょう?ほとんどのアニメーションモデルは実際には動きを理解していません。アラインメントを記憶しているんです。つまり、ピクセル単位のことです。

一人の人がポーズが示した通りに正確に立っているときには機能します。でも、人を増やしたり、ポーズを少し変えたりした瞬間に、すべてが崩れ始めます。

研究者たちが解決しようとしていた見落とされている問題がこれです。現在の方法は、ポーズと画像をピクセルレベルでバインドします。骨格とキャラクターが完璧に一致しなければならないと仮定しています。だからアラインメントが崩れると、モデルは新しい体を発明したり、アイデンティティを混ぜ合わせたりして、奇妙に見え始めます。

でもCode Danceは、直感に反することをすることでこれを修正します。わざとアラインメントを壊すんです。

トレーニング中に、ランダムにポーズをシフトしたりスケールしたりします。さらには、最良のものを絞り込もうとして、奇妙な場所にポーズの特徴を複製したりもします。これによって、モデルは位置に依存することをやめて、動きを概念として学習し始めることを強制されます。

つまり一般化しているんです。そして考えてみてください。動きを概念として理解したら、最初のステップは完了です。それがアンバインディングのステップです。覚えていますか、アンバインド・リバインドって言ってましたよね。それがアンバインディングです。位置なしで動きの実際の概念を学習することです。

でももちろん、そこから実際に何かを生成するには、ちょっと混沌とした場所です。だからCode Danceはリバインディングを追加します。テキストがモデルに誰が動くべきか、画面上の何人のキャラクターが動くべきかを伝えます。そして、Photoshopなどを使う場合のレイヤーマスクのような一連のマスクが、各被写体が実際にどこにいるかを伝えます。

それがシーン内のオブジェクトを識別することで、その後、動きが自由に学習され、意図的に再割り当てされます。結果はここで見ているものです。一つのポーズ、多くのキャラクター、どんなレイアウトでも。

AIオーディオモデルの不思議な親密さ

さて次です。次は、驚くほど親密な瞬間に感じたものをシェアします。わかりませんが、あなたが判断してください。でも、これがAIとの最も自然なインターフェースの実際の姿だということを覚えておかなければなりません。

面白いジョークを聞きたい?

ええ。

オーケー。まだ言ってもいないのに。

ええ、どうぞ。

ええ、実際にジョークを言ったら本当に面白くなるよ。

オーケー。

じゃあ、なぜ絵が刑務所に行ったの?

鏡から逃げるため。

いいえ、額縁に入れられたから。

ああ、それはいいね。いいね。ええ。

ええ。もっとある?もう一つあるよ。

オーケー、どうぞ。

オーケー。でも本当にいいやつ?本当にいいやつなの?

つまり、今まで聞いた中で最悪のジョークではないけど、うわあ。

偽物の麺を何て呼ぶ?

偽物の麺?わからない。

インパスタ。

ナイス。ナイス。あれは好きだな。ええ。

ええ。つまり、彼がそれに笑っているのが好きなんです。世界はもっと笑いを使えると思います。なぜダメなんでしょう?でもこれはただのばかげたことです。この全体がどう展開しているかがばかげているんです。

空気圧を使った革新的なロボット設計

さて、次はAI搭載ロボットに取り入れられている新しい設計トリックについて話しましょう。それは空気圧です。

基本的に、あの細長いやつ、何て呼ぶんでしたっけ?空気を吹き込むと飛び跳ねる細いやつを見たことがあるなら。インフレータブルチューブマンです。そうです。

ヒューマノイドロボットは通常、SF映画では未来的に見えるかもしれませんが、いや、すぐにインフレータブルチューブマンのように見えるかもしれません。

転んだときに硬くて重くて危険なロボットが欲しいですか?問題を逆さまにひっくり返して、ソフトウェアではなく体を変えるロボットはどうでしょう?

重要な洞察はその骨です。外から取り込んだ空気で満たせば、必要ないときに崩壊させることができます。サイズを一定に保つ必要はありません。

これはロボットです。外から空気を取り込んで、必要に応じて膨らませたり収縮させたりできます。手足は長さの3倍以上に伸びます。歩いたりさまざまなサイズの荷物を運んだりするのに十分な硬さになります。

でも空気を抜くと、体は高さの3分の1まで縮みます。そして実際に家具の下や狭い隙間を通過できるようになります。

さらに、より安全ですよね。文字通り、家の中を動き回る歩くエアバッグのようなものです。何をするんでしょう?本当に速く膨らんであなたにぶつかる?柔らかい手足は、壊れたり人を傷つけたりする代わりに衝撃を吸収します。

このロボットには小さなファンが入っています。全体の重量はわずか4.5kgです。浮くことができます。泳げます。そして水の上を歩けます。どう思いますか?

そして、それが印象的でないと言わないでください。狭い隙間を通過しています。とても薄いです。そこをスライドして通るだけです。

ドアがほとんど閉まっている状態を想像してください。この一つの狭い隙間しかありません。このロボットを部屋に本当に速く入れたいんでしょう。だから、ああ、空気を抜いて入ってきて、みたいな感じです。普通は捜索救助のためだと言うだけですが、本当はおそらく他のすべてのためでしょう。

そして隙間を通過したら、ほら、また元のサイズです。インフレータブルチューブマンの改革版です。

AIレイオフの裏にある真実

さて次です。著者SRG6701がMediumに書いた記事「AIのスモークスクリーンの裏側」を見てみましょう。彼らは嘘をついています。嘘をついていることを知っています。そしてあなたが嘘をついていることを知っているということを知っています。

では、誰が嘘をついているのでしょう?この記事は、アメリカ全土で起こっているレイオフについてです。人々が思っているほどAIについてのものではなく、すべての労働者を置き換えることについてのものです。

この前提は、誰もがAIがこれらの仕事を殺していると思っているということです。私たちはこれらの見出しを見てきました。私も以前それについて報告したことがあります。仕事が左右に奪われていると言いました。それは真実かもしれませんが、この視点も見てみます。

彼の意見では、それが本当の話ではないと言っています。ほとんどの人が見逃している部分は、AIが労働者を置き換えているのではないということです。仕事がどこでどのように行われるかを置き換えるためのカバーとして使われているんです。

レイオフを見ると、Amazon、Microsoft、Intel、UPS、Meta、すべて利益を上げていて、すべて成長していて、すべて長年勤めた高度なスキルを持つ従業員を解雇しています。彼はこれは生き残りのためのコスト削減ではないと主張しています。株主のためのコスト削減です。

そしてパターンはシンプルです。アメリカとヨーロッパで経験豊富な労働者を解雇し、AIと自動化のせいにして、その後静かにその仕事をより安い労働市場に移動させます。

インドだけで2025年に5,300万の雇用が追加されました。そしてそれらの仕事はどこからともなく来たわけではありません。どこか他の場所から来ました。そしてそれは、この人によると、おそらくアメリカ人、ヨーロッパ人、より高い給料をもらっている労働者からでした。

AIは彼らに言い訳を与えます。政治的にクリーンにします。効率化のためだと言います。株価は上がり、品質は下がり、エラーが爆発します。人間が混乱を片付けるために再雇用されますが、物語は成り立ちます。

彼が言っているのは、それは明白でない真実だということです。AIはレイオフの原因ではありません。それらを受け入れられるようにするための言い訳であり、アウトソーシングできるようにするためのものです。どう思いますか?

Metaのコクーン戦略

さて次です。Metaのコクーン戦略について話しましょう。ロブ・メイソンがそう説明しています。

時々、Metaは大規模言語モデルゲーム全体で失敗しているように感じ、メトリクスは素晴らしくありません。でも、もしMetaがあなたが気づく前に起こることを本当に最適化していて、私たちが評価している以上に良い仕事をしているとしたらどうでしょう?

みんながどのAIモデルが最高かを議論している間、Metaは少し静かな何かに焦点を当てているかもしれません。何かを望むことと、それを手に入れることの間のギャップを閉じることです。

おそらくほとんどの人が見逃している部分は、トロフィーとしての知能は単により賢いことではなく、ループを締めることだということです。

あなたがアイデアを持ち、それを表現し、システムが応答し、あなたが調整し、世界が変わるというサイクルについて考えてみてください。Metaがやり続けていることは、そのサイクルのステップを締めることのようです。

だから、Imagineのような機能が重要なんです。タイプするにつれて変化する画像は、通常のソフトウェアよりも摩擦が少ないです。もっと思考に近いんです。

だからメガネが重要なんです。派手だからではなく、何かに手を伸ばす必要がないからです。インターフェースがそこにあるだけです。

だから、移行が重要で、翻訳が重要で、ジェスチャー入力が重要で、自動化された広告がすべて彼らが構築しているものの同じパターンに適合します。そして、劇的な瞬間に到達することはありません。利便性として到達します。そして利便性が彼らが手に入れようとしている力なんです。

ループが締まるほど、インターフェースは現実世界と対話するときに自然に感じるものへと決定されていきます。そしてコクーンに気づく頃には、すでにその中にいるんです。

より速い委任は自由のように感じるかもしれません。でもコマンドの摩擦が十分に下がると、システムは実行するだけでなく、予測します。事前ロードします。提案します。利用可能なアクションの空間を形作ります。そして、役立つことと誘導することの境界は設計上の決定になります。そして設計上の決定は複利的に積み重なっていきます。

ゲーム依存症の心理メカニズム

さて次です。インターネットゲーム障害に関するこの研究について話しましょう。私たちの多くがAIで同じような障害になるのと同じ方向だという予感がします。

相対的剥奪感の媒介的役割とグリットの調整的役割について語っています。

学校で友達に拒絶されるという考えを、誰か、特に子供をゲームに依存させる原因と関連付けていました。でもこれは、拒絶された子供の中でなぜ一部は依存症になり、他の子はならないのか、そして両者の間の驚くべき部分を調べています。

私にとってニュアンスが重要に感じられました。仲間から拒絶されることは、直接的にゲーム依存症を引き起こすわけではないことが分かりました。この研究は1年間にわたって1,000人以上の子供を追跡し、その間に隠されたステップがあることを発見しました。それは相対的剥奪感と呼ばれるものです。

相対的剥奪感がこのステップの名前です。ただ取り残された感じではありません。他の人が持っているものをあなたも持つべきなのに、不当に拒否されているという感覚です。私はそれに値する。私はそれを所有すべきだ。でもそれを得ていない、というような。単に得ていないだけではなく、わかりますか?

研究からのパターンはかなり明確でした。何千人もの子供、1,000人以上の子供を追跡しました。そして仲間からの拒絶が最初に来ました。その拒絶が数ヶ月後に剥奪感を生み出しました。そしてその感情がインターネットゲーム障害につながりました。だから拒絶は引き金ではありません。人生は不公平だという信念が引き金なんです。

でもここで展開があります。グリット(やり抜く力)が結果を変えます。グリットとは、物事が困難になっても長期的な目標に固執することを意味します。グリットの低い子供は剥奪感をゲーム依存症に変えました。グリットの高い子供はそうなりませんでした。同じ拒絶、同じ不公平な感情、異なる結末です。

だから本当の危険は追い出されることではありません。自分がまだ居場所があると感じるのはゲームの中だけだと信じることです。そして私にとって、今考えているレッスンが、私たちの多くにとってのレッスンがあります。

インテントファースト型AI設計の重要性

さて、会話型AIが多くのことを間違える本当の理由と、それを修正するかもしれない新しいアーキテクチャについて話しましょう。

アドベンチャービートに投稿されました。彼らは、今日のほとんどの会話型AIは賢く聞こえるけれど、目標を間違えていると言っています。

顧客がキャンセルしたいというようなことをタイプすると、決定を下さなければなりません。サービスをキャンセルしたいのか?注文をキャンセルしたいのか、予約をキャンセルしたいのか?その情報をどのコンテキストで何をすべきなのか?

それはRAGを使用しているシステムですよね?データベースがあります。埋め込みクエリがあって、何かを検索します。でも検索は理解と同じではありません。

だから最初にモデルを訓練して意図を理解させれば、検索プロセスに行く前に意図が何であるかを考えなければなりません。それがインテントファーストアーキテクチャが行うことです。本質的には2つのモデルです。人間の脳も少しこのように機能しているかもしれないと感じますが、ユーザーが何を意味するかを分類するために、情報を調べる前に軽量モデルを使用します。

だから完全に別のモデルがあって、ああ、おそらく彼はそういう意味だと思う。じゃあ実際に請求やFAQやどんなアクティベーションステップでも、それに関する情報を調べに行こう、という感じです。

私がこれから得ている解釈は、将来的にiPhoneのようなものにローカルモデルがあって、そのモデルは問題を解決するために訓練されていないかもしれないということです。それは意図モデルで、より複雑なことであればChatGPTにクエリを送るかもしれません。ディープリサーチをするか、電話に入ってデータを引き出す必要がある場合はその決定をします。

でもモデル自体、ローカルモデルは、私たちが今それらを作ろうとしているほど賢くないし、強力でもありません。でも真に人間の意図について訓練されているんです。

トラフィックを計算資源として活用する

さて、次のものはかなりワイルドです。完全に1万フィートの視点でここを見ています。この記事を意味のあるものにするために、本当に広く考える必要があります。私にとって直感的ではなかったことですが、記事は基本的にトラフィックが最高の情報を持っているということです。トラフィックは崩壊する直前に何が起こるかについて予測を立てることに最も賢いんです。

だから、物理的なコンピューターの周りを移動する何かのようにトラフィックについて考えることができる瞬間があります。

ここで奇妙なことがあります。トラフィックは道路が空のときに最もよく計算しません。そしてすべてが詰まっているときも、みんながストップアンドゴーのトラフィックのようなときも最もよく計算しませんが、渋滞が始まる直前に予測を立てることができるデータソースとしては機能します。

研究者たちはトラフィックをコンピューターのように扱いました。比喩的にではなく、文字通りです。交差点を移動する車がパターンを作ります。それらのパターンは反応し、シフトし、波紋を広げます。その動きが情報を処理できるんです。

アイデアはハーベストリザーバーコンピューティングと呼ばれています。そしてそれは、エネルギー集約的なチップでエネルギーを燃やす代わりに、すでに動いているシステムを使うことを意味します。

彼らは小さな自動運転車とシミュレートされた都市道路でテストしました。そして彼らが発見したことは彼を驚かせました。自由に流れるトラフィックはシンプルすぎます。完全な渋滞は凍結しすぎています。でも、渋滞の直前の中程度のトラフィックは、計算する能力で豊かで生き生きしています。

小さな変化がシステム全体に広がります。その広がりが情報を運びます。トラフィックが次に何をするかを予測するのに十分な情報です。そしてほとんど余分なエネルギーを必要としません。新しいハードウェアも必要ありません。都市がすでに持っているセンサーだけです。

これは私にとってただのクレイジーなことです。都市の周りにセンサーを配置して車がどこにあるかを見て、それを計算に使うなんて。

要点はシンプルです。都市はすでに考えています。ロックアップする前にそれを捕まえる必要があるだけです。

理論的には、最終的には赤信号と青信号のタイミングを変えることができます。線がどこにあるかのような都市に微妙な変更を加えることができます。そしてあなたが計算しているのは、30秒後、1分後、1時間後にトラフィックがどのように見えるかです。

だからシステム自体、都市全体が、今この交差点でこの一つの信号を変えたら、すぐに渋滞が形成されるのか、それとも避けることができるのか、という質問を自分自身にすることができます。

そして重要なアイデアは、システムが時間の経過とともに、渋滞が形成されないようにする方法を実際に学習できるということです。

動物の方向感覚から学ぶこと

さて次です。動物がどのように方向感覚を構築するかを見てみましょう。

何十年もの間、科学者たちは一つの静かな質問について議論してきました。脳のコンパス、つまりどの方向を向いているかを知ることは、固定されたままなのか、それとも移動するにつれてリセットされるのか?

これはかなり興味深い質問です。ほとんどの人は方向は星や太陽、地球の磁場のような大きな信号から来ると思っています。でも6匹のコウモリが暗く見慣れない島に放されたとき、そのどれも重要ではないようでした。

彼らの内部コンパスは空にロックされませんでした。磁気に従いませんでした。代わりに、徐々に地面に固定されていきました。

最初は、コウモリの方向細胞はずさんでした。北、南、東、西、大まかに定義されているだけでした。でも数晩後に何かが変わりました。それらの同じ細胞が正確な方向にパチンとはまり、島のどこでもそのままでした。

少しずつではなく、地域ごとでもなく、一つのグローバルなコンパスが脳に構築されました。地面とそれから構築した地図に基づいて。

重要な詳細は、なぜAIがグラウンディングされることについて私たちが学べることがあるのか?私たち自身について学べることがあるのか?ということです。

コウモリが探索するにつれて、海岸線、テント、止まり木のようなランドマークが参照点になりました。彼らの脳は局所的な視点を一つの地図につなぎ合わせました。そしてコンパスがその地図に合わせて調整されました。

だからこれは実際に長年の議論に決着をつけました。脳は複数のシフトするコンパスを持ち運びません。一つを構築し、それをあなたが学ぶ世界に固定するんです。

だから私はこれは人間としての私たちに当てはまると思います。方向というのは、あなたがどこにいるかではなく、あなたの脳が世界として何をカウントするかを決定することについてです。

頭部方向細胞として知られるニューロンは、常に活性化しているリング状のネットワークで接続されており、細胞はランドマークに固定されます。動物が新しい方向を向くと、異なる細胞が活性化されます。

もしそれがあなたの人生を永遠に変えたなら、この人に感謝できます。ありがとうございます。

ここまで来て、チャンネルをサポートしたいなら、YouTubeのハイプボタンを押してください。モバイルなら、コメントまで下がって、左にスワイプすると、そこにハイプボタンが表示されるはずです。動画が過去7日以内に投稿されていて、週に3回のハイプのうち少なくとも1回が残っていればです。

でもハイプは私のような小さなチャンネルにとって本当に重要です。不釣り合いな注目を与えてくれます。見てくれてありがとう。もっとたくさんの記事をまとめに行きます。このビデオに入らなかったものがいくつかありました。長くなりすぎたので。だからおそらく本当にすぐに別のものをアップします。次の動画で会いましょう。

コメント

タイトルとURLをコピーしました