バイブコーダーが逮捕され身体検査を受けた話とAI業界の最新動向

AIニュース
この記事は約30分で読めます。

AI業界において重要な転換点が訪れている。Google DeepMindの共同創業者Shane Leggは2028年までに最小限のAGIが実現する確率を50%と予測し、AGI後の経済を研究する主任エコノミストの採用を発表した。一方、バイブコーディングで作成したプロトタイプが爆発物と間違えられスイスの刑務所に13時間拘束された起業家の体験談は、AI開発の現実と課題を浮き彫りにする。OpenAIはサイバーセキュリティリスクが「高」レベルに達する可能性を示唆し、コード関連の新機能リリースを予告している。Sakana AIとGoogleの戦略的提携、欧州の機械学習カンファレンスで50本以上の論文にAI生成の架空引用が発見された問題、Yann LeCunの新スタートアップLogical Intelligenceにおけるエネルギーベースモデルの発表など、AI業界は急速な再編と技術革新の渦中にある。ダボス会議では各社がOpenAIに対抗する連合を形成しているとの観測もあり、AI開発競争は新たな段階に突入している。

Vibecoder is jailed and strip searched...
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

AI経済の未来とGoogleの新たな取り組み

さて、AI業界ではかなり大きなニュースがいくつか入ってきています。まず第一に、私たち全員が仕事がなくなることやAIによる自動化について懸念を耳にしてきました。新しい経済ではいったい何が起こるのか、という話ですね。でもついに、この問題を解決しようとする真剣な取り組みが始まっています。Googleは主任AGIエコノミストを雇用する計画で、この問題に本格的に取り組み始めるようです。

うまくいけば、手遅れではないといいのですが。他のニュースでは、バイブコーダーたちが逮捕され、さらには身体検査まで受けています。セキュリティ担当者から彼らが書いたコードについて厳しい尋問を受けているんです。もちろん彼らは答えられません。なぜなら、そのコードのほとんどはバイブコーディングされたものなので、コードに何が書かれているのか100%確信が持てないからです。

全体的にかなりワイルドな話ですね。そして最後に、このチャンネルを見ている方ならSakana AIのことを聞いたことがあるでしょう。日本の比較的小規模な研究所ですが、時折、本当に驚くべき研究論文を発表しています。その多くはAIの再帰的な自己改善を中心としたものです。Red Queenが彼らの最新作でした。

彼らがどこと提携しているか、絶対に当てられないと思いますよ。分かりました、ネタバレしましょう。Googleです。彼らはGoogleと手を組んでいます。また、これらのAI研究所の間で、ある種の連合が形成されつつあることに気づくかもしれません。GoogleとAnthropicは非常に緊密になってきています。彼らはSakana AIも引き入れています。

かなり多くの統合が起こっていますが、これは通常のことかもしれません。ただ、ダボスに飛んだ大物たちの間では、噂によるとみんながOpenAIに対抗しているとのことです。その間、OpenAIは一連の新しいものをローンチする準備をしています。これは大きなものになりそうです。さあ、掘り下げていきましょう。

Shane LeggのAGI予測と経済システムの変革

まず第一に、Shane Leggですが、彼はGoogle DeepMind、あるいはDeepMindの共同創業者の一人で、後にGoogle DeepMindになりました。私たちは彼の最近の発言をいくつかカバーしてきました。インタビューやポッドキャストで彼が言っていたことですね。基本的に彼は、長い間私たちにはこのシステムがあったと言っています。そのシステムとは、私たち全員が自分の肉体的・認知的労働を提供し、能力や仕事を提供し、その見返りとしてリソースへのアクセスを得るというものでした。

これは本当に素晴らしく、ある意味広範な言い方ですが、それは歴史上ほぼどの時代にも適用できるからです。今日、あなたは肉体労働であれ知識労働であれ何であれ働いて、お金で支払われますよね。給料をもらうわけです。それがあなたのリソースへのアクセスです。何でも好きなものを買いに行けます。

でもこのシステムは、給料やお金やW2フォームなどがあるずっと前から存在していました。狩猟採集民の時代でさえ、まだそんな感じでした。例えばバスケットを作るのが本当に上手だったとします。あなたはバスケットを作り、もし速ければ狩りができました。狩りに行って、その見返りとして多少のリソース、食べ物、焚き火のそばの場所などを手に入れるわけです。

それでShane Leggが基本的に言っていることは、彼は言葉を濁していませんが、AGIが来たら、このシステムを壊す可能性が高いと言っているんです。それは混乱をもたらすでしょう。もちろん、以前にもこれについて話している人たちを耳にしたことがあります。それは必ずしもニュースというわけではありません、少なくとも新しい理論ではありません。つまり、多くの人が「何かが来る。私たちは何をすべきか」と言っているのは知っています。そして実際に大きな提案をまとめた人はほとんどいません。

非常に賢い人たちが取り組んでいますが、もっと必要だという感じがします。だから、これを見て私は非常に興奮しました。これは1月22日に起こりました。Shane Leggが言っているのは、AGIは今や目前に迫っており、経済を含む多くのことを深く変革するだろうということです。私は現在、ポストAGI経済学を研究する小さなチームを率いるために、直接私に報告するシニアエコノミストを雇おうとしています。

応募者、つまり雇われる人は誰であれ、おそらく地球上で最もかっこいい肩書きを持つことになるでしょう。少なくとも非常に斬新な肩書きです。主任AGIエコノミスト。もしあなたがその分野にいるなら、これは間違いなく一生に一度の機会のように聞こえますし、非常に重要な仕事でもあります。

さて、誰かが時間枠は何か、目前とは何かと質問しました。Shane Leggの答えは、一部の人にとっては驚きかもしれません。彼は2028年までに最小限のAGIが実現する確率は50%だと言っています。それは驚くべきことではないはずです。その範囲、その辺りにある多くの推定や予測を聞いてきましたから。

でもここからが驚きの部分です。彼は続けてこう言っています。2009年頃から私が公に言っているように。つまり、これは最近の予測ではないんです。彼はほとんどの人がこのことに気づいたり考えたりする前からこの予測を持っていました。つまり、ここにまた、このテクノロジーがどう進歩するかについて非常に優れた予測能力を持つ非常に賢い人がいて、何かを言っているわけです。

彼は「私たちが知っていて愛していて慣れ親しんでいるこの経済、仕事とかそういうものは消えていくだろう。私たちは何をすべきか。考え始めるべきだ」と言っています。だから、もしあなたが物事がどこに向かっているかを把握しようとしているなら、これを単なるもう一つのデータポイントとして加えてください。

バイブコーディングで逮捕された起業家の体験

次は、起業家のダボスでの13時間の刑務所生活です。彼の罪はバイブコーディング。邪悪なバイブコーダーは刑務所行きです。では、ここで何が起こったのか見てみましょう。真相を究明しましょう。

これはSebastianです。彼は言っています。ダボスにスタートアップのピッチをしに飛んだが、代わりにスイスの刑務所の独房で13時間過ごすことになった。なぜなら彼のプロトタイプがIEDのように見えたからだ。IEDとは即席爆発装置のことです。つまり、言ってみれば手作りの爆弾のようなものですね。これがそれがどんな見た目だったかです。確かに、それと間違えられたのも理解できます。

面白い話ですが、ある会話で私はうっかりIEDの代わりにUTIと言ってしまったことがあります。その略語を混同してしまったんです。正直、あれから立ち直れるかどうか分かりません。それでSebastianは続けます。私にとってはMVPだが、WFの警察にとってはカテゴリーAの脅威だった。でも分かりますよね。本当にたくさんの略語があります。一つを別のものと混同する可能性は十分にあります。それらの二つを簡単に混同する可能性は非常に高いと思います。なぜ彼らが5分間私を笑っていたのか分かりません。

とにかく、彼は続けます。彼の罪。彼はサーモンロールが欲しかった。もしそれが罪なら、私は死刑になるでしょう。サーモンの刺身は、人類がこれまでに生み出した最高の食べ物だと確信しています。基本的には生のサーモンの切り身です。つまり生魚です。もっとも、直接源から入手してその場で食べるのでない限り、何らかの処理があります。でも調理はされていません。そして本当に高級なもの、質の良いものを手に入れる必要があります。

でも地球上で最も美味しいものの一つだと思います。もしまだ試したことがないなら、この世を去る前に一度試すことを目標にしてください。だから私はここでSebastianを理解しています。彼に共感します。彼はサーモンロールが欲しかったんです。

彼はグランドホテル・ベルヴェデーレにいました。サーモンロールのトレイを見つけました。彼はスナックを取りに行くために3分間、サイドテーブルに装置を置きました。こんな感じだったようです。振り返ると、それはなくなっていました。彼はバーテンダーに尋ねました。バーテンダーはセキュリティを指さしました。セキュリティは警察を指さしました。警察は特殊部隊チームを指さしました。

これが犯人です。むき出しの配線、3Dプリントされたケース、ホットグルーの塊。サンフランシスコでは、私たちはこれをアジャイル開発と呼んでいます。世界のリーダーたちを守る高度なセキュリティゾーンでは、彼らはこれを相当な理由と呼んでいます。

私は説明しようとしました。これは爆弾ではない。これは契約インテリジェンスのためのハードウェアウォレットだと。でも彼らは「これを持って行け、手錠をかけろ、刑務所に放り込め」という感じでした。なぜならどちらであろうと関係ないからです。刑務所に入れろということです。

尋問はスパイスリラーのようでした。彼らは彼の指紋を採取して、国際スパイデータベースに載っていないか確認しました。彼らは彼の睡眠薬を没収しました。シアン化物カプセルかもしれないと思ったからです。彼らは警察による正式な退去命令を発行しました。これを言うのが大好きです。きっと間違って発音していると思いますが、面白いです。

サイバーセキュリティとバイブコーディングの課題

ここで私たちAI関係者にとって興味深くなると思います。なぜなら、自分自身がこの状況に陥ることを想像できるかもしれないからです。ちなみに、これを録画している時点で、私はほぼいつもClaude Codeを動かしています。時々そこに入って、続けるように伝えたり、質問があれば答えたり、新しいタスクを与えたりしています。

でもここが問題なんです。私はコードを見たことがありません。恥ずかしながら実際には知らないんです。つまり、何を作るはずかは知っています。なぜなら私が何を作るべきか伝えたからです。でもコードは見ていません。だから中に何が入っているか全く分かりません。

だから、誰かが「これは悪意のあるコードで、犯罪的な悪事を働くために使われるものだ」と言ったら想像してみてください。どう説明しますか。あなたは「全く分かりません。ゲームを作るように言っただけです」という感じです。

ちなみに、Ethan Malikは1日1ゲームを投稿しようとしています。彼はClaude Codeで1日1ゲームを作ろうとしています。これが今日のゲーム、Grid Rogueです。もしBalatrをプレイしたことがあるなら、これは三目並べのBalatrです。実際かなり見事です。

私は三目並べの部分はあまり好きではありません。Balatrを取って他の何かに加えるというアイデアには何かあります。他のゲームに加える、それは確かに正しい感じがします。

このバイブコーダーは拘束され、身体検査を受け、薬を取り上げられました。そしてここがクレイジーな部分です。彼を釈放しようとした時、彼らはChrisという名前の法医学技術専門家を呼びました。彼がChrisを引用符で囲んでいるのは興味深いですが、おそらく本名ではなかったでしょうが、重いスイス訛りでChrisと自己紹介したのだろうと想像できます。

それでSebastianはChrisに説明しなければなりませんでした。自分はハードウェアエンジニアですらない。CursorのAIパワーユーザーだと。つまり、彼はCursorを使ってバイブコーディングしているんです。彼は43,000回のエージェント実行を行ったと言っています。そして彼は言いました。Claude AIを使ってファームウェアをバイブコーディングしたことを認めたと。Chrisはまばたきもしませんでした。彼は座ってRustのコードを一行一行監査しました。

最高の部分は、コードがAI生成だったので、ChrisがSebastianに彼自身のアーキテクチャを説明しなければならなかったということです。分かりますか。彼は「このコードには何が入っているのか」と聞かれます。Sebastianは知りません。だからChrisは「この部分はこれをやって、この部分はこれをやって」などと説明するんです。

でもChrisはワークフローを検証しました。州検察官への彼の評決は「完全に問題ない」でした。彼は実際にRustの構造に感銘を受けていました。検証は最も奇妙な場所からやってくるものです。

そうです、刑務所で、あなたを調査している人から、あなたのバイブコーディングされたRustコードの構造がいかに優れているかについてコメントをもらうんです。それで彼はスイスの刑務所システムをレビューしています。5つ星です。アメリカの刑務所システムに5つ星を付ける人は誰もいないと思います。それはスイスのプロフェッショナリズムだけに与えられるものだと思います。

Meyer警官はプロでした。5つ星。セキュリティ。彼らは私を2回身体検査しました。セキュリティがどれだけ優れているかという評価なら5つ星をあげるのも分かります。侵襲性についての評価なら1つ星でしょうけど。そしてもちろん、ラザニア5点満点中5点。彼は正直に言って10点満点中10点だと言っています。

彼は創業者として入り、犯罪者として出て、また創業者として出たと言っています。だから私はこの話を本当に皆さんに知ってもらいたかったんです。私にとってこれはすべてを持っているからです。ドラマ、ダボス、バイブコーディング、明らかに信じられないほど楽観的な人物、そして彼は素晴らしい人のように聞こえます。

つまり、この人を知りませんが、本当に素晴らしくて素敵な人のように聞こえます。想像できますか、このような経験をして、それについてこんなに陽気で楽しく、気軽な話を書くなんて。この話にはすべてがあります。ドラマ、陰謀、そしてもちろんサーモンロール。どんなストーリーアークにも不可欠な部分だと思います。

OpenAIの新機能とサイバーセキュリティリスク

次は、Sam Altman自身が言っています。コーディング関連で来月にかけて多くのエキサイティングなローンチがあります。来週から始まります。皆さんが喜んでくれることを願っています。そしてここが私にとってすぐに興味深くなる部分です。つまり、興味深いです。彼らが何をリリースするか楽しみにしています。

でもこの部分、彼らは言っています。私たちの準備態勢フレームワークでサイバーセキュリティの高レベルにまもなく到達します。私たちはこれに備えてきました。

OpenAIには準備態勢フレームワークがありますよね。つまり、リスクのカテゴリーと、さまざまなモデルがどれほど危険である可能性があるかの種類があります。そして彼らは、リリースされた時にモデルが潜在的に持つ可能性のあるリスクに関して、徐々に上昇し始めているのを見ています。

低、中、高、クリティカルがあります。中レベルのカテゴリーに達したと思いますが、まだ高カテゴリーはなかったと思います。カテゴリーはサイバーセキュリティ、CBRN、説得、モデル自律性です。そしてこれがゆっくりと這い上がっているのを見てきました。モデル自律性は彼らのモデルの一つで中レベルです。

もちろん、仕組みとしては、モデルのスコアはどのカテゴリーでも最高のリスクになります。つまり、一つが高になれば、総合的なリスクは高になります。でも彼らが言っているのは、このカテゴリー、サイバーセキュリティが中から高へ移行する可能性が高いということです。

Samは続けます。サイバーセキュリティは厄介で本質的にデュアルユースです。世界にとって最善なのは、セキュリティ問題が迅速にパッチされることだと私たちは信じています。私たちは、私たちのコーディングモデルを使ってサイバー犯罪を犯す人々、例えばこの銀行にハッキングしてお金を盗むなどをブロックしようとするなどの製品制限から始めます。

そして長期的に、証拠でサポートできるようになったら、主な緩和策としてバグをパッチする人々を助ける防御的加速に移行する計画です。世界がソフトウェアをより安全にするためにこれらのツールを迅速に採用することは非常に重要です。まもなく世界には非常に有能なモデルが多数存在することになります。

これが何を意味するか分かりますか。これはフェンスです。フェンスの画像です。それが私のヒントです。これは防御です。これは攻撃です。

基本的にサイバーセキュリティは他の多くの分野と同じように、猫とネズミのゲームのようなものです。悪者、つまり犯罪を犯そうとする人々は、何らかのウイルスやハッキングを考え出します。そして彼らは改善します。だから防御側、サイバーセキュリティの専門家たちも改善しなければなりません。

私が何を描いているのか分かりませんが、アイデアは分かるでしょう。各側はステップ関数のようなもので、前のものの上に構築されます。各側は一緒に成長します。それは軍拡競争です。おそらくそれが言う最良の方法です。でも重要なのは、一方が良くなると、もう一方が追いつくということです。もう一方が良くなると、もう一方が追いつく、そしてこれが続きます。

これが起こっている間、ある種の安定性があります。一方が完全にもう一方を圧倒して勝つことはありません。そして私たちはそれに慣れてきました。でもこれらの高度なAIモデルの問題はここにあります。この種の安定性が続くことは保証されていません。

例えば、あるモデルがただそこに座ってサイバー攻撃を実行する100万通りの可能性を考え抜き、それを防御する方法を考え出す状況を想像できますか。つまり、すべてがパッチされ、防御が10倍、100倍に増幅されて、攻撃ベクトルを思いつくことがほぼ不可能になるポイントまで。

それは少し奇妙だったり突飛に聞こえるかもしれませんが、もっと現実的なシナリオは、もしその種の急速な能力拡大がサイバー攻撃で起こったらどうなるかということです。それがコーディングを知っているかどうか、サイバーセキュリティを知っているかどうか、英語や他の言語を話すかどうかに関わらず、世界中の多くの人々に銀行やウェブサイト、嫌いな国の重要インフラに対する攻撃を実行する能力を与えたらどうなるでしょうか。

例えば、これを知らなかったかもしれませんが、中国は台湾に対して大規模で持続的かつエスカレートするサイバー作戦に従事しており、2025年のデータでは重要インフラ、政府、金融、テクノロジーセクターを標的とする1日平均263万件の侵入試行を示しています。

つまり、ランサムウェア、DDoS、ソーシャルエンジニアリングでサービスを混乱させ、情報を収集し、政府を不安定化させようとする試みです。そして彼らが言ったように、それはしばしば国家支援の行為者からのものです。つまり、政府が資金を提供し、おそらく技術、リソースを与え、人々自身もおそらく技術的に非常に洗練されているということです。

でも重要なのは、今のところそれは大規模で裕福な国で、高い専門知識を持つ人々がいるということです。それをするにはそれが必要です。でもAIがあれば、それが窓から投げ出される可能性があると想像できます。それは母親の地下室にいるただの男とか、何でもいいですが、それが彼らにこれらの攻撃を大規模に実行することを可能にするかもしれません。または実際に突破してダメージを与えたりデータを抽出したりする高度な能力を持つことを可能にするかもしれません。

だから、規模を増やすだけなのか、洗練度を増やすのかに関わらず、攻撃側、サイバー攻撃を実行する能力が大規模に増加し、防御側がそのレベルまでスケールアップできるものがないという潜在性が見えます。

だから質問は、この一方向または他方向へのバランスのようなものがあったらどうなるかということです。世界はどうシフトするのか。世界はどう変わるのか。もし私たちがこれらのモデルでサイバーセキュリティリスクの高レベルに達しているなら、もちろんこれらの質問の一部について、何が起こっているか見始めることになるでしょう。

Sakana AIとGoogleの戦略的提携

他のニュースでは、Sakana AI、日本の私のお気に入りのAI研究所ですが、正直に言うと、これが私が知っている日本の唯一のAI研究所です。でもそれにもかかわらず、私のお気に入りです。私たちはこのチャンネルで彼らのたくさんのコンテンツをカバーしてきました。そしてそれらの動画が得る視聴回数から判断すると、皆さんも楽しんでいるようです。

まず、ありがとうございます。そしてもちろん、素晴らしいコンテンツを生み出してくれているSakana AIにも感謝します。その多くは自己改善するAIのアイデアを中心にしており、彼らはその分野で素晴らしいことをしています。そして今日、彼らはGoogleとの戦略的パートナーシップを発表しています。

GoogleはまたSakana AIに財政的投資を行い、このコラボレーションを強化しています。これは私たちの技術的深さと日本でAIを前進させるという私たちのミッションの認識を強調しています。私たちはGoogleの世界クラスの製品と私たちのアジャイルなR&Dを組み合わせて、GeminiやGemmaのようなモデルを活用することで複雑な課題に取り組みます。私たちは自動化された科学的発見におけるブレークスルーを加速します。

別の言い方をすれば、そういうことです。彼らがやっていることの多くは自動化された科学的発見ですが、彼らの論文の多くに共通するテーマは、AIが各反復を通じて自身の努力を改善する何らかのループを見つけようとすることです。だから時間の経過とともに、通常は進化的木探索を使用して、それが改善していくのを見ることができます。

非常に魅力的で、彼らは政府や金融機関などともっと多くの仕事をしています。だから彼らがこれでどこに行くのか見るのが非常に楽しみです。

AI論文における幻覚問題

他のニュースでは、ヨーロッパの機械学習とAIに関する会議があります。彼らは言っています。ヨーロッパ2025で発表された50本以上の論文にAIの幻覚があることを発見しました。完全に作り上げられた論文、他のいくつかの論文を含むもの、引用におけるさまざまな幻覚があります。

彼らはJohn SmithとJane Doeが多くの引用を受けていることを発見しました。彼らはUCSDとNvidiaの全く異なる2つのチームによって引用されました。痛いですね。姓名などの存在しない著者をバイブ引用している別の例です。出版日が何年もずれています。

そしてこれらの論文は、不採用になった15,000の他の論文を打ち負かさなければなりませんでした。どうしてこんなことが起こるのでしょうか。さて、これを投稿している人、Alex Kuiは言っています。GitHub上のAI科学者の使用が大幅に増加しており、4月と9月の会議に対応する使用の大きなスパイクが見られます。

これにはSakana AIのAI scientistが含まれており、そうです、Sakanaには論文を書く自動化されたAI科学者があり、引用の幻覚を防ぐためのいくつかのものが含まれています。実際、引用の一つに、Juergen Schmidhuberという人がいます。これが彼の見た目です。

そしてこの小さなイラストがあります。GoogleやMetaなどの西洋の研究所の最もよく知られたAI科学者の何人かと一緒に、彼の答えをコピーしているはずです。それが彼の主張です。彼は初期の機械学習とAI論文の多くのアイデアを発明したと、そしてこれらの人々は彼から学んでコピーしたにもかかわらず、決して彼の作品を引用しなかったと。

面白いのは、Sakana AIのAI scientistが論文の一つで、実際に話したことの一つがJuergen Schmidhuberによって書かれた論文または本からのものだったということです。だから彼が書いたか、共著者だったか、とにかく彼の名前が論文にあったんです。

それでAI scientistはその論文からいくつかのアイデアを取り、引用で誤って別の誰かに帰属させました。私はこれが本当に、つまりちょっと悲しいけど、ちょっと陽気だと思いました。なぜそうするのか不思議に思います。誰も彼を引用しないのを見たのでしょうか。だから「ああ、多分それが人間のやることなんだ。彼らは彼の作品を引用しないんだ。私も同じことをしよう。彼のアイデアを取って、他のランダムな人に提示しよう」と。

それが陽気だと思いました。でも重要なのは、そうです、これらのものは引用を幻覚させるということです。チェックとレビューシステム、自動化されたAIレビューシステムがありますが、まだ100%の精度には達していません。だからこれが部分的に原因である可能性があります。

でも、驚かないでしょう。こんなものは本当に必要ありません。つまり、一部の人々は、確実に、単純な昔のChatGPTや何でもチャットボットを使って、文書の多くを作成しているだけです。

だからAlexは言っています。周りを見渡すと、多くの人が幻覚の増加に気づいていましたが、誰も解決策を構築していませんでした。だから私たちは過去1年間、GPT0.me/hallucination-detectorを構築するために努力しました。

これがそれです。チェックする機会がまだありませんでした。これについて聞くのは初めてです。でも本当にこれが機能することを願っています。うまく機能して、幻覚を検出し、うまくいけば人々がそれらを修正できるようにすることを。

だから、これは素晴らしいツールのように聞こえます。繰り返しますが、チェックしていないので、彼らとは提携していません。どれだけうまく機能するか分かりませんが、彼らが良いもの、機能するものを作っていると仮定すれば、Alexとチーム、チームがあれば、皆さんは神の仕事をしています。ありがとうございます。

Yann LeCunの新スタートアップとエネルギーベースモデル

そしてもちろん、この画像の右側にいるこの人、それがYann LeCunです。Yann LeCunだと思います。フランス語のアクセントまたはフランス語の発音ではそう発音します。

それで、彼がニュースに戻ってきています。彼はMetaをかなり派手に去りました。超知能チーム、Alexander Wangについてあまり良くないことを言いました。でも彼は足で着地し、すでに真新しいスタートアップの一員です。

Logical Intelligenceが最初のエネルギーベース推論AIモデルを紹介し、技術研究委員会の創設議長としてYann LeCunをリーダーシップに迎えます。創業6ヶ月のシリコンバレーのスタートアップがKonaと呼ばれるエネルギーベースモデルを発表しました。

彼らのすべては、確率ではなく確実性です。もちろん大規模言語モデルは確率的です。そして多くの人々が、それは行き止まりだと言っています。なぜならランダムに答えを思いついているからです。ランダムではありませんが、ある意味で推測しています。だから基盤やチェックなしでは、幻覚する可能性があります。ちょうどAI論文のAI引用で見たように。

でもここが問題です。これはSakana AIのDarwin Girdleマシンです。だから重要なのは、自分のコーディングの足場を改善できるかと尋ねると、オーケーと言って、そのことに16回の試みがあり、それらのいくつかは間違っています。

だから、このコードを改善する方法はこうだと言って、それはうまくいきません。コードは改善されません。だから幻覚だと言えます。それは理にかなっています。

でもSakana AIがやったことはこうです。ちなみに、Google DeepMindも彼らの進化モデルAlpha Evolveで同じことをしました。彼らはそれらの答えをテストして、機能するかどうかを確認します。実際にベンチマークを通してそれらを実行し、もし改善すれば、その系統、その系譜で答えを生成し続けます。

だからそれが進化的探索と呼ばれる理由です。分かりますか。生物学が最適なものに向けて進化するのと同様に、これは最良のコードに向けて進化します。改善しないものは消滅します。それらの系統、それらの系譜は消滅します。そしてより良いパフォーマンスをするものは生き残り、続き、進化します。

そして私が思うに、多くの人々が「ああ、それは統計だ。ランダムだ。確率的オウムだ」などと言う時に見逃しているのはそれだと思います。そうです、それが起こっていますが、それがこれが起こる方法です。自然も同じように機能します。それが私たちが親指と大脳皮質などで進化した方法です。

生き残る能力を欠いていたために消滅したすべてのもの。つまり、間違いがあったと言えますが、それは意味をなしません。システムは正しい解決策またはある最適な解決策、最も適したものなどに到達しました。そしてそれは最初の試みではやりませんでした。確実性を持ってやりませんでした。完璧な生命体を作る方法はこうだ、完了、という感じではありません。

いいえ、それは確率を通じて、長い進化の過程を通じて行われました。それでYann LeCunはしばらくの間、LLMsは私たちをAGIまで連れて行かない、もっと検証可能なもの、確実性のあるもの、推測や確率に基づかないものが必要だと言っていました。

この全体に対する私の見解は、彼のアイデアが何か、どこに持って行くつもりかを見るのが非常に楽しみだったということです。私は彼がLLMを引きずり下ろそうとする必要性、「ああ、それらは決してうまくいかない」と言う必要性を理解したことがありませんでした。

つまり、今LLMsは太陽の下で彼らの日々を過ごしています。彼らは明らかに何かに役立っています。つまり、繰り返しますが、Claude Codeは最終的に非常によく機能するソフトウェアを吐き出します。私は日常生活でそれを使っています。私の生活をより良くし、より生産的にしてくれます。

そうです、「ああ、それは推測だ。ランダムだ。確率だ」と言えます。いいでしょう、それで。最終的に価値のあるものを生み出しますか。はい、生み出します。そして多くの人々が、それが改善し続けるだろうと多額のお金を賭けています。

それはYanが取り組んでいることが間違っているという意味ではありません。彼はAGIへの別のアプローチを見つけるかもしれません。それは絶対に見事で、多分それ自身の制限があるかもしれませんが、強みもあります。多分いくつかの方法ではLLMsよりもずっと優れているかもしれません。

私が理解したことがないのは、なぜ彼のものを提示するためにLLMsを引きずり下ろす必要があるのかということです。だから確かに、彼に幸運を祈ります。私たちが彼と彼の新チームから、他のアプローチがあることを示す信じられないほどのブレークスルーを見ることを願っています。それは別のもの、別の経路、AGIへの潜在的な経路を加えることになるので、信じられないほど興奮するでしょう。

それは絶対に信じられないでしょう。だから、彼に幸運を祈ります。でも繰り返しますが、彼がLLMがうまくいく可能性はないと言う時、彼は多くの好意を消去し、人々に彼を少し疑わせているかもしれないと思います。

2023年のように、彼はLex Friedmanのポッドキャストに出ていました。これはGPT-4がリリースされる直前、数日か多分1週間前でした。そして彼は、私たちが話したすべてのことのために、大規模言語モデルは物理的世界で何かがどう動くかを決して予測できないだろうと言いました。

だから彼は、私が自分の携帯電話を取って、この机の上に置き、指を取って携帯電話を押すとしましょうと言いました。彼はどの子供でも携帯電話に何が起こるか推測できるだろうと言っています。それは動きます、机の上を滑ります。

でも彼は言っています、でも実際にLLMsでは、彼らは決してそれを理解できないでしょう。なぜならどこにもそれが物の動き方だと書かれていないからです。誰も座って、もしあなたが指を取って携帯電話を押したら、それはテーブルを横切って滑るというようなことを書きませんでした。

さて、明らかに私たちはそれが間違っていることを知っています。GPT-4から始まるこれらのモデルは、それらの関係や因果関係がどう機能するかなどを理解するのが非常に上手でした。

だから、明らかに何かが見逃されました。なぜならこれらのモデルと多く働くと、オーケー、彼らは明らかにデータを圧縮していて、何らかの意味を引き出していることに気づき始めるからです。彼らは世界の何らかの理解を引き出しています。

だから、指で押したときにテーブルの上に座っているiPhoneに何が起こるかを説明する本が外にないからといって、それでもすべての本、すべてのインターネットなどを読むことから学んだすべてに基づいてそれを理解します。

だから繰り返しますが、Yann LeCunに対する大きな敬意があります。私は彼が他の非常に良い方法があると話している時は信じる傾向があり、そこでは完全な信頼性があると思います。彼がLLMsの制限について言うことは、私は少し懐疑的に受け取る傾向があります。なぜなら私たちは彼がLLMsがどうスケールするかについて特定の予測をするのを見てきたからです。そしてそれは実現しなかったことが分かっています。

LLMsはより良く、より賢くなり続け、多くのことを予測し、この世界を非常に正確に説明できるようになりました。だからここで彼は言っています。みんな同じ解決策を追いかけている。うまくいかない。AIはLLMsと等しいということを学び直す時が来た。

私にとって本当に興味深いことの一つは、彼がいつも、考えてみてください、LLMsはどうやって未来を予測できるのか、彼らはただ言葉を通じて考えているだけだ、どうやって彼らの未来の状態や彼らの行動の結果を予測できるのかと言うことです。そして私はそれを理解したことがありません。言葉でそれができない理由は何ですか。

言葉で考えますか。ナレーション、内部対話がありますか。ほとんどの人にはあります。誰かがかつてTwitterで尋ねました。「ねえYan、内部モノローグはありますか」。そしてYanはノーと言いました。そしてそれは存在することです。かなり一般的です。

だから30%から50%の人々にとって一般的な経験です。内部の自己会話の代わりに、この経験がない一部の人々は自分の考えを声に出して話すかもしれません。外部の手がかりにより頼るか、タスクに集中していない時は単に心が空白であることに気づくかもしれません。絶え間ない内なるおしゃべりを持つ人々にとって驚くべき状態です。

私にとって、LLMsとそれらが異なる単語間のすべてのつながりを学んだという事実、そしてそれだけに基づいて彼らが概念と物事を考え抜く方法を学ぶことができたということを学び始めた時。その推論が言葉にあったという事実、それはすべて言葉にエンコードされていた、それは私にとって意味をなしました。なぜなら私の考えは言葉だからです。

だからもちろんそれは考えることができます。私は言葉で考えます。だからこのものも言葉で考えることができるはずです。でももしあなたがそれがあなたが情報を処理する方法ではない、考える方法ではない人々の一人なら。もっと視覚的か何か抽象的です。どんなものか想像もできません。言葉が考えとしてない。私はそれを理解することさえできません。

でもおそらくあなたにとっては、その逆が真実であることも同じくらいワイルドでしょう。だから誰かが「ああ、これらのものは言葉を通じて考える」と言う時。あなたは「まあ、もちろんそうしない。どうやってできるのか。どうやって言葉を通じて考えることができるのか」という感じです。

だから、それがYanについて真実かどうか、そしてそれが多分彼をLLMsがうまくいく可能性のあるアイデアに反対させるものかどうか興味があります。分かりません。多分それは愚かなアイデアですが、私はいつもそれについて疑問に思ってきました。

AI業界の連合形成とOpenAIへの対抗

そして本当に速く、これはニュースソースからです。ダボスがAIの縄張り争いを開始します。だから、ダボスの集まりにいた誰かがいました。そこからいくつかのクリップを見ました。DemisとDario AmodeiがAnthropicと一緒に座って話していて、非常に仲良しという感じで、「ああそうです、私たちは多くの緊密なコミュニケーションがあり、一緒に働いています」と言っています。

だから彼らは「そうです、私たちは本当に同期しています」という感じです。そしてもちろん、今GoogleはSakana AIに財政的利害を持っています。ちなみに、彼らはAnthropicにも財政的利害を持っています。AnthropicはTPUで動いています。それはGoogleのハードウェアです。

AGIの翌日のその話の間、彼らは「ああ、非研究者によって運営されているAI研究所はうまくいかない」というようなことを言っています。少なくともそれが彼らが作ろうとしていたポイントのようなもので、それは確実にOpenAIに指を向けています。多分他の研究所もそうですが。

ダボスに旅行したこの人は言っています。一方、OpenAIのライバルたちは、Altmanの積極的な容量確保の試みに特に苛立っていると私に言いました。そして一部の人々は、それが行っている目を見張るようなコミットメントの支払いに必要な収益をまだ示していない不採算企業によって取引から締め出されることに不満を感じています。

だから彼は言っています。今週ダボスでAIリーダーたちとの会話の後、彼は業界が集団的にOpenAIに対抗することを決定したという印象を受けました。

だから、OpenAIを追い出そうとしている異なる研究所すべてが可能でしょうか。OpenAIは確実にChatGPTの瞬間を引き起こした最初のAI企業で、このレースを始めました。彼らは確実にスポットライトを浴びていましたが、その後多くの企業が追いつき始めました。

OpenAIが先行している間、彼らはおそらく他の人々を怒らせたりイライラさせたりすることをしました。つまり、それは通常のビジネス戦術でした。Googleが行おうとしているどんなGoogleプレゼンテーションからも常に注目を奪おうとしていました。

そしてもちろん、MicrosoftのSatya Nadellaが、Googleを踊らせようとすると言っていました。そして確実にGoogleは踊りました。そして今、誰も踊りたくありません。少なくとも競合他社であれば、踊りをやめて、ある種の眠れる巨人に戻ることを望むでしょう。代わりに、それは激しく動いており、急速に、AI大国になるために必要な多くのものを構築または取得しています。

いくつかのものは10年以上先の未来にあります。プロジェクトサンキャッチャーのようなもの、AIモデルをトレーニングするための宇宙にデータセンターを構築するというアイデアなど。彼らは未来をよく考えており、確実に、OpenAIからすべてのユーザーを獲得したい、すべてのユーザーがGeminiを使用するようになれば、それは彼らにとって大きな勝利になるでしょう。

だから、これすべてについてどう思うか知りたいです。OpenAIはトラブルに陥っていると思いますか。人々がそれに少し対抗しようとしていると思いますか。Yann LeCunについてどう思いますか。彼は正しい道を進んでいると思いますか。LLMsは最終的に行き止まりになると思いますか。

そしてGoogleがここで例えば主任AGIエコノミストを雇い始めることについてどう思いますか。それについてのあなたの見解は何ですか。人々が起こっていることについて少し真剣になっているように見えますか。繰り返しますが、もし彼が2028年までに最小限のAGIを持つと呼んでいて、2009年以来それを言っていたなら、明らかに彼の物事がどこに向かっているかを予測する能力はかなり良いです。

だから、もし今彼が「ねえ、私たちはこの経済のことを調べ始めなければなりません、なぜならそれは崩壊するからです」と言っているなら、それをただ却下しますか、それともこの専門知識、これらのリソースを持つ誰かが真剣にそれを調べていることに感謝しますか。コメントで教えてください。

ここまで来てくれたなら、見てくれて本当にありがとうございます。私の名前はWes Rothです。次回お会いしましょう。

コメント

タイトルとURLをコピーしました