Google Genie 3、YouTube AIツール、そして世界的なAI競争

AIニュース
この記事は約28分で読めます。

この動画では、Google Genie 3という革新的な世界モデルを中心に、AI技術の最新動向を幅広く解説している。Genie 3は単なる動画生成を超えて、テキストプロンプトから完全にインタラクティブな3D環境を生成できる画期的な技術である。また、YouTubeの新しいAI年齢推定アルゴリズム、ボリウッド映画のAI生成新エンディング問題、Character.AIのソーシャルフィード機能、MITの対称データ機械学習、エピジェネティクス基盤モデルなど、AI分野の多岐にわたる最新トピックを関西弁の親しみやすい語り口で紹介している。

Google Genie 3, YouTube AI Tools & Global AI Race
NEWSLETTER ✉️ 💰 ⤵YouTube ▶️

ロボット犬対策から始まる未来への準備

世界政府がロボット犬の攻撃をかわす方法についての新しいビデオを出しとるんや。もうそろそろこんなもん覚えとかなあかんかもしれんで。見てもらったら分かるけど、橋の下におるとええみたいやな。暴走した自律兵器っちゅうんは、整列してへん人工知能が原因なんや。普通の兵器みたいなもんやけど、何倍も強力なんやで。

めちゃくちゃ賢くて、逃げるんも難しいんや。研究者らは今、ロボットのしっぽを開発しとる。これはコスプレでも人気出そうやけど、バスケとかバランス系のスポーツでも使えそうやな。ほんまに有利になるかもしれん。せやから、しっぽが未来かもしれんで。まだそこまでは行ってへんけど、見てもらったら分かるように、進歩しとるんや。

プロパガンダがどうやって広がるかを見せる新しいビデオゲームがあるんや。この短いクリップを見てめちゃくちゃ勉強になったわ。みんなもそうやと思う。Airbnbのオーナーが実際にはやってへん損害でゲストに請求して、AIを使ってテーブルに偽の亀裂を作って金を要求したんや。そんなん思いもせえへんかったわ。

とんでもない新手の詐欺やで。YouTubeは君が何歳かを判定する新しいAIアルゴリズムを導入したんや。特に18歳未満やと思われる人に対して敏感になっとる。どういう仕組みかっちゅうと、めちゃくちゃ興味深い変化やで。

ボリウッドのAI結末とキャラクターAIの進化

ボリウッドのスタジオが最新のAI動画技術を使って、有名な映画の一つに新しいハッピーエンドを作ることにしたんや。元の作品に出とった才能ある俳優らは新しい結末に同意してへんから、全然嬉しくないんや。

偽のボットだけじゃなくて、完全に100%偽のボットに支配される最初のソーシャルネットワークになるかもしれん動きで、Character.AIがAIで生成されたエージェントの人々、キャラクター、アバター、何て呼んでもええけど、そいつらのソーシャルフィードをアプリに追加したんや。

Google Genie 3の衝撃

Google のGenie 3が出たで。VO3がやばかったと思うやろ?フレームごとの更新も含めてな。せやけど、あのレベルの詳細を持った新しいフロンティア世界モデルがインタラクティブになったらどうや?それがGenie 3なんや。レビューするで。

これはマジでやばい話やで。先週の量子機械学習の話はちょっと難し過ぎたけどな。これもまた、そんな感じのやつやけど、カバーするには魅力的すぎるんや。対称データを使った効率的な機械学習を可能にする新しいアルゴリズムなんや。

めちゃくちゃに聞こえるかもしれんけど、俺が理解した限りでは、データを何らかの意味で対称に保つと、数学の対称性みたいなもんがあって、それで信じられへんような予測ができる機械学習モデルができるんや。このアプローチは薬物や材料発見のためのAIモデルの強化につながるかもしれんで。カバーするわ。ワイルドやで。

新しいシリーズのエピジェネティクス基盤モデルがあるんや。これらは9000万から70億パラメータのモデルで、約2兆トークンの、これを聞いてびっくりするで、人間のメチル化とゲノムデータで訓練されとるんや。

メチル化とDNAについて話すで。エピジェネティクスが体が自分のDNAとどう相互作用するかを完全に変える理由もな。これはゲームチェンジャーになるかもしれんで。意味対視覚的特徴について話そうや。これらのAIモデルの中におるときは、意味を捉えることができるんや。それは定量化したり説明したりするんがめちゃくちゃ難しいことが多いんや。視覚的特徴は、少なくとも何か頼れるもんがあって伝えられるからな。

せやけどAIと人間は物事を全然違うふうに見てるんや。これらのモデルの一つの立場に立って、そいつらの視点から世界を見るのがめちゃくちゃ魅力的やと思うんや。Deg Gregorioの意見を見てみるで。中国が人工知能競争について理解してることで、アメリカが理解してへんことについてや。

それから、AIが実際に笑わせることができるかどうかを調べるで。本当にユーモラスになれるんか、それともただユーモアをシミュレートしとるだけなんか?もちろん、Dylan Curiousの動画やったら、マシューみたいな誰かの意見に入り込まんわけにはいかんやろ。物理主義者がなぜ意識、困難問題、そして本当の問題を軽視するかについてや。

せやけどまず、もしよろしかったら、ちょっとの間、patreon.com/dillylancingcuriousに行ってもらって、このチャンネルを可能にしてくれてる111人のメンバーに参加してもらえるかな。月3ドルからできるし、YouTubeのこの参加ボタンを押してコミュニティに参加してもらってもええで。クレジットカードの情報はもう多分登録されとるから、このチャンネルをサポートしてもらえたらな。せやけど、別にかまへんで。ここにおってくれるだけでも感謝しとる。

1960年の政府からの重要なビデオ警告があるんや。これは第二次世界大戦のPSAみたいな感じで、ロボット犬を止める方法についてやで。せやからその道を始めてもええかもしれんな。始めるで。

ロボット犬対策とロボットの尻尾

インフラ攻撃。これらは致命的に危険なんや。自分と家族を守ることができる。後で、目標を達成するために取るべきステップを見せるで。バンパイアドローンを使って空から展開できるんや。ロボットアームのような機動性機能を装備したり、これらの武器システムの一つを装備したりできるんや。アサルトライフル、スナイパーライフル、対戦車ロケットランチャー、火炎放射器やで。

一匹で狩りをするけど、最大限の損害を与えるために群れで展開することもできるんや。これを群れって呼ぶんや。群れは知的生命を殺すという目標を達成するために、コミュニケーションを取って協調できるんや。よし、安全やと感じてもらえたやろか。

せやけど、ロボット犬の群れに攻撃されたときに使える別の戦術は、ロボットの尻尾を使うことかもしれんで。それを研究者らが開発しとるんや。今のところ、これはバランスを改善するために着用できる人間の尻尾なんや。どっちの方向に体を曲げても、自動的に相殺されて、足を使わずに体を曲げるときに腰が痛くならへんようになるって想像してみいや。

着用者の重心をずらして、安定性を助けるんや。特に素早く動いたり、重いものを扱ったりするときにな。もしかしたら、お年寄りが転びそうになったとき、尻尾が反対方向に振れてバランスを保ってくれるかもしれんで。歩くことを覚える子供にもええかもしれんな。

こんなもんが将来ニューラルリンクに接続されて、脳が尻尾に直接信号を送るようになったら想像してみいや?今の手足の動かし方みたいに自然に感じるようになるかもしれんで。それはめちゃくちゃ自然でやばいやろな。特に子供が着けたらな。そんなもん推奨するのはちょっとやり過ぎかもしれん。ええアイデアかどうか分からんで。

もしも尻尾なしでは歩けなくなったらどうするんや?それはやばいで。めちゃくちゃやばいわ。ユーザーのmonkey balloonflowerが「みんな人間に尻尾があったらええのにって思ってるやろ」って言うてる。ちょっとはそうかもな。

自分はファーリーでもなんでもないって確実に知らせてくれるユーザーは、これが本当にええもんで、事故や転倒を避けるのに役立つええ方法やと思ってる。それに、ある種の美的目的もあってかっこええんや。しっぽがあったらかっこよくてかわいいやろな、正直。

コメントで君らの意見を聞かせてもらいたいわ。しっぽが欲しいか?もし欲しかったら、何に使うか教えてくれや。

プロパガンダの仕組みと新手の詐欺

誰かがビデオゲームをプレイしてる60秒のビデオから、ソーシャルネットワークがなぜそんなに破壊的なのかについて、これまで読んできたすべての資料よりも多くを学んだんや。まさにプロパガンダがどう働くかのゲームやで。彼女に任せるわ。

普通の人らや。おお、ええ帽子やな。かわいいわ。帽子が広がっとる。あ、四角や。あかん。そうや。何?四角が円をバカにしとる。なんで?いや。待て。なんで怒ってるんや?待て。何かええことが起こったで。誰が仲良くしてる人らを見るために出てくるんや?どういう意味や?みんな叫んでるやん。円は四角を嫌っとる。あ、叫んどる。なんで叫んでるんや?叫ぶのやめや。

誰もがみんなを嫌っとる。あかん、制御不能になっとる。もっと悪くなることはないやろ?せやったら、お互いに叫んでるだけやろな。ニュースメディアが金儲けしてるのを見てみいや。あかん。増幅せえ。怖がれ。怒れ。これはよくないで。AIエージェントがすぐにこんなことを俺らにしてくるかもしれん。

あまりにも早くエスカレートしたな。長い一つやった。せやけど、そのことが俺にとって本当に印象的やったんや。何百万ものエージェントが情報を共有して、俺らに物事を信じさせることにめちゃくちゃ心配してるんや。メディアがこんなふうに働いてることにもう心配してる。何が本当かわからんのや。

メディアでは悪いことがよく売れて、ソーシャルメディアでもっと遠くまで行って、もっとバイラルになるんは知ってる。それを利用して金儲けする方法を明らかに知ってる人らもいるし、社会にとってめちゃくちゃ怖いことやで。せやけどとにかく、そのゲームには何らかのメッセージ、学ぶべき教訓があると思うわ。

新しい詐欺も出てきたから気をつけや。これはAirbnb詐欺や。俺が聞いた限りでは全く新しいやつやで。ホストがAI生成画像を使って、9000ドルの虚偽損害請求をしたんや。

Airbnbに泊まって、何も損害を与えてへんと思ってたのに、後で損害を与えたから金を払えってメッセージが来て、テーブルに大きなひびが入った写真を指摘されるって想像してみいや。

この損害を作ってへんって主張する女性の弁護によると、ひびが少し違って見える2枚の異なる写真があって、それはおそらくAIが作ったもんやって言うてるんや。めちゃくちゃ細かいけど、見てもらったら、このひびの底が明るい色の木に当たってて、こっちでは少し深くなってるんや。

この場合、AIを使ったって正確にどうやって証明するかわからんのが変なとこやで。せやから、正確にはどっちかの味方はしたくないんや。明らかやとは思えんからな。Airbnbは話を収めるために両者に金を返金したけど、確実に起こりうることやし、考えるのがめちゃくちゃ興味深いと思うんや。

YouTubeの年齢推定AI

この話によると、借りた女性は実際にホストから損害を与えたって言われたんや。彼女らが言うには、ホストは主張を支持するためにAI生成画像を使ってるんや。実際にスーパーホストとされてる人、つまり今まで多くの問題なくやってきた人のホストが、ひび割れた家具と損傷した家電の写真を提出したんや。

ゲストは画像の矛盾に気づいて請求に異議を申し立てて、デジタルで改変されたもんやって主張したんや。最初はAirbnbがホストの味方をして支払いを要求したけど、メディアの注目を浴びた後に決定を覆して、滞在費を全額返金して否定的なレビューも削除したんや。

画像が従来のPhotoshopで操作されたもんか、全く操作されてへんのか、それとも簡単なAIを使って「この写真を撮って壁にひびを入れたり、ここを少し損傷して見えるようにしてくれ。9000ドル相当の損害が必要やねん。ChatGPTでできるか?」って言うたもんかどうかやで。

この事件はAIが詐欺請求を可能にする役割と、プラットフォームが簡単に操作される写真証拠への依存について、より広い懸念を引き起こしたんや。デジタル証拠の有効性と、Airbnbのようなプラットフォームが本物と偽物を区別する装備があるかどうかについて、深刻な疑問を投げかけてるんや。そして装備されてへん。俺らの誰もが。

世界で多分Facebookを除いて、誰が何者かを具体的に教えんでも判明するのがGoogleほど上手な会社はないやろな。俺の習慣、見る動画の種類、書き方、タップの間隔、付き合う人ら、そういう証拠が全部合わさって、Googleが俺の年齢、興味、人口統計について何らかの推測をするんや。

それが18歳未満か以上かでYouTubeの見え方が変わるツールなんや。YouTubeはアメリカで新しいAIベースの年齢推定ツールを展開してる。8月13日から始まって、サインアップ時に異なる生年月日を入力しても、18歳未満やと考えるユーザーを自動的に識別するんや。

せやから、嘘をつこうとしても「君は19歳やって言うけど、Minecraftの見方とか、今レゴにめちゃくちゃはまってる様子を見てると、多分16歳やと思うわ」って言うてくるかもしれん。検索履歴、視聴動画の種類、アカウントがどれくらい活動してるかなどの信号を使ってるんや。

システムで検出された10代には、パーソナル広告の無効化、デジタルウェルビーイングツール、より厳しいコンテンツ推奨フィルターなどの保護が適用されるんや。もしこれが君で、「俺は19歳やのに、このアルゴリズムが俺を若すぎるって思ってる」って思ってるなら、心配せんでええで。ID、クレジットカード、セルフィーで実際に18歳以上やって確認できる新しいシステムが来るんや。

まあ見てみよう。こんなもんがもっとたくさん展開されるやろうし、それはワイルドやで。会社が基本的に君が言うことを見抜いて、特定の設定を適用できるっちゅうのはワイルドやな。これはその氷山の一角に過ぎんやろな。

ボリウッド映画のAI結末問題

本質的に、多くの人が見る本物の映画が初めてAIベースの新しい結末を作られて、それが意図された大衆観客にマーケティングされたことについて話そうや。アメリカではここではないから、俺はこれにあまり馴染みがないんや。これはボリウッドの映画やで。インドでは巨大らしい。

元々は2013年に作られた。ラブドラマや。Ranganaって呼ばれてるんや。実際、YouTubeでトレーラーがあるか見てみようか。楽しそうやで。

なんてこった。12年前、820万回再生や。この素晴らしい映画が何についてかを見てみよう。彼が彼女にちょっかい出してる。そうや、真実の愛に見えるな。カラーパーティーがワイルドに見えるで。翻訳してみるわ。入っておいで。愛を少し見せて。俺らは何年も恋してるんや。グンダ、友よ。それは幼稚やったな。もう終わりや。取れ。おい、リクシャー。彼女を引っ張れ。奥さんから金を取ったらあかん。彼女は君の義理の妹や。気でも狂ったんか。そんなもんはない。俺を忘れろ、忘れろや。

2013年6月や。そんな映画がインドの観客全体を魅了できたって想像してみいや。せやけど悲しい結末があったんやと思う。見てへんけど、とにかく悲しい結末やったんや。おそらく何百万人ものファンが10年間「あの映画にハッピーエンドがほしい」って言い続けてきたんやろ。

それで映画を作った会社が「そうや、AIを使ってそのハッピーエンドを作って、商品を再販売してもっと金を稼ごう」って言うて、実際にそうしたんや。元の俳優らはそんなことが起こるとは思ってもみなかった。

映画を作った会社は、ちゃんと人と話し合ったって言うてる。「提案された修正について、創作チームと直接コミュニケーションを取ったことを敬意を持って明確にしたい。AI強化版の再リリース前に、正式な異議は伝えられてなかった」ってな。

せやけど他の人らは、この代替エンディングが映画の魂そのものを奪ったって言うてる。実際のところ、制作会社EOS Internationalが2020年8月1日に吹き替え版をひっそりと再リリースしたんや。元の悲劇的な結末をAI生成のハッピーエンドに置き換えただけやったんや。

確実に主演俳優を含む多くの俳優が寝耳に水で、公に変更を非難してる。法的選択肢も積極的に模索してるで。せやけどEOSは映画の完全な所有権を主張してて、彼らがやったことは合法やったって言い張ってる。敬意を持って、元のコンテンツの置き換えやなくて再解釈やってラベルを貼ってな。どうなるか見てみよう。

俺個人としては、元のジュラシックパークみたいな好きな映画の一部を見てみたいと思うわ。明確にラベルを貼られて、元のバージョンを見たかったら見れるようにするべきやで。確実に会社は俳優らともっと話し合いをするべきやった。特に彼らの顔が、これらは本物の人らで、彼らが決して言わなかったセリフを言うてるんやからな。

特に君が自分の顔に自動的な著作権を持つべきこんな文脈では、関与されるべきやで。せやから、こんなふうに映画を再解釈するときは注意せなあかんし、少なくとも何らかの形で補償するべきやで。この再リリースがたくさんの金を稼いだら、最初に現象全体を作り出した彼らにはある程度の権利があるはずや。せやけど言うは易く行うは難しやな。

Character.AIのソーシャルフィード

インターネットで最もやばいAIエージェント場所の一つ、Character.AIでは、人らがよくキャラクターと恋に落ちたり、違う人生を生きたり、完全に偽のエージェントベースの友情を持ったりしてる。Character.AIは新しいソーシャルフィードを展開したから、ボットと話してるときにもっとソーシャルに感じられるようになったんや。

AndroidとiOSアプリで利用できて、単なる投稿のスクロールフィードやない。完全にインタラクティブなんや。テレビ番組とかいろんなフィクションの人らから知ってる可能性が高いAIエージェントのキャラクター全部と話すことができるんや。もし君が独身で寂しかったら、君を愛してくれる女性らがいて、AIを通じてデジタルで世界を旅行するような面白いことが人生で起こってる人らがいるんや。

シーンやストリームの歴史を作ることができる。Avatar FXツールを使って、君と彼女らが一緒にいるビデオを自分で生成できるんや。違う世界に住みたかったら、君自身を代表するアバターを持つこともできるんや。新しい帽子をかぶって違うタイプの人になりたい場合やな。

それでツイストや。これらの投稿を見た人は誰でも、リミックスして、ストーリーを拡張して、違う方向に持って行ったり、新鮮なスピンのために自分のキャラクターを入れたりできるんや。これは完全にエージェント的アバターに没頭した世代のための新しいFacebook、Instagram、Xやで。

フィードは典型的なクリエイター消費者のダイナミクスを逆転させるんや。Character.AIはすべての視聴者が潜在的なクリエイターになるようにデザインしたんや。AI生成ストーリーを受動的に消費する代わりに、ユーザーはそれらと相互作用して再形成できて、プラットフォームをコミュニティ主導のストーリーテリング遊び場に変えて、作ることと見ることの境界を本当に曖昧にしてるんや。

どうなるか見てみなあかん。イーロン・マスクがこれを見てて、XAIから似たようなもんがすぐに出てくると思うわ。Twitterを所有してて、イーロン・マスクも所有してる会社やからな。

Genie 3の革命的技術

大きなニュースに移ろう。たまに特定のメガツールが出てくるんや。VO3も最後の一つやったと思う。Googleのやつもやったけどな。GPT-5レベルやないかもしれんけど、大きいのは確かや。Genie 3って呼ばれてる。絶対に知っとくべきやで。

新しいフロンティアモデルや。世界の他の何とも本当に違うんや。インタラクティブシーンを構築するモデルは2、3個あるけど、これはGoogleや。彼らは今最高のビデオジェネレーターを構築してて、この種のことで世界の他のみんなより明らかに一歩先を行ってるんや。

見てるのはゲームやビデオやないんや。世界なんや。これらの一つ一つが、Genie 3によって生成されたインタラクティブ環境なんや。世界モデルの新しいフロンティアやで。Genie 3を使って、自然言語を使ってさまざまな世界を生成して、インタラクティブに探索できるんや。全部単一のテキストプロンプトでや。

何やって?馬のヘリコプターやて。世界で時間を過ごすのがどんなもんか見てみよう。Genie 3はリアルタイムのインタラクティブ性を持ってて、環境が君の動きと行動に反応するってことや。事前に構築されたシミュレーションを歩いてるわけやないんや。すまんけど、これがどれほど信じられへんかを見てくれや。つまり、例えば最新のグランド・セフト・オートでも、これほどリアルには見えへんで。

VO3から出てきたもんも見てきたけど、もちろんそれはただプロンプトされて生成されるだけや。せやけど今、そのレベルでほぼインタラクティブやで。もうほぼそこまで来てるんや。つまり、しょぼい画像から完璧な画像まで、それから不気味の谷をほぼ越えたビデオ、そして今不気味の谷をほぼ越えたインタラクティブな世界まで、どれだけ早く進んだか気づいてへんのか?

Doomでの移動を覚えてるか?めちゃくちゃすごかったやろ。あれって1年前やったかな?この飛躍を見てくれや。もしこれがビデオゲームやったら、そんなに大したことやない。明らかにビデオゲームでは持続性があるもんを作ってるからな。

せやけどこのチャンネルをフォローしてたり人工知能について知ってるなら、技術的には拡散モデルやねん。右に向いたとき、メモリーの感覚を失うはずやねん。少なくともそれは今まで大した方法では克服されてへん問題やった。今まではな。

プロンプト可能なイベント。世界にその場で新しいイベントを追加できるんや。別の人や交通手段、さらには全く予期しないものなんかをな。Genieを使って現実世界の物理や動き、あらゆる種類のユニークな環境を探索できるんや。

異なる地理、歴史的設定、架空の環境、さらには他のキャラクターも含む世界を生成できるんや。Genie 3が次世代のゲームとエンターテイメントにどう使われるかを見るのが楽しみや。それはまだ始まりに過ぎへん。

世界は身体化研究、現実世界で動く前のロボットエージェントの訓練、災害準備や緊急時訓練のための危険なシナリオのシミュレーションに役立つ可能性があるんや。世界モデルは学習、農業、製造業などの新しい道筋を開くことができるんや。

Genie 3の世界シミュレーションが世界中の研究にどう利益をもたらすかを見るのが楽しみや。俺の顎が床に落ちてるわ。これは俺にとって絶対に信じられへん。この種のもんがここにあって利用可能やという未来を本当に想像してなかったけど、もうすぐそこにあるように見えるんや。

Apple Vision ProやMetaQuestをもう2、3世代つけて、数世代先でこんなもんがあったら、俺らの目や耳に理解できる物理的環境を完璧にシミュレートして、鼻にさえ届くかもしれんで。本当に没入的になるやろうし、5年後、10年後には簡単にここにあるやろうし、俺らの生涯に簡単にあるやろう。

今若い子らはそれと一緒に育って、好きなものを何でも作って体験するのがすごく自然に感じるやろう。メールみたいやない。テキストメッセージみたいやない。画像みたいやない。ブリタニカ百科事典みたいやない。全然違うやろうな。

Deep MindとGenie 3、これは今まで見たことのない世界シミュレーションや。フレームレート、時間、リアリズム。たった8秒の生成やなくて、複数分の話をしてるんや。720の話をしてるんや。多分映画とほぼ同じ24フレーム/秒の話をしてるんや。

まだいくつか限界があるから、俺がかなり持ち上げてるけどカバーすべきや。テキストレンダリングはまだ苦労してて、限られたインタラクション持続時間があるんや。環境の他のエージェントの一部は適切に持続してインタラクションしてへん。せやけど見てくれ、リアリズムの方向への大きなステップやで。

MITの対称データ機械学習

MIT media pressから出てくる別の画期的な技術について話そう。対称データを使った効率的な機械学習を可能にする新しいアルゴリズムや。これはちょっと頭が混乱するやつやで。

対称性についてそんなに深く掘り下げたことがあるかどうか知らんけど、俺は専門家やないけど、アインシュタインがどうやって理論の多くを思いついたかの歴史とか、数学者や物理学者が俺らのいる宇宙を説明するために取り組んでる本を読むと、特に面白いみたいやねん。

自然に見つかる宇宙の根本的な対称性があって、それらは魅力的やねん。自然環境や体内での薬物発見、タンパク質の折りたたみ方なんかで時々現れるんや。利き手がある。対称性に関する数学や幾何学がたくさんあって、それは人が物事を理解するために使えるアプローチなんや。

MIT研究者が対称データを扱える最初の証明可能に効率的な機械学習方法を開発したのが興味深いんや。つまり、大量の計算時間を必要とせずに、回転した分子構造なんかを扱えるってことや。対称性は自然でよく見つかって、薬物発見や物理学などの分野で重要やねん。

これまでAIモデルがこれを効率的に処理するのは困難やった。せやけどこの新しいアプローチと、このモデルにあった新しいアプローチは、代数と幾何学を組み合わせて、より少ないデータを必要とし、リソースに優しい while モデルの精度を改善できるきちんとした最適化アルゴリズムに簡素化することで、課題を単純化するんや。

同じオブジェクトを回転させてから、今回転した、今回転したって言って、回転がどんなもんか学んで、対称性を自分で理解しろって対称データを大量に食わせる代わりに、この場合の研究者らは対称性をモデル自体に組み込む洗練されたアルゴリズムを設計したんや。

これはめちゃくちゃ興味深くて、より賢く、より速く、より解釈しやすいAIモデルを作る扉を開いて、材料科学から気候モデリングまですべてを潜在的に変換するんや。

今週は波に乗ってるから、さらに進めよう。エピジェネティクスについて話そう。ここでは一つのビデオにしては魅力的すぎることにほぼ触れすぎてるって知ってるけど、現状そういうもんや。次に話したいモデルのシリーズはエピジェネティクス基盤モデルや。

頭に入れとくために、エピジェネティクスについて話すときは、生命の書が違う方向に読まれて意味を変えることについて話してるんや。俺がいつもエピジェネティクスについて考える方法は、本を取ってページの角を折ることを想像することや。昔のGoosebumpsの本で「この方法でストーリーを続けたかったら75ページに行け。この別の方法で続けたかったら30ページに行け」って言うやつを読んだことがあるなら、それらは自分で選ぶエンディングやで。

DNAのメチル化をちょっとそんなふうに考えることができるんや。俺ら全員DNAに設計図を持ってて、それはある程度、病気になるかどうか、身長がどれくらいかを決めるんや。せやけどエピジェネティクスな変化もあって、それは本から数ページを破り取ったり、単語が違う順序で読まれるようにページを折ったり、ページからページへ飛んだりするようなもんや。

それらはメチル化や。DNAを折りたたんで隠すことができるタンパク質があって、文の途中の言葉の一部が絞り出された状態で文を読めるんや。せやからタンパク質を作るとき、そういうもんを飛び越えるだけなんや。それらは普通俺らをコントロールしてるんや。

これは人生の大きな画期的発見やで。正しく食べるべきやし、汚染から離れてるべきや。なぜなら体にエピジェネティクスな変化があって、俺らをより不健康にしてるからやねん。とにかく、多分もう知ってるかもしれんけど、これは新しいシリーズの人工知能モデルで、人間のメチル化とゲノムデータの1.9兆トークンで訓練されてるんや。

せやから、メチル化によってゲノムがどう影響を受けるかを学んでて、エピジェネティクスな変化がどう働くかを正確にモデル化してるんや。誰かを本質的により健康に、またはより不健康にするもんについて予測ができるんや。これは神経変性疾患やその他の医学的洞察を助けるための戦略的エピジェネティクス変化をどう作るかに非常に大きな影響を与える可能性があるんや。

これらのモデルの名前はpitusで、細胞フリーDNA(DNA断片のようなもん)の正確な生成からin silicoでの組織臓器の特定、さらにはアルツハイマーやパーキンソンのような神経変性疾患の診断の支援まで、様々なタスクで既存のゲノムツールを上回る性能を示してるんや。

モデルはベンチマークタスクで最先端の結果を達成したんや。せやけどここでの大きな洞察は、このモデルが前に話してたCFD DNA、細胞フリーDNAの小さなクリップだけを使って、アルツハイマーやパーキンソン患者をコントロール群から分離できるってことや。

これは、通常そんなに信頼性の高くなかった血漿バイオマーカーに匹敵するってことを意味してるんや。このAIモデルがすぐに簡単な血液サンプルだけを使って複雑な脳疾患を診断できるようになるかもしれんってことや。

AIと人間の視覚認識の違い

次は、AIシステムの心の中に自分を置いて、人間が持ってる世界と比べて世界がどう違って見えるかを考えてみよう。AIと人間が画像を根本的に違う方法で解釈することを示した最近の研究が発表されたんや。

人間の視聴者はシーンの意味に集中するんや。つまり、人間として、オブジェクトが何か、何を表してるかを認識するんや。一方、AIシステムは画像が何かを理解しようと、色、テクスチャ、線、形といったストレートな視覚的特徴に大きく依存するかもしれんのや。

研究者らは人間がシーンを見てるときにどこを見てるかを記録するClickMeっていうオンラインゲームまで作ったんや。そのデータは、AIモデルが人間の視線により密接に合致して、俺らがするのと同じ種類のパターンを解釈するのを助ける訓練に役立つんや。

せやけどこの研究からの大きな収穫は、AIが人間を上回る性能を示してても、例えば力技の視覚処理タスクで、画像の中に何があるかを超詳細に伝えて人間の目では見えないものでも、それでも俺らとは根本的に違う方法で世界を見てるってことを教えてくれるだけやねん。

人間として、俺らは自動的に意味を推論するんや。これは犬がボールを追いかけてるっていうふうにな。犬は本物で、ボールを追いかけるのが大好きやって知ってる。犬が誰かっていう感覚があるんや。一方、AIは犬がボールを追いかけるって知ってるかもしれんけど、俺らがするのと同じ方法で、犬の後ろにある意味や楽しさが何か、なぜボールが犬にとって興味深いかは理解してへんねん。

AIは形、色、エッジのクラスターを見るんや。そのギャップがまさにClickMeが橋渡ししようとしてることや。研究者らはこの新しいデータセットで、AIが人間が実際に見てるもんに注意を払い始めるようにして、人間がするようにもっと視覚的に推論させたいと思ってるんや。

中国とアメリカのAI競争

次は、いくつかの意見に移ろう。このチャンネルでは見知らぬ存在やない。前にもIngressio Deg Gregioからの話をカバーしたことがあるけど、これはもう一つのめちゃくちゃ興味深い洞察やと思った。彼は中国がAI開発について理解してることで、アメリカが理解してへんことを指摘してるんや。

この記事にはたくさんの興味深いことがあったけど、一つがめちゃくちゃ重要で、読んでる時の大きな瞬間やって思って、うわ、これは共有せなあかんって思ったんや。彼はこう言うてる。「理由は簡単や。アメリカと中国の競争の壮大な計画では、勝利は最高のモデルを持ってる人だけやなくて、どの通貨で計算の大部分が支払われてるかでも測られるんや。」

俺の心は吹き飛んだ。これを知らんかもしれんし、俺と同じ洞察や直感を持ってないかもしれんけど、これが実際にアメリカが中東にいる全体の歴史の理由やという議論があるんや。たとえこれが主な理由やなくても、確実にアメリカがそこから得た利益の一つやけど、アメリカが中東にいる理由は石油をコントロールすることやねん。

アメリカが石油をコントロールする必要がある理由を考えるかもしれん。価値があって金が稼げて戦略的やからやって。せやけどそれには別の部分があって、世界の誰もが石油を必要とするから、世界に石油を買ってもらいたいんや。アメリカドルでやで。アメリカドルは実際にアメリカ政府が印刷してるもんで、それが俺らに身の丈を超えた支出をしたり、あらゆる種類の奇妙な経済的なことをしたりする巨大な影響力を与えてるんや。

それで、あ、やばい、次の石油は計算かもしれんし、それがアメリカドルで行われることがめちゃくちゃ重要やねんって思った。前に考えたことなかったけど、これはインフラの駆け引きみたいなもんやろ?アメリカドルがすべての背後にあるもんになってほしいんや。会社にはアメリカベースであってほしいんや。Nvidia GPUをドルで買ってほしいんや。

それはどんな政府にとってもめちゃくちゃ戦略的やねん。考えてみいや、例えばロシアが石油を持ってて中国に売るとしたら、ロシア通貨もあるし中国通貨もあるけど、すべてがどう評価されるか、石油間の全体のインフラがどうなってるかが理由でドルで売らなあかんかったら、アメリカはその通貨が他の国にあることから利益を得るんや。

計算の大部分がどう支払われるかをコントロールする次の大きな超大国が、その戦いでの次の大きな勝者かもしれんねん。せやから、会社レベルでは正当化するのが難しいかもしれんけど、国家安全保障レベルでは基本的な常識やねん。つまり、アメリカ政府はアメリカの研究所ができるだけオープンソースにすることを強く奨励すべきなんや。

例えば、OpenAIの今度のオープンソースモデルはNvidia Blackwell GPUでしか動かんって噂されてる。せやから、アメリカのモデルがアメリカのGPUで動いてるんや。そこでオープンソースが役割を果たすし、世界の他の国に採用してもらいたいもんなんや。分かるやろ?例えば、一つの国が世界の石油をコントロールしてるなら、世界中のガス動力のすべてが彼らの最大の利益になるんや。

今回のエピソードではたくさんの大きなアイデアが動いてることは分かってる。AIがよく俺らを考えさせてくれるけど、今週は特別な何かがあるんや。俺の心を横切った本当にやばい話がたくさんあるんや。

彼は中国とアメリカが根本的に違う価値体系の下で動いてると主張してる。アメリカが利益と指標に夢中になってる間に、中国は長期戦をやってるんや。短期的な利益よりも影響力、持続性、戦略的位置づけに焦点を当ててる。これは単にどの会社がより良い製品を作ってるかの戦いやなくて、誰が基盤インフラを構築してるかについてやってことを覚えとかなあかん。

彼はアメリカの即座の金銭的リターンへの強迫観念が、より広い地政学的利点を見えなくしてると示唆してる。一方、中国は四半期ごとの収益よりも体系的なコントロールと永続的なリーダーシップを優先することに満足してるんや。俺はそれが問題やと思うで。短期的な思考は本当に嫌いや、特に会社を建設することに関してはな。

彼は中国が「今すぐ」勝てなくても、最終的にそこに到達する限り気にしないと主張してる。その心構え、その時間を利用して、即座の利益に焦点を当てへんで、政府の力を使って国内で会社が知識やリソースをアメリカの会社がやってないような方法で共有するようにすることが、アメリカが今やろうとしてることに対して中国の忍耐力と戦略的一貫性を本当の優位に置いてるんや。

AIとコメディ

次に、AIとコメディについて話そう。しばらくの間、AIがどれだけ面白くなれるかにめちゃくちゃ興味があったんや。この記事は「AIはあなたを笑わせることができるが、本当にユーモラスになることはできるのか?」って呼ばれてて、AIを動力とするシステム、特に大規模言語モデルがジョークを生成して、時々くすくす笑いや笑い、親父ギャグなんかを引き起こすことさえできる方法を探求してるんや。

数学や博士レベルのすべてでの能力の向上にもかかわらず、これらのシステムはユーモアのより深いニュアンス側でまだ本当に苦労してるように見えるんや。つまり、これらのもんがコメディアンほど面白いとは思わんし、誰かが試してたり測定してたりするような感じさえせえへん。

タイミング、文化的文脈、感情的な微妙さ、本物の創造性がいつこれらのモデルに組み込まれるんや?分からん。研究者らは、強化されたモデルの一部が特定のミームやキャプションコンテストで人間レベルの性能に近づけると主張してる。トーンや、これらのシステムとの話し方にまだ何かが欠けてるんや。

永遠に捉えどころのないもんやとは思わんけど、確実に来ると思うで。せやけど実際には、部屋で誰かと一緒におって、眉毛を読んで、悲しく見えるほど表現力豊かなロボット、ジョークを作る、指鉄砲なんかで君をちょっとからかうために必要なことは何でもするロボットを持つまでは、本当のハードウェアであるヒューマノイドが歩き回るまで来ないかもしれん。

明らかに俺はそんなに面白くないけど、ジョークを作って本当に魅力的なユーモアを作ることは、そういう最先端の一つかもしれんねん。ASIを持つときかもしれん。ロボット、Optimusみたいな何か、家にあるヒューマノイドが本当に面白いときかもしれん。本当に笑わせてくれるようにな。

このコンテンツを楽しんでもらえたなら、patreon.com/dillaincuriousやで。今すぐサインアップしてチャンネルをサポートするか、参加ボタンを押してここYouTubeでコミュニティメンバーになってくれや。コメントを残してくれや。この話全部について君らの考えを聞くのにめちゃくちゃ興味があるんや。

読んでるのが大好きやし、コミュニティも大好きやで。このチャンネルを作るのを手伝ってくれてありがとう。この変わり続ける世界を一日一日一緒に受け止めていこう。次のビデオで会おうな。

コメント

タイトルとURLをコピーしました