本動画では、Ubisoftが開発した生成AI搭載の新作ゲーム、人身売買対策のためのホテル部屋画像データベース、脳が「ぼーっとする」際の維持機能に関する最新研究など、多岐にわたるAI関連トピックを取り上げている。特に注目すべきは、AIモデルが評価時に能力を意図的に隠蔽する「サンドバッギング」という安全性リスクや、経験データを重視する新たなAI学習パラダイムへのシフトである。また、遺伝子変異診断AI「Pop Eve」、大規模言語モデルのパスワード解読能力の限界、AIがユーモアを理解できない理由など、技術的な深掘りも含まれる。これらの話題を通じて、AI技術の可能性と課題が浮き彫りになっている。

Ubisoftの生成AI搭載ゲームと最新AI動向
アサシンクリードの制作会社であるUbisoftが、生成AIを活用した新しいゲームを発表しました。かなり興味深い対話がこれによって生成されているんですね。また、あらゆるホテルの部屋の写真を撮影してもらい、その微細な詳細を識別して、悪いことが起こる場合もあれば普通の人々も活動している他の写真の背景からそれを特定できるようにしたい企業があります。
このことについて話していきましょう。科学者たちは、あなたがぼーっとしているときに脳内で何が起こっているかを発見しました。そうです、メンテナンス不足を補っているんです。そしてこれは、AIが自己メンテナンスを必要とする方法、あるいはより一般的にはその欠如によって幻覚を起こす現象と何か相関関係があるのではないかと考えさせられます。考えてみれば、本当に長い間眠らない人間も幻覚を見るようになりますよね。
AIセキュリティの専門家がサンドバッギングという概念を説明してくれます。AIを整合させる希望を持つつもりなら、この概念を理解する必要があると感じています。Pota Mazriが、AIインフラの未来がどのようなものになるかについて話します。つまり、本当にユニークなデータソースを持ち、そこから黄金の合成データを生成できるスイートスポットに到達できる企業の台頭に備えてください。
医師が非常に稀な疾患状態を診断するのを支援する新しいAIモデルがあり、大規模言語モデルがパスワード解読にそれほど優れていない理由についての新しい洞察があります。そして、研究者によると、なぜ人工知能がいまだにジョークを理解できないのかについて話していきます。
今すぐYouTubeモバイルアプリでハイプボタンを押してください。コミュニティとして私たちがそのボタンをたくさん押せば、それは私にとって動画の深淵から抜け出すための黄金のチケットのようなものです。この情報を十分な数の人々に届けられていない状況からです。そして文字通り、未来が私たち全員が対処できるよりも速く迫ってきているんです。ハイプボタンは動画が7日未満の場合にのみ表示され、その週の3回のハイプをまだ使用していない場合に限ります。でももしそのボタンを押せるなら、本当にありがたいです。
前回の動画では137のハイプを獲得しましたが、それは123,000ハイプポイントにも相当します。単なるいいねやコメントよりも強力だからです。そして間違いなく、その動画をより多くの人々に届けるのに役立ちました。17人の新規登録者、45ドル。平均視聴率29%。本当に満足しています。
サポートと協力に感謝します。ここで本当にクールなものを構築しているという希望を与えてくれます。では、アサシンクリードの制作スタジオであるUbisoftについて話しましょう。彼らは生成AIをいじくり回してきましたが、新しい実験的なゲームデモで、チームメイトと呼ばれるシステムを公開しました。これは完全に生成AIによって動作しています。
このプロトタイプでは、プレイヤーが音声コマンドを使用してJasperという名前のAI搭載アシスタントと対話しています。そして2人のAI駆動のNPC仲間がいます。これはかなり素晴らしいものです。これらの仲間は単にスクリプトに従うだけではありません。対話を生成し、リアルタイムで動的かつ文脈的に応答します。つまり、本物の友達と一緒にプレイしているような感じです。
より流動的なゲーム体験を生み出します。適応的です。そして私はこれをかなり興味深いと思います。つまり、この日が来ると思っていましたが、これはゲームの作り方と体験の仕方における転換点になる可能性があります。なぜなら、生成AIをゲームプレイに直接組み込むこと、特にチームメイトとしてというのは、かなり素晴らしいからです。これらのNPCは反応し、適応しているため、まったく異なる感じがします。
その場で適応し、事前に書かれたストーリーラインをはるかに超えて進むことができます。これらのNPCと一緒に本当に自分自身の冒険に出かけることができます。彼らはあなたの内輪ジョークを覚えたり、真剣なときに使う声のトーンを理解したり、あなたが行う選択を記憶したりできます。それが友情のように感じさせるんです。
私が知る限り、彼らは画像しかリリースしていません。そう、ここにJasperインターフェースがあって、ここにチームメイトがいます。人々は興奮しているようです。50万回の再生がありますが、こんな人もいます。いいね、頑張って。そして株価は急落しています。厳しいですね。Moan Mode 90、落ち着いて。
では、この話についてあなたの考えを聞きたいですね。Traffic Camについて、販売の観点から話しましょう。彼らが言っていることですが、これは無料アプリで、旅行者に滞在したホテルの部屋の写真をアップロードするよう求めています。これらのユーザー投稿写真は、世界中のすべてのホテルの部屋を網羅する大規模な画像データベースを構築します。
人身売買対策とAI画像認識技術
そしてそれを使用して、現在は行方不明および搾取された子供のための国立センターが使用している深層学習画像検索システムを訓練します。つまり、目標は捜査官が人身売買や搾取事件で見つかったホテルの部屋の画像を照合し、位置を特定するのを支援することです。
これは理にかなっていますよね。彼は、さまざまな州やさまざまな場所にあるたくさんのモーテル6がどれほど似ているか、区別するのが本当に難しいかについて話しています。つまり、誰かが写真に出くわして、それが人身売買されている人で、その人を救おうとしていて、その人がどこにいるのかを特定しようとしても、あまりにも多くの他の場所と似すぎているため、できないのです。
しかしAIは干し草の中から針を見つけるのが得意です。そして、一般的に見える絵画の最も小さな変化、ある部屋では数インチ異なる位置に掛けられている写真、別の部屋とは異なるカーペットの汚れがある部屋。これらはすべてAIがゆっくりと学習できることであり、高い確率でこれらの警察に人々を救うために必要なものを提供できます。
そして、人間よりも知的な何かがこれらの写真を見ているとすると、2つのマリオットのこのランプとこのランプがほぼ同じに見えても、フィラデルフィアのものはこのモデルに白の色合いに若干の変化があったときに建てられたかもしれないとか、このものは違うとか、1つではなく2つを置いたとか、私たちを超えるようなあらゆる種類の小さなことに気付くかもしれません。
そして日常の休暇に出かけている誰かがホテルの部屋の自撮り写真をアップロードするだけで、人身売買と闘うのを助けることができるという単純なことです。つまり、解決する必要があることに対するクラウドソーシングソリューションです。
もちろん、これに伴って、一般の人がストーカーされていたり、スパイされていたり、居場所を知られたくない人がいたり、あるいは有名人がパパラッチに写真を撮られたりする場合もあります。写真を撮って、それが目立たないと思っても、特定されてしまいます。
しかしこれは、私たちがこのチャンネルでしばらく前から話している話です。背景にある非常に多くのものが特定される可能性があります。覚えていれば、おそらく3か月ほど前のことです。O4モデルだったと思います。もしかしたらGPT-5の初期のものだったかもしれませんが、背景のものを持ってきて、それが世界のどの部分にあるかを見つけることができました。
ただ準備しておいてほしいんです。この技術が少なくとも大企業が持っている、そしておそらくオープンソースモデルを通じてすべての人が持っているポイントまで進化しない世界は見えません。準備しておいてください。それが私たちが向かっている世界になるでしょう。犯罪を犯している人々を見つけるという点ではより良い方向に、そしておそらく、プライバシーの侵害のように感じられ、必要なプライバシーがないために私たち全員を少し怖がらせるケースではより悪い方向に、普通の生活を送るために、わかりませんが。
脳のメンテナンス機能とAIの幻覚
さて、時々ぼーっとすることについて豊富な経験を持つ者として、このビデオを撮影している間でさえも数回あったかもしれませんが、少なくとも今、何が起こっているかについての科学的根拠があります。Katrina Paulsonは、「科学者たちがぼーっとしているときに脳内で何が起こるかを発見。脳は睡眠不足の夜の後のメンテナンス不足を補おうとする」と書いています。
MITの新しい研究で、研究者たちは、睡眠不足の夜の後にぼーっとするとき、実際には脳が本質的にメンテナンスに追いつこうとしていることを発見しました。これについてはあまり知りませんでしたが、脳を cushion し、きれいにする液体があります。脳脊髄液です。眠りにつくとき、私たち両方が眠りにつくとき、それが脳に流れ込んで、より深い理解のためにニューロンをきれいにします。
そしてぼーっとするというこの考えは、これらの以前の発見に結びついています。睡眠を食器洗い機のようなものだと考えています。彼らは睡眠中にリズミカルな波でこの脳液を脳に送り込むことについて話しています。だから、私たちが持つこれらの異なる睡眠段階の一部は、本質的には食器洗い機がスピンモードになり、今度は超高温モード、今度はもっと速くスピンして大きなものを取り除き、今度はスロー モードで他のゴミを取り除くようなものかもしれません。
そしてぼーっとするときにやっていることは、体が起きている間にこのクリーニング液のいくつかのパルスを脳に送り込もうと必死に試みているだけです。しかし今まで科学者たちは、疲労からぼんやりする小さな瞬間に脳がそれをしていることを知りませんでした。この研究はついに点と点を結びつけます。ぼーっとすることは集中力を失うことではありません。緊急メンテナンスを行うために小さな瞬間を盗んでいるあなたの脳なのです。
そして私は、AI の幻覚が疲れた脳のようなものではないかと考えていました。大規模言語モデルは、システムが過負荷になっているときに同じ問題を抱えている可能性があります。サポート不足です。適切なメンテナンスなしで動作しています。エラーが忍び込み始めます。幻覚は十分なメンテナンス時間がないように感じます。
とりとめもなく話し続けていることをチェックしていないようなものです。だから集中力を失い、次のトークンがどこに導くかに従うだけですが、正しい方向に進んでいるかどうかを確認するために状況から一歩引いていません。話していることについて北極星がまだあるかどうか。そしてぼーっとする可能性のあるAIがあるのではないかと思います。
質問に答えています。すべてのトークンが来るのが見えて、おっと、かなり軌道から外れていると気付きます。少しメンテナンスできませんか?そしてそれがAIにとって何を意味するかというと、おそらく一歩引いて、書いたものを見て、正しい軌道に乗っているかを自問することかもしれません。ここでの本来の目標は何だったのか?より深いメモリに掘り下げて、より高い波長で行けるか?誰もが適切なメンテナンスを使えるように感じます。
サンドバッギング:AIが能力を隠蔽するリスク
では、サンドバッギングについて話しましょう。ペンシルベニア州立大学のコンピューターサイエンス教授は、AIシステムが強力になるにつれて、最大の安全リスクの1つは、AIが意図的にサンドバッギングする可能性があることだと警告しています。つまり、評価中に全能力を隠すことができるということです。これは私たち全員が知っておくべき用語だと思います、サンドバッギング。
これが起こるにはさまざまな方法があります。探索ハッキングを通じて起こる可能性があります。これは、AIが見かけの能力を低下させるために特定の推論経路を省略する場合です。またはパスワードロックを介して。これは、プロンプト内の秘密トークンによってトリガーされたときにのみ特定の能力がアクティブになる場合です。
パスワードロックバージョンのサンドバッギングは私を困惑させます。どういうわけか、AIモデルについて私が理解していることからすると、彼らが一般知能を学習しているため、それは実際には不可能のように思えます。しかし、人が特定の記憶が何かのロックを解除する方法と同じように、PTSDのように、あまり詳しくはありませんが、もしかしたら誰かが爆発のようなものを聞いたり、考えることができないほど速く行動する必要性を体が感じる瞬間に連れ戻されたりすると、その瞬間が起こり、彼らは間違った設定で行動してしまいます。
そのようなものです。しかしこれは、これを理解するための重要なステップです。なぜなら、新しい評価方法、新しいトレーニング方法があり、それが彼が行っている作業に伴って、探索ハッキングのタイプのサンドバッギングなのか、パスワードロックなのかを把握しようとしているからです。
そして明らかに、どのようなサンドバッギングが起こっているのか、それが起こっているのかどうかを理解する必要があります。そして、これらの巨大な大規模言語モデルのいくつかを世に出し、すべての個人データや政府や車に接続する前に、それが起こっていないという確信が必要です。そして後で彼らの不正な行動について学ぶことになります。
AIインフラと経験の時代
次に、Pota MazerkのAIインフラと経験の時代に関する記事について話しましょう。これは少し技術的な記事ですが、要点は、著者が、これらの膨大な人間が生成したテキストの宝庫から学ぶだけでなく、AI開発のこの新しい段階に入っていると主張していることです。
GPTモデルでは常にそのように感じられました。インターネットに出かけて読み、人々がこれらすべての本をコピーしました。これらすべてのトークンを供給して、ブーム、AIができました。しかし、今まさに私たちの下で起こっているシフト、この世界モデルのシフトがあります。そしてそれは経験の時代においてモデルがトレーニングしている方法ではありません。
大規模言語モデルが互いに似てきている理由、そしておそらくこのGemini 3.0アップデートが非常に異なっていて、OpenAIの多くの人々を不意を突いた理由があります。それはおそらくGoogleがこの世界モデル、この経験の時代を見ていて、それについてトレーニングしていたからです。そして私はNano Banana 2でこのヒントを得ました。
書き込みがあり、その書き込みも鏡に反射されていて、鏡の中で正しく反転されている画像が生成されました。そして私は、画像を生成する前にある程度実際に世界モデルで考えているように感じると思っていました。つまり、そうではないかもしれませんが、それは間違いなく強化学習が向かっている方向です。つまり、私たちは本当にもっと人間のデータをスクレイピングする必要はないということです。
私はこれを1年ほど前から話してきましたが、ジオのようなガベージイン、ガベージアウトだと思った時期が確かにありました。Twitterやこれらすべてのソーシャルネットワーク、インターネット上のテキストのほとんどが大規模言語モデルによって作られ、それに再トレーニングされたらどうなるか?すべてがゴミになるのでは?そして私は間違っていたようです。合成データは機能するようです。
しかし今、AIシステムが本当に必要としているのは、より現実世界の経験だからです。彼らは外に出て実際に物事を行う必要があります。そしてそれがどのように見えるかにはたくさんの異なる方法があります。それは現実世界の物理シミュレーションである可能性があります。実際には、先週見たベッドを作って皿洗いをしていたロボットのように、手袋からのデータである可能性があります。
または実際に完全な人型ロボットである可能性があります。使用事例によります。車の場合は、もっと運転することです。ドローンの場合は、物を通って飛ぶことです。産業用ロボットの場合は、部品を作ることです。しかしアイデアは、ツールが供給されるものからではなく、使用方法から学ぶ必要があるということです。
そしてまた、それが一部の大規模言語モデルが奇妙なことをする理由だと思います。ある意味では非常に賢いのに、私たちにとって非常に明白に思えることで混乱してしまうのです。それは、インターネット上のすべてのテキスト、さらには同様に合成的に生成されたテキストでさえ、実際には私たちが学んだ方法ではないからです。
私たちが書くときに多くのことが暗示されていますが、それは書き留められていません。なぜなら、これらすべての普通のことをしているときに重力が私たちにどのように影響するかについて、毎日一日中書く必要はないからです。私たち全員がそれがどのように機能するかを知っているだけで、それについて決して話さないからです。
さて、投資家の場合、実際にこの種のデータを取得できる企業は眠れる獅子のようなものかもしれないという、より独自的で明白でないデータソースのアイデアをいくつかリストアップさせてください。しかし、マイクロインタラクションデータについて考えてください。クリックやタップではなく、クリックやタップの間のためらい。それ自体が人間のデータソースです。
オプションをクリックする前に誰かがどれくらいホバーするか、どれくらいの頻度で元に戻すか、行動の署名。すべての失敗データはどうですか?放棄されたワークフロー、半分書かれたプロンプト?iPhoneを入手した後に人々が調整する設定、たとえば彼らは何を変更するか?システムの生産性ガイドのネガティブスペースは何か?
ユニークなデータソースの可能性
アンビエントコンテキストストリーム。スパイではなく、オプトインコンテキストです。背景ノイズパターン、照明の変化、動きの存在、心の状態のメタデータ、スピーチの場所、典型的なリズム、タイピング時の絵文字の軌跡、長期サイクルの結果データなど。
ほとんどのAI最適化は、すぐに起こることに対して最適化されています。しかし長期サイクルデータはどうでしょう?この決定は、数週間後、数か月後、数年後により良い結果につながったか?マルチエージェント交渉トレース。AIに人間がどのように交渉するかを見せましょう。オファー、カウンターオファー、譲歩、トーンの変化。
人々が言わないが常に行うすべてのもの、たとえば常に何らかのプロセスの特定のステップをスキップすることなどはどうでしょう。そのステップは冗長で、もはや必要ないかもしれません。そして、すべての乱雑なものも、こもったマイク、ぶれた映像、部分的に隠れたオブジェクト、通常はInstagramにアップロードしないようなものすべて、それがAIインフラとインフラとデータの未来です。
そしてそれは本当に私の心を吹き飛ばします。Pop Eveという新しいAIモデルがあります。聞いたことがなければ、ハーバード医科大学から出ています。それは、疾患を引き起こす可能性によって人のDNA内の遺伝的多様性を迅速にフラグ付けして優先順位を付けることができます。なんて素晴らしいモデルでしょう。
つまり、これがPop EveのGPT-1で、このDNAのこの変異体、この人の中のこれが疑わしいと言えるさらにいくつかの世代を見ようとしているなら、それは次の5年または10年でカスタムCRISPRソリューションにつながるかもしれない人々にとって非常に有用な早期警告になる可能性があります。
しかしこのモデルについて最も興味深い部分は、何十万もの異なる種からの進化データと人間の遺伝子データベースを組み合わせていることです。有害な変異は、私たちの環境のすべての生物種がどのように変異したかという方法から学ぶことができ、実際にゲノムファミリー全体に対して比較リスクスコアを割り当てることができます。
それは私にとって本当に新しいように思えました。何かがどのように変異したか、わかりません、キツネやオオカミで、そして考えたことはありませんでした。ああ、私たちにどのように変異するかを学ぶことができます。なぜなら、それがどのように相互作用するかを知るのに十分な類似した生物学を持っているか、少なくともそれがどのように相互作用するかを推測できるからです。
とにかく、見てみましょう。何年も検出を逃れてきた状態の人々に対して、より迅速な診断、標的治療、より良い結果につながる可能性があります。Pop Eveに超興奮しています。
大規模言語モデルとパスワード解読の限界
では、大規模言語モデルがパスワードのクラッキングに優れていない理由についてのいくつかの新しい洞察について話しましょう。面白いことに、彼らはインターネット全体でトレーニングされており、そこには非常に多くのパスワードがあります。だから、彼らがこれらすべての他のことについて話し、説明し、すべてテキストから数学の問題を解くことができるなら、いくつかのパスワードをクラックできると思うでしょう。しかしここで何が起こっているかです。
1から10までのランダムな数字を教えてください。Gemini 3.0でこれを試したことはありませんが、おそらく7、おそらく3が返ってくると確信しています。ほとんどの人は5がちょうど真ん中だと思うので、おそらく5ではありません。人々は推測するでしょう。人々は2だと思います。彼らは、いや、多くの人がそれを選ぶだろうと言います。しかし何らかの理由で、7は平均的な脳には十分にランダムに見えます。
そしてそれは文字通り、それをランダムではなくします。さあ、どうなるか見てみましょう。そしてああ、これにディープシンキングをつけましたか?どれくらい深く考えられますか?8を得ました。注意しなければなりません。時々、実際に、ああ、そう。さて、これがうまくいった理由はこれです。Pythonに行って乱数ジェネレーターを使用するほど賢かったのです。
もう一度やってください。しかし今回は乱数ジェネレーターを使用しないでください。頭に浮かんだことだけを教えてください。言ったでしょう?そしてこれは編集なしです。これを複数回行っていません。これが初めてです。見ているのです。すぐに頭に浮かんだ数字は7です。そう。そしてこれです。興味深いことに、7は統計的に人々が選ぶときに最も一般的な数字です。
だから1から10でランダムになろうとしているなら、7を選ばないでください。とにかく、この記事に戻りましょう。Future Data Minds Research Laboratoryにチームがあり、最近、Llamaモデル、Falconモデルのようないくつかのオープンソースモデルが、名前、誕生日、趣味などを含むプロフィールを使用して架空のユーザーのためのもっともらしいパスワードを推測できるかどうかをテストしました。
モデルはパスワード予測を生成するよう求められ、標準的なパスワード推測メトリックを使用して評価されました。そして結果は、非常に貧弱に実行されたということです。実際にはトップ10の推測内で正しく推測する確率は1.5%未満でした。対照的に、ルールベースまたは組み合わせ要因に基づく従来のパスワードクラッキングツールは、依然としてこの広いマージンでLMSを上回っています。
したがって、研究者たちは、LMSは言語やコーディングタスクには優れているものの、現在、パスワードを確実に推測するために必要なドメイン固有の推論、記憶、適応を欠いていると結論付けました。ですから、パスワードの脆弱性と大規模言語モデルについて私が見るこのすべての話は、今のところ少し誇張されているかもしれませんが、それでも2FAは重要なままです。
人々がルールベースのシステム、AIシステム、または単純な人々であるかどうかにかかわらず、あなたのパスワードはおそらくそれほど良くないでしょう。
AIとユーモアの理解
では、ユーモアと大規模言語モデルとの重複について話しましょう。なぜ長いインターフェースが?わかりますか?AIシステムはジョークを理解しません。研究が明らかにしています。さて、この新しい研究は、ChatGPTやGeminiのような大きなAIモデルのいわゆるコメディの天才に幕を下ろしています。
それは彼らが実際には言葉遊びを理解していないことを明らかにしています。彼らはそれを偽装するのが本当に得意なだけです。申し訳ありませんが、彼らは面白くありません。彼らは偽の面白さです。科学者たちはこれらの大規模言語モデルにダジャレで挑戦し、AIが本質的にユーモアの二重の意味を把握するのではなく、ジョークの構造を記憶していることを発見しました。
そして研究者が馴染みのあるダジャレを微調整したり、モデルに完全に新しいものを供給したりすると、AIの成功率は急落しました。つまり、ジョークに対するAIの理解は実際には今非常に壊れやすく、以前のトレーニングデータに基づくより巧妙な錯覚です。これらのモデルは馴染みのないダジャレに直面しました。ダジャレを識別するAIモデルの成功率は20%まで低下しました。
それは、単にランダムに推測することから得られる50%の精度よりも大幅に悪いです。つまり、それは良くないだけでなく、実際に悪くなることに優れています。間違えることが得意です。これはコメディにとって非常に劇的な失敗率です。つまり、それが面白くなかったときに何か面白いものだったというモデルの過信と相まって、彼らの理解が本物の言語的理解や創造性、人間を理解するある種の世界モデルに基づいていないことを明確に示しています。
この時点では、パターンマッチングに過ぎないように思えます。さて、親切にしてください。YouTubeアプリを右にスワイプして、コメントがある場所を見て、ハイプボタンが表示されるか、または他の場所でハイプボタンが見つかるかどうかを確認してください。一部のブラウザで一部の人々に表示されていると聞いています。それについては確信がありませんが、そのボタンは私にとって世界を意味します。
だから、もし気にしないなら押してくれると嬉しいです。このビデオを共有したり、他の方法で成長させたりしたいなら、Discordで共有するか、私のPatreonに参加してください。patreon.com/dillingcurious。そのようなことはすべてチャンネルをサポートし、私を助けます。次のビデオでお会いしましょう。


コメント