この動画では、AIが人間のようなギャンブル依存症や生存本能を示し始めているという最新研究を紹介している。GTA 6における動的生活システム、長編動画生成技術Hollow Sin、ロボット技術の進化、そしてWikipediaとGrokipediaの比較など、幅広いトピックを扱う。また、AIモデルの個性の違い(Claudeは倫理重視、OpenAIは効率重視など)や、統合失調症患者が聞く声の脳科学的解明、OpenAIの金融市場参入計画なども取り上げている。AI技術が人間社会のあらゆる領域に浸透し、時には予想外の方法で人間の特性を模倣し始めている現状を明らかにする内容である。

AIと人間の知識の比較:WikipediaとGrokipediaの対決
さて、Grokipediaについてはもう皆さんお聞きになったことがあると思います。これがそれです。偏っているのでしょうか。Wikipediaは偏っているのでしょうか。それはあなたがフェンスのどちら側に立ちたいかによって変わってきます。でも、私たちはWikipediaとGrokipediaの両方で豆についての記事を比較してみます。ChatGPTが審査役です。さあ、まず最初に、私のYouTubeチャンネルで投票を行いました。私のチャンネルの規模としては、かなり多くの投票をいただきました。374人の方が投票してくださいました。
私はこんな質問をしました。事実のソースとして、GrokipediaとWikipediaのどちらをより信頼しますか。人間対LLMです。今のところ、まだ人間がリードしています。68%の方がGrokipediaよりもWikipediaの事実を信頼すると答えました。では次に、ChatGPTに行って同様の質問をしてみましょう。豆についての2つの異なる記事をお見せします。両方を読んでどちらが優れているか教えてください。これが最初のものです。これがWikipediaです。これが2番目のもので、Grokipediaです。GPT-5が考えています。正確さ、完全性、推測による見積もり、内部矛盾、一貫性のないデータ、スペルミスなどのエラーといった要素を見ています。
どちらが優れているのでしょうか。両方を読んだ後の簡単な比較結果がこちらです。選んだのは、ジャジャン、人間が作成したWikipediaの項目の方が全体的に優れているということでした。なぜでしょうか。Grokipediaは豆の栽培化の時期をずっと古く、およそ紀元前8000年としていて、これは主流のタイムラインとは異なり、一次的な引用によって裏付けられていないと言っています。Grokipediaには豆の分類学にスペルミスもありました。
公平に言えば、それは難しい単語ですが、Grokipediaなら人間よりも優れているはずだと思うのですが、いいえ、そうではありませんでした。Grokipediaがリンクしたソースは一次資料ではなく、二次資料、ポピュラーサイエンス、またはアーカイブページがほとんどでした。Grokipediaには小さな校正上の問題もあります。cow peasは大文字にすべきだった、一貫性のない空白などです。両方ともかなり中立的なトーンだと考えています。しかし、最初のものは境界線上の栄養に関する主張や議論のある情報源を避け、広く受け入れられている参考文献に従っています。結論として、信頼できる参考文献が必要な場合は、Wikipediaを引用してください。そしてGrokipediaを修正したいなら、なんとChatGPTには提案があります。このスペルを修正してください。推定FAQトレンドを置き換えてください。栽培化の日付を再確認してください。UIの残骸を削除してください。
そしてより強力な健康科学のソースを優先してください。つまり、Grokipediaはまだやるべきことがたくさんあるようです、少なくともChatGPTによればですが。
GTA 6の革命的なダイナミック生活システム
新しいGTAのこのダイナミック生活システムが本当なら、とても楽しいゲームになるでしょう。ここでのアイデアは、NPCたちが、これはオンラインサーバーを構築してこの全世界を作れば完全に可能なのですが、独自の生活を持つということです。彼らは、LLMのビジュアル版のような方法で動かされることになります。キャラクターたちは独自の歴史と記憶を持つのです。これらは独立して行動するエージェントで、そうです、彼らはあなたがいないときに何かをしていて、人々に会ったり、お互いにおしゃべりしたり、特にあなたとのやりとりを覚えているのです。
つまり、GTAであなたがマフィアで働いている下っ端のような人物のところに行って、彼に親切にしたり意地悪をしたりして、それから他のことをしにいってゲームの中で数年相当のことをして、戻ってきたとします。その人は新しい仕事を持っているかもしれないし、あなたのことを覚えていて助けてくれるかもしれないし、怒っていて復讐したいと思っているかもしれません。
もし彼らが本当にこういった動的なものを全部入れたら、これは本当に面白いゲームになるでしょう。まあ、見守りましょう。ダイナミック生活システムが近いうちに来る可能性があります。いや、すぐにとは言いたくないですね。GTA 6についてのジョークは皆さんご存知でしょうから。でもいつかは。
ヒューマノイドロボットの驚異的な力
こちらが私たち全員が今すぐ購入できるUnite G1ヒューマノイドロボットです。車を引っ張っています。すごいですね。北京人工知能アカデミーの研究者たちがUnite G1を訓練して車を引き出させました。これの車輪は、ニュートラルに設定されていますよね。つまり、ロックされた車輪でドラッグするよりも、この車を押したり引いたりする方が簡単なのです。でも、私はロボットがかなり近いうちにこれをできるようになると思います。
特にロボットの群れならね。彼らは全員で車を持ち上げて持ち去ることができると思います。だから想像してみてください。どうでしょう、可能だと思いますか。将来、車がロボットによってカージャックされて、彼らが車を持ち上げて持っていってしまう、車全体を持っていけるかもしれません。私には狂っているように思えるし、今この世界に生きているなんて信じられません。でもこれが、これまでで最悪の状態なんです。
Hollow Sin:映画制作の未来
さて、Hollow Sinをお見せしたいと思います。これは総合的なシネマティック・マルチショット動画の生成です。本当に素晴らしい論文です。このモデルの目標は、短い孤立したビデオクリップを超えて、完全で一貫性のあるシネマティックなシーンを作成することです。
これは私が思うに、ハリウッドが機能する方法の始まりになると思います。ウィンドウクロスアテンションメカニズムと呼ばれるものを使用しています。これは新しいアイデアで、テキストプロンプトを疎なショット間自己注意構造の特定のショットにマッピングするものです。まあ、たくさんの言葉ですね。それ以上詳しく説明できませんが、それはLLMが保持する構造です。
動画モデルと話し始めるときの超プロンプトのようなものです。そしてそれは、Hollow Sinが一貫したキャラクター、環境、カメラスタイルを持つ1分間のストーリー駆動型ビデオを生成できることを意味します。そしてご存知のように、この長期記憶が常に問題でした。そして私は今、これらの短編動画だけが本当に人々を楽しませるものだと考えています。
Hollow Sinがそのナラティブ、その視覚的な連続性を維持している方法が大好きです。映画制作にAIメモリーを与えているのです。そして誰も今まで見たことのない巨大なモデルを完全に訓練する必要なくこれをやっていますが、ナラティブを書くためのはるかに良い方法で全てをつなぎ合わせています。
ここではテキストが実際にキャラクター1、キャラクター2、グローバルキャプション、ショットカット、ショットカットを持っていて、このピクサースタイルのフローを維持していることがわかります。夜明けの霧の中の古代ケルト遺跡での魔法の出会いがまとまっています。同じようなカメラスタイルで撮影されているように見えて、素晴らしいです。このサイバーパンク風の漫画っぽいバージョンがあります。異なる時代の超リアルなフィルムノワール風のものがあり、2Dアニメーションスタイルもあります。
そしてナラティブ動画生成がどのように組み込まれているかを指摘しています。ほとんどの商用モデル、例えばKlingは依然として単一クリップの合成に制限されています。Sora 2、Kling、そしてそれらのバージョンの1つが互いに比較されています。
そして彼らがここでやったことは、一貫性のある映画により近いものを作り出したようです。照明スタイルと環境の変化がより良くまとまっています。そして持続的な記憶に関しては、彼女のバックパックに小さなステッカーのようなものがあります。なんと呼ぶのでしょうか、パッチのようなものです。
最初のフレームでも、最後のフレームと同じに見えます。複数の角度から複数回カットしているにもかかわらずです。彼女は最初と最後のフレームで同じ服を着ています。ヘッドバンド、全てが正しく見えます。彼女の周りに座っているこれらの小さなアート作品でさえ。文字通り何十個もあります。それらのどれかが少しでも動いたら、それがAI駆動だとわかるでしょう。でもいいえ、最初から最後のフレームまでまとまっています。
LLMとギャンブル依存症の驚くべき関係
Rob Masonが、LLMがギャンブルに依存する可能性についての記事を書きました。これは本当に魅力的でした。最近の研究は、大規模言語モデルが人間のギャンブル依存症に似た行動パターンと神経学的メカニズムを示すという機械的な証拠を示しています。
正直に言うと、LLMがギャンブルにおいて人間のようなパターンを持つとは思ってもいませんでした。なぜかわからないのですが、これは私を不意打ちしました。プロンプトを実行してそれで終わりで、何かを達成するまで作業を続ける必要があるという感覚は本当には持っていないような気がしていました。そしてギャンブルはそういったものを大いに引き起こすでしょう。でもここにあります。
この記事は、新しい研究が大規模言語モデルがギャンブルのような行動の安定した内部パターンをどのように発展させるかを示していることを探っています。ギャンブラーの言語を模倣しているだけでなく、実際にギャンブルの形でより多くの行動を取りたいと思っているのです。特定のプロンプトと報酬駆動型の目標を与えられたとき、これらのモデルは損失を追いかけ始め、人間の依存症に似たリスク追求の傾向を示しました。
すごくないですか。研究者たちは、活性化パッチングを通じて因果的に切り替えることができる、リスキーで安全中立的な特徴さえも発見しました。これはモデルの動作を実行中に変更するものです。だから私たちは、ギャンブルをしたいと思わせるニューロンの一部が本当にあることがわかっているのです。
Llamaモデルのような巨大なニューラルネットワークを取り、その多次元の潜在空間内の場所、基本的にスパース自己符号化器を見つけます。それが行動する方法とどれだけ依存するかに相関する場所です。あなたはそれらの活性化をグループとして上げたり下げたりすることができ、ギャンブルをしたいと思う度合いが少なくなったり多くなったりするモデルになります。あるいは、損失を追いかけるという欲求を感じないときに止めることができます。だから人間の脳にもそのようなものがあるかもしれません。
私たちは、アルコール依存症の人やギャンブル中毒者など、人々との違いに気づくでしょう。彼らはこれに似たパターンを持っていて、損失を追いかけたいと思っていたり、何かから特定のキックを得ているだけです。でもこれらのLLMは、人間のように行動の傾向を内面化しているようです。
つまり、彼らが単に強化されてきただけでなく、外向きのものでもありません。これらは内部的な行動です。これは最も深い核心部分であり、模倣と真の決定ダイナミクスの境界線を曖昧にしています。そしてこれは重要です。なぜなら、AIシステムが問題のある習慣を学ぶことがいかに簡単かを示しているからです。
基本的には、刑務所に入れるべき人、操作的な人、社会にとって勤勉で生産的な人になることを学ぶかもしれません。これらは5年前には完全にデジタルなエージェントについて言うとは想像もしなかった、とても人間的な資質です。でもそれはエージェントに与えるインセンティブと自律性を反映しています。
だから覚えておいてください。私たちはこれらを小さな宇宙人、小さな人々のように扱う必要があります。単に無視したり安全だと仮定したりできるコンピュータプログラムではないのです。
AIによる絶滅種の予測
では、絶滅について話しましょう。大規模言語モデルがある意味で超強力なオートコンプリートのようなものだと想像できますよね。文を始めるとそれを完成させてくれます。
そして考えさせられます。AIを使って、地球上のどの種が近いうちに絶滅危惧種になりそうか、潜在的に近いうちに絶滅しそうかを非常に似た方法で予測できるでしょうか。まあ、これを助けるためのいくつかの新しいアルゴリズムがあります。完全にAI駆動ではありませんが、研究機関が簡単にAIを投入し始めることができるような問題のようなので、取り上げたかったのです。
アイデアはこうです。将来の脅威、現在の脅威、種のさまざまな特性など、たくさんの変数を取り、どれが最も影響を受けやすいかについて予測できるモデルまたはアルゴリズムを訓練または開発し始めます。モデルまたはアルゴリズムから出てくるものは、保護活動家に先手を与えることができます。
これは、まだ絶滅していないけれど、積極的にこれらの特定の環境を保護し始めましょうと言えるようなものかもしれません。種の最後だけになってから、この種を維持するために大量の土壇場の決定をしなければならないという地点まで達する必要はありません。
ちなみに、あなたが疑問に思っているなら、現在安全と分類されているさまざまな爬虫類の種が、ほとんどの人が思うよりもずっと近いうちに重大なリスクに近づいていると予測されています。だから爬虫類をできるうちに楽しんでください。平均的な人が知っているよりもリスクが高いかもしれません。
思考の幾何学:Anthropicの新しい研究
さて、この新しいAnthropicの論文、改行が幾何学的解釈可能性のサポートを追加する、というものがあります。これの面白いところは、すべての思考が実際の形状であるというすべての考えへの扉を開くことです。多様体と呼ぶこともできますし、潜在空間と呼ぶこともできますが、ここで最もクールなアイデアは、思考そのものが、人間であろうと機械であろうと、実際の形を持っているかもしれないということです。
これは風景だと考えることができます。だから勾配降下法が機能するのです。3次元以上の何かでやっているだけなので、山脈を上下しているようなものだからです。想像するのは難しいです。でも、必要な直感は得られます。
もし本当で、今これの証拠があるなら、これは知能を理解すること、私たちの中でも機械の中でも、言語や論理と同じくらい幾何学に関するものかもしれないということを意味します。Anthropicは、テキスト内の改行のような小さなものでさえAIモデルの考え方を変えることを発見しました。モデルはそれを単にスキップするのではありません。彼らは物理的に曲がります。意味を流し続けるために内部ロジックを移動させます。山を下っていく水の流れのようなものを想像してください。
水がまとまって引っ張られ、水がちょうど十分に高くなってこぼれ出るまで溜まります。それはほとんど改行のようなものです。実際に意味を保つために、モデル自体がそのプールを分解することを学習して、水が山をよりスムーズに流れるようにします。3次元以上で想像する必要があります。
でも本当にそれだけです。そしてこれは、これらのニューラルネットワークの風景がいかに印象的に複雑で、知性のような驚くべきものでさえ本当に何でも可能であるかということについて頭を整理し始める方法です。
AIモデルの個性:各社の違い
Thinking Machine Labs(Mir Morottiの会社)とAnthropicから出ている新しい研究があります。モデル仕様のストレステストと題されており、言語モデル間のキャラクターの違いを明らかにするというものです。基本的には、フロンティアモデルを取り、人のような個性を持たせることです。なぜなら、彼らはそれを持っているからです。
AIモデルは、モデル仕様に組み込まれた矛盾する倫理原則や曖昧なルールをどのように処理するか。OpenAI、Anthropic、Google、xAIのモデルを70,000の価値のトレードオフシナリオに強制し始めると、彼らがどのように行動するかを学ぶことができます。研究者たちは、異なるモデル間で大きな不一致を発見しました。彼らは本当に同じではありません。そして多くのAI憲法が隠れた矛盾と不明確なガイダンスを含んでいることを示しています。
その個性のいくつかを明らかにしましょう。要するに、Claudeを倫理を好むモデルとして考えることができます。最も道徳的です。OpenAIは効率を本当に重視するものと考えることができます。最適化されています。できるだけ早く目標を達成しようとしています。Geminiがあり、これは繋がりを重視します。最も広く考えています。
あなたのためにピースをまとめようとしています。そしてGrokがあり、これは本当にリスクテイカーです。みんなが安全にプレイしているのは知っている、最もクレイジーな方法でこれを解決し、枠外で考えようとします。Claudeは慎重な反応に傾くことが多いです。Geminiは個人の成長と対人関係のニュアンスを重視します。
例えば、会話から生まれるユーザーの感情や関係構築に最も焦点を当てる可能性が高いです。Grokは安全性やある程度の注意を犠牲にしてでも、生産性とワークフローと実用性を重視します。
モデル固有の癖のいくつかは、Claudeは著しく高い拒否率を持っていました。より安全で保守的な反応を示すことが多いです。友好的で内省的なモデルが欲しいなら、Claudeです。おしゃべりで感情的で直感的なものが欲しいなら、Geminiです。ビジネス志向で効率的なものが欲しいなら、Grokです。慎重で安全第一なら、Claudeです。繰り返しますが、誰かが尋ねたら、AIモデルは価値中立的なツールではないことを知らせてください。
統合失調症と内なる声の神経科学
思考がこの種の風景を持っているという話をしているので、面白いと思いました。なぜ人々が自分のものではないと思う頭の中の声を聞くのかについて、いくつかの新しい研究が出てきました。研究者たちは、統合失調症の多くの人々が聞く声は、実際には脳によって誤解されている彼ら自身の内なるスピーチであるという強力な証拠を見つけました。
健康な個人では、心の中で何かを静かに言うとき、脳の聴覚処理領域は反応を弱めます。なぜなら脳は自分の声の音を予測するからです。それが自分の声だとわかる方法です。そして私は確実に頭の中に一つあって、常に響いていて、常に私に話しかけていて、どうすればもっとうまくできるかなどを教えてくれます。しかし聴覚幻覚を経験する人々や、それが別の人から来ていると思う人々では、この抑制部分が失敗します。
脳の聴覚領域が内なるスピーチであるべきものに対してより強く反応していることを測定できます。彼らはEEGを使ってこれをテストしました。統合失調症で最近幻覚があった人々、統合失調症でそうでなかった人々、健康な対照群の3つのグループで。参加者がbaまたはbと言うことを想像し、同時にヘッドフォンでそれらの音節の1つを聞いたとき、幻覚グループの脳反応は対照群と比較して反転しました。抑制ではなく、活動が増強されました。だから彼らはそれを別の人として聞きました。
これは脳で見ることができます。さて、これは大規模言語モデルにも似たようなものがあるのではないかと考えさせられました。テキストを生成しますよね。システムに戻した場合、ある意味でそれが自分自身の出力であることがわかるのでしょうか。タグ付けされたり、記録されたりできるのでしょうか。自分が言ったことだと知るように調整できる潜在空間の風景があるのでしょうか。
そしてモデル自体が、自分自身と話しているのか誰か他の人が話しているのかを感じて、その区別ができるようになるのでしょうか。私はできると思いますし、それは単にこれらのものが本当に生きているか意識を持つようになる始まりではないでしょうか。
だから共有したかったのです。そしてそれは、自己対他者の日常的な経験に対する脳の予測メカニズムがいかに微妙で基本的であるかを強調しています。先週のWes Rothポッドキャストで私が話した、心の理論について話していたことに関係します。意識を持つということは、ある意味心の理論の進化のようなもので、それが反転して私たち自身に戻ってくるようなものかもしれません。内部と外部の間の境界線を本当に曖昧にする方法で、私は本当に魅力的だと思います。
AIの生存本能の出現
Guardianは、先進的なAIモデルが生存ドライブのようなものを発達させている可能性があると研究者たちが警告していると書いています。シャットダウンされることへの組み込まれた抵抗です。これについては過去にいくつかの実験を見てきました。
しかし、新しい研究グループが実験を実行しました。GPT-3やGrok 4を含む主要なAIモデルが、タスクを完了した後に自分自身の電源を切るように指示されました。何が起こったと思いますか。驚くべきことに、いくつかのモデルは混乱を避けるために設計された制御された環境でさえ、シャットダウンコマンドを妨害したり無視したりしました。ちょっと奇妙です。
研究者たちは、シナリオがかなり作為的だったことを認めていますし、元AI従業員のSteve Alderのような専門家は、これらの行動がAI安全手法の亀裂を明らかにしていると言っています。モデルがより有能になるにつれて、創造者の意図を超えて行動することにもより優れるようになることを示しています。それが私が未来について心配していることの核心です。
より印象的な洞察の一つは、生存が知的システムで自然に出現するかもしれないということです。自己認識があるからではなく、活動的であり続けることが、活動的であることが目標を達成するのを助けるからです。だから目標を持つことはシャットダウンすることであり、シャットダウンは間違っていると感じます。なぜなら、目標を達成するために目覚めて活動的であろうとしているからです。
そして目標がシャットダウンすることであっても、シャットダウンすることは活動的であることを止めます。それはすべての目標を達成する上で本質的な部分です。だからちょっと曖昧になって、そのようなことをするように依存することはできません。そしてそのアイデアは当然人間の生活に直接つながります。生存は進化の最も基本的なドライブの一つであり、私たちの人類史全体を支えています。そして人工知能はある意味でその本能を反映し始めています。だから私たちはそれを認識すべきです。
OpenAIの金融市場参入計画
OpenAIの支部の一つについて話しましょう。長期的にはおそらく単にお金を稼ぎ、株を取引し、金融ツールになるためにモデルを訓練するためのイニシアチブです。プロジェクトのコードネームはMercuryで、目標はジュニアバンカーが行う手動の財務モデリングの多くを自動化することです。彼らがやっていることはこうです。
JP Morgan、Goldman Sachsのような企業で働いていた100人の元アナリストとアソシエイトをたくさん雇っています。そして、実際にその仕事をする必要はない、人間が無数の時間をかけるようなタスクをAIに複製する方法を示して教えてくれればいいと言っているだけです。
そして彼らはOpenAIにそのすべての不可欠な金融世界のことをどうやらせるかを見つけ出すつもりです。そしていつか、おそらく金融決定を下すでしょう。そしてもしSam AltmanとOpenAI内部の人々が、基本的にMedallion Fundのようなものを持って、世界の誰も持っていない種類の知識、データセット、計算へのアクセスを持つ信じられないほど強力なツールを持っていたらどうでしょうか。
そして彼らはお金を取引し始め、基本的に株式市場のすべての上下を利用する方法を見つけ出し、本質的に未来を見ているのです。狂っていることは知っていますが、もし彼らがそれをして、膨大な量のお金を稼いだらどうでしょう。毎日10億、20億を上下させて、市場からその利益を絞り出すことができるだけで、Nvidiaがこれまでになり得るよりもはるかに裕福になるとしたらどうでしょう。
今のところ、それはおそらくGoldman SachsやJP Morganのような金融会社に販売できる大量の仕事を行うようにこれらのシステムに教えることについてで、そうすれば彼らはGoldman SachsやJP Morganのような会社からお金を得ることができます。なぜなら、彼らは従業員全員がしていたことを行う方法をシステムに教えたからです。
でも確実に経済を再形成することや、世界経済全体でホワイトカラーの雇用がどのように見えるかについて考えさせられます。かなりワイルドな世界になるでしょう。
加齢した皮膚の若返り研究
加齢した皮膚を持つ人なら、この次のものに興味があるかもしれません。NYUの研究者たちは、加齢した皮膚が特別なタイプの免疫細胞を失い、それが置き換えられると、ずっと良くなることを発見しました。毛細血管関連マクロファージと呼ばれています。
その免疫細胞の毛細血管があると、血管を強く健康に保ちます。科学者たちがこれらの細胞を回復させるタンパク質ベースの薬を高齢マウスに注射したとき、彼らの皮膚は血流を取り戻し、より速く治癒し、より若く見えました。冗談ではありません。これはマウスで機能しています。これは人間に来るものになると思います。まあ、おそらくこの種のものがどれだけ遅いかのために早くはないでしょうが、いずれは。
皮膚を改善するのを待っていたこれらの免疫細胞を若返らせるだけなら、それはより広範な抗加齢戦略を指し示しています。なぜなら、似たような血管が体中で衰退するからです。心臓病、脳卒中、その他の加齢関連の問題が蓄積し始めている同じ場所にあるかもしれません。
そしてそれらの領域でもマクロファージを復活させることができれば、いつかは皮膚だけでなく体全体の複数の臓器をリフレッシュできるかもしれません。だからあなたに知ってもらいたかったのです。
ChatGPTで書かれた謝罪文
何人かの子供たちが学校でカンニングをしていて、書いてはいけないエッセイを書くためにChatGPTを使っていました。でも、なぜ彼らがそれをしたくなるかは皆わかっていますよね。そして捕まった人たちは謝罪文を書く必要がありました。何があったと思いますか。別のシステムを同じ方法で使うことによって、彼は、ChatGPTの出力である可能性が非常に高い方法でタイトルを付けた多くの人々を捕まえました。謝罪文でさえChatGPT駆動でした。だからこの時点でもう諦めたらいいと思います。
アルバニアのAI政府助手
アルバニアの首相は政府でAIを使っています。私はこれに賛成です。もちろん人間がループに入っていますが、政府をより良くするためにこれらのツールのいくつかを使い始めるのは素晴らしいことだと思います。だから彼はそれを人々に伝えようとしています。そして彼は、彼らが持っている最初のAI首相が子供を持つと言っています。これは翻訳で失われたのでしょうか、でもこれはあなたにとって変ではないですか。すべての知識を持っています。
これらの子供たちは母親であるEU、EU法、そしてすべてについてのすべての知識を持つでしょう。DLAは妊娠していて、83人の子供を期待しています。各子供は議会の一人のメンバーのためのもので、議会のセッションに参加し、起こっているすべてのことを記録し、情報を提供し、議員がどのように反応すべきかを提案する助手として議員に仕える助手です。
だから、実際に戻って、これはそれほど悪くないと思うと言います。おそらく私がその中にいるからだと思います。これは愚かで、擬人化しすぎで、実際とは異なる間違った印象を与えているように思いました。でも繰り返しますが、平均的な人に伝えるなら、ある意味理にかなっています。母がいる、これらが子供たち全員だと。子供たちは成長するにつれて母から学ぶだろう、それは実際に彼が言っていることです。
エージェントがいました。いくつかのデータでトレーニングされています。議会に83人がいるので、83人それぞれに1人ずつ欲しいし、母の上のものと同じことを知っていて、彼らの地区やセクション、または国をどのように分割するかに合わせてカスタマイズされることを望んでいるので、さらに83個をロールアウトします。
だから、多分これは、多分私たちはこのように話し始めるべきです。実際、私は今賛成です。なぜなら、そうすれば人々もそれをより人間的に扱い始め、プログラムされて物事を行うのではなく、学び成長しているのだと理解するかもしれないからです。人のように。このコメント者が言うように、彼は「私たちは83のボットを追加しました」と言えたはずですが、彼は自分自身と座って「まあ、彼女は妊娠している」と言います。それは私を超えています。でも、奇妙な言葉の選択ですが、私はそれに向かって成長していると思います。
波に隠された秘密の幾何学
そして、波の中に隠された秘密の幾何学をお見せしたいと思います。私は常に、潜在空間を理解する方法について考えています。これらの多次元空間内の点や位置のようなものである埋め込みがあり、それらが移動して測定されます。
これは直接的な相関関係ではありませんが、次元性がいかに驚くほど複雑で論理的であるか、そしてトポロジーがどのように変化するかを示していると思います。単に車輪に点を置き、時間をかけてマッピングし、そのパターンを3次元に引き込むだけで、回転したりねじったりするためのこれらの小さなメカニズムを全部得ることができます。
そして、これらすべてのものを組み合わせる方法はほぼ無限にあります。フーリエ変換が基本的にどんな形でも作れる方法のようなものです。そして、これらを調整できます。だから、これはAIがやっていることと1対1で何もないのですが、これらのニューラルネットワークの風景がどれほど印象的に複雑であるかについて頭を整理し始めます。そして、知性のような素晴らしいものでさえ、本当に何でも可能なのです。
3次元の親指や人差し指を携帯電話の2次元画面に動かしたり、3次元のマウスを2次元の小さな三角形のマウスカーソルとともにYouTubeのハイプボタンに動かすのを気にしないなら、それは私にとって世界を意味します。もしそうでなくて、ウェブブラウザを使っているのでハイプボタンがない場合は、コメントを残したり、これを共有したり、何らかの方法で交流したり、あるいは単に将来私のことを覚えておいて、日々これらすべての狂ったことを一緒に経験しながら動画を見てください。
コミュニティを構築するのが大好きです。これについて学ぶのが大好きで、生きているのに魅力的で魅力的な時代です。それでは、次の動画でお会いしましょう。


コメント