
13,574 文字

Netflixは人工知能を使って実際に広告を制作し始めています。視聴している映画に完璧に溶け込むような広告をです。私がこれにどれほど反対しているかは説明が困難です。1から10のスケールで言えば、間違いなく10です。
OpenAIはAIソフトウェア開発を次のレベルへと押し上げています。彼らはCodex、クラウドベースのソフトウェアエンジニアリングエージェントを導入しました。これはCodex Oneモデルによって動力を得て、多くのタスクを並行して処理できます。
Codexはプロジェクトの基本をセットアップしてくれます。ですから私がデスクに着く頃には、それが私のために始まっていました。ソフトウェア開発は変化しています。Alpha Evolveとして知られ、これは同社のGemini大規模言語モデルをベースにしています。そして進化プラス学習は知能爆発を意味します。
ある女性がChatGPTがコーヒーカップで夫の不倫を読み取った後、離婚を申請しました。夫がEで始まる名前の女性について空想していることを解明したようです。科学者たちは今、サイバーセキュリティシステムには見えない秘密のメッセージを暗号化するためにAIを使用しています。
ジェームズ・ドーマは、おそらく私がこのチャンネルでインタビューしたい最もお気に入りの人物の一人ですが、TeslaのダンシングOptimistロボットがなぜそのような画期的な存在なのかを解説しています。なぜなら、人間は逆振り子だからです。歩くことは奇跡なのです。
私たちは連続思考マシンのアイデアについて深く掘り下げていきます。これは神経活動の同期をその中核的推論メカニズムとして独自に使用するAIモデルです。かなり脳に似た響きですね。
Googleの研究チームは、テキストを簡素化する新しい方法を開発しましたが、最小限にです。つまり、5歳児に説明するようにではありません。それは正確に高度なレベルで説明しながらも、消化しやすく理解しやすくするということです。大きな違いです。
PoからいくつかのAIモデルランキングが出てきています。見てください、Runwayでビデオを作成している人の方が、ClingやVOよりも多いのです。これは私には直感に反します。
Metaの研究チームは、子どもたちが自然言語表現をどのように発達させるかを研究しています。AIモデルも似たようなプロセスを経ることが判明しました。Rafy Brenaは、なぜ空飛ぶ車が人工知能なしには離陸しないのかについて意見を述べています。デューク大学では心の理論をロボットに教えており、それが彼らの協力を向上させることが判明しています。
そしてGreg Satelが、なぜ意図がAI経済の中心になるのかを解説しています。
しかし最初に、もしチャンネルをサポートしたいなら、patreon.com/dillingcuriousへお越しください。91人のメンバーがすでに参加しています。そのコミュニティを成長させ続けたいと思います。月額わずか3ドルです。チャンネルを完全にサポートしてくれます。しかし、Patreonに行きたくない場合でも、このYouTube動画の下にある参加ボタンが基本的に同じことをしてくれます。どちらの方法もサポートする素晴らしい方法です。
では、本題に戻りましょう。人工知能で行われる広告のアイデアが嫌いだという強い意見から始めさせてください。私は人工超知能による大規模説得を恐れています。誤情報が問題だと思っていたでしょうが、それが意図を持った精密な誤情報になるまで待ってください。そして、これがすぐにそれに進化しないとは思えません。
つまり、Netflixは広告ブレイクが広告ブレイクのように見えないような広告を作るためにAIを使用するということです。これは番組にシームレスに溶け込む広告につながり、おそらくNetflixがキャラクターのIPを所有しているため、キャラクターが関与するようになるでしょう。そして、それは広告ブレイクのない映画へと進化するでしょうが、それらには文字通り意図と説得がナラティブに組み込まれているのです。
これが私たちの誰もが望む世界でしょうか。そうは思いません。もしみんなが、物を無料で手に入れるけれど、今すぐコーラを飲みたくなるという感じなら、それは無料ではありません。
ステップ1はAI生成広告です。現在、これらの広告は番組の一時停止中やショーの途中でオーバーレイとして表示されます。それらはStranger ThingsやBridgertonのような人気シリーズの美学に合わせられています。目標は、広告をより邪魔にならず、視聴体験により統合されたものにすることです。
これを本当に阻止できるとは思いません。Netflixがこの方向に進むのは非常に理にかなっています。彼らがストリーミングを変革したのと同じように、将来AI生成コンテンツを変革するかもしれません。
この動きは、Netflixの広告サポート層の急速な成長と一致しています。人々は無料かどうかは分かりませんが、確実に月6ドルほど安く視聴できます。その広告層は現在9,400万人の月間ユーザーを誇り、昨年から倍増しています。
現在、私たちはこれらすべてが非常に高度でそれほど心配するような場所にはいません。しかし、進歩の速さを考えると、1年か2年後には、私は真剣に、映画を見るためにお金を払えない場合、広告サポートされているものを見ることを考慮しないでしょう。彼らが私から直接お金を稼いでいないなら、私たちの意図は完全に不一致であり、それを望まないとさえ思います。誰かがそのように広告で私を襲うつもりなら、私は報酬を得るべきか、そのコンテンツから離れていたいと思います。インターネットの原罪は広告サポートされていることだと聞いたことがあります。
さて、次に進みましょう。これはCodexです。これには非常に興味をそそられます。OpenAIがCodexの研究プレビューを発表しました。これは新しいクラウドベースのソフトウェアエンジニアリングエージェントで、エージェント的なワークフローを持っています。つまり、何かを依頼すると、複数のエージェント、まるでソフトウェアを構築するチームのような人々がいて、同時に複数のコーディングの側面とタスクを引き受けてくれるのです。
現在すぐにできることには、新機能の作成、基本的にはコードの記述があります。コードベースの質問に答えることができます。バグを修正でき、GitHubのようなリポジトリと話してプルリクエストを送信し、異なるステージや本番環境にプルやプッシュすることができます。
そして、これらすべてを隔離された環境内で行うことができます。そして、それは異なるモデルによって動力を得ています。それが実際に推論モデルかどうかは分かりませんが、新しいモデルはCodexと呼ばれています。はい、CodexはOpenAIのo3推論モデルの特化版であるCodex Oneという推論モデル上に構築されています。ソフトウェアエンジニアリングタスクに最適化されています。
非常に興味深いのは、あなたのためにコードを作成するこのチームがいて、すべてのエージェントがこの隔離された環境内にこのMDファイルを持っていることです。そして、それは全員、つまりエージェントが何をするかをこれらのログを通じて追跡しています。私はこれを変更した、これを変更した、あの人の、つまり他のエージェントのコードをレビューした、そして私の目標に合うから、彼または彼女または彼らが何と呼ぼうとエージェントに合うから、この変更を加えたかった、などです。そして、これらすべてがこのインタラクティブなオンラインUI、ユーザーインターフェースを通じて起こります。
彼らの公式PR発表を読むと、それが実際に超人的に見えるいくつかの種類のバグがあることが分かります。例えば、彼らはあることについて話しています。私はここで頭を悩ませていますが、ネストされた複合モジュール問題のようなものです。長年にわたるバグがあったようです。それは、ネストされたモデルの偽の依存関係マッピングによって引き起こされ、コードの一部が実際にはそうでないのに密結合しているように誤って見えるようになっていました。そして、Codexはこのコードベースに深く潜り込み、バグを検出するだけでなく、正確な修正を提案し、それを検証することができました。そして、これはもはや小さなスニペットを書くことだけではないことを示しています。それは深く技術的な問題についてのことなのです。
ある女性がChatGPTがコーヒーカップで夫の不倫を読み取った後、離婚を申請しました。12年間の結婚が台無しになりました。このギリシャ人女性が、ChatGPTに言われたからです。直接的ではありませんが、十分近いものでした。
完全な話では、チャットボットは不倫の兆候を見つけたと報告されており、具体的には彼女の夫がEで始まる名前の女性について空想しており、その女性が彼らの家族を破壊しようとしているということでした。分かりませんが、その後彼女は彼と別れたので、彼女が家族を破壊したということでしょうか。
ある日、彼女がギリシャコーヒーを作り、カップの写真を撮ってChatGPTに読んでもらうのが面白いと思ったそうです。茶葉を読むように、またはタロットカード占いのようなものです。そして、それはおそらくほとんど冗談としてやったのです。彼はそれをあまり真剣に受け取りませんでした。私はそれをナンセンスだとして笑い飛ばしましたが、彼女はそうしませんでした。彼は言いました。「彼女は私に出て行くように言い、子どもたちに離婚について知らせ、次に分かったことは、彼女の弁護士から電話がかかってきたことでした。」何ですって?なぜ?
科学者たちは、サイバーセキュリティシステムには見えない秘密のメッセージを暗号化するためにAIを使用しています。これはなかなか興味深いサイバーセキュリティのアップデートです。科学者たちはメッセージに秘密を隠しています。そして、AIチャットボットを使用することで、鉄壁の暗号化の世界につながる可能性があると言っています。
私はこれらのブラックシステムがなぜ決定を下すのかを説明しないことにとても心配しているので、すでにすべてが暗号化されているように感じています。これらのエージェントが非常に迅速に独自の言語コミュニケーションシステムに変わってしまうので、彼らが内部で何を言っているのかを理解しようとしています。
しかし、研究者たちは今、それを利用しています。彼らはAI生成テキストに暗号化されたメッセージを埋め込む新しい方法を開発し、現在のサイバーセキュリティシステムにはほぼ検出不可能にしています。
embed LLMとして知られるこの技術は、人間らしいAIチャットボットの応答に秘密のメッセージを巧妙に隠し、通常の会話として通過させることができます。一体何ですか?
このシステムは、隠されたコンテンツをデコードするために共有パスワードまたは秘密鍵を必要とし、デジタルの見えないリンクのように機能します。そして、この種の革新は、従来の暗号化が制限または監視されている環境、例えば抑圧的な政権下での安全な通信に希望をもたらします。そして、研究者たちは悪用のリスクがあることを認めており、この種の技術を倫理的に使用することを強調しています。それが役立つことを願います。
これを実現するために、彼らは3D関節データ、人間の骨格を抽出し、それがロボットの骨格になるように転送する必要がありました。関節データを通じて人間の動作をこのロボットにコピーし、それが倒れた場合、「ねえ、倒れたから報酬を得られない」と言うことができます。そして、それが直立していれば報酬を得て、予想される動作に近づけば近づくほど良くなります。
つまり、ヒューマノイドロボットの中にいるときに実際に正しく行えるように、これらすべての小さな調整を行い始めるのです。そして、これは私にとって新しい言葉ですが、それはshim層と呼ばれます。Shim M。実際、それが何の略語なのか気になります。
興味深いことに、shimは実際には頭字語ではありません。私が読む論文はすべてこれらの頭字語だらけですが、それは実際に機械工学から来ており、shimは部品を合わせるために使用される薄いスペーサーです。shimライブラリは馴染みのない古いAPI呼び出しを傍受し、引数を調整してから、呼び出し元に制御を戻します。
つまり、基本的にはロボットがなぜ倒れるのかを倒れなくなるまで調整し続けるということです。モーターは正確に何をするのでしょうか。シミュレーションでは、単純なシミュレーションでかなり近づくことができますが、ロボットが本当にうまく動くほど十分に近づくことはできません。本当に、本当に近づく必要があります。そして、そこにはこれらすべてのクレイジーな非線形性があります。
既製のモーターを購入している場合のようなモデルを取って、1つをジグに入れてテストし、テストし、テストして、それがどのように動作するかを正確に把握できます。言ったように、そこにはこれらすべての非線形性があるからです。そして、そのモーターのニューラルネットワークを作成し、次に別のモーター、別のモーターに対してそれを行い、すべての関節、すべてのアクチュエーター、すべてのボールベアリングに対してそれを行います。これらの一つ一つには伝達関数があり、ニューラルネットワークがそれを考慮に入れなければなりません。
人間は逆振り子です。歩くことは奇跡です。私たちはポールであり、バランスを取っています。私たちは人間だからそれを当たり前と思っています。しかし、歩くことは非常に、非常に複雑な挑戦です。
彼の言うことを理解しているなら、これらのロボットのすべての関節とアクチュエーターにニューラルネットワークがあるとすれば、それも非常に驚くべきことです。なぜなら、ロボットは人間とは異なり、私たちには中央集権化された脳があり、すべてが私たちの他の部分に出て行くからです。つまり、頭の中の脳が肩や肘をシミュレートしているのかもしれませんが、タコがその触手全体に脳を持っているように、小さな脳を持っているのかもしれません。
これらのヒューマノイドロボットは、膝の動きに優れた膝、足首、腰に完全なニューラルネットワークを持つかもしれません。彼らはヒューマノイドフォームファクターにあるため私たちには人間のように見えるかもしれませんが、異なる方法で分散され、異なることを学習している彼らの脳は、非常に超人的で、理解するのが困難かもしれません。
では、連続思考マシンモデルについて話しましょう。これはSakana AIが発表したものです。思考マシンについて話します。
彼らはAIモデルのかなりユニークなアーキテクチャに取り組みました。連続思考マシンと呼ばれています。典型的なAIモデルとは異なり、時間を静的に扱います。静的です。動きません。時間は凍結されています。
CMT、これらの連続思考マシンは、ニューロン活動にタイミングを組み込んでおり、時間をかけて考えることを可能にします。つまり、人間の脳では、波が移動してすべてのニューロンを引き金にするのに時間がかかります。そして、タイミングについて何かが学習の大部分を占めています。
通常のニューラルネットを訓練するとき、これらの重みを持っていて、活性化を微調整していると、ただそれを通すだけのものになりますが、それを通るのにかかる時間は必ずしもそれが学習したものの一部ではありません。
CMT方法によってニューロン活動にタイミングを組み込むことで、複数のステップでよりよく考えることができます。その結果、よりヒューマンライクな推論とニューロン活動を同期し、各ニューロンの過去の状態を活用することで、より大きな解釈可能性が得られます。モデルは迷路や画像分類のような複雑なタスクを、より自然性と効率性で解決できます。
これらのCMTモデルは単に答えを与えるだけでなく、実際に解決しようとしている問題について反映します。特に彼らがテストしている小さなモデルでは、パフォーマンスの向上につながります。これが実際にかなり大きな突破口になるかもしれない理由、または人間の脳について多くを学ぶことができるもの、意識の感覚、私たちのあり方は、この種のシステムが迷路を解こうとしたとき、非常にヒューマンライクにそれを行ったことです。
これは、私たちが指を迷路の開始点に置き、行き止まりに当たって、どこに行ったかを覚えようとして、別の道を試すのとそれほど違いはありません。そして、画像分類に関してもより人間らしいのです。
従来のモデルの多くは非常に正確に分類しますが、人間の目がするような方法でジャンプしません。鼻と目の間の距離、背景との色などを見て、イグアナやトラなど何であるかをまとめます。人間の焦点をある程度ミラーする方法で動きます。
これが人間の脳の働き方にかなり近いのかもしれないと思わせます。なぜなら、これらは創発的行動であり、私の脳にあるものも創発的行動かもしれないからです。
Googleの研究に戻りましょう。複雑なテキストを理解可能にします。Geminiによる最小限のロス文章簡素化です。
私は複雑な論文などをChatGPTに入れて、「簡単で理解しやすい方法で説明して」とよく言っていることを認めます。しかし、私が意味するのは5歳児に説明することではありません。通常それが得られるものです。そして、それは私に不利益をもたらすと思います。時々、単純すぎる方法で理解させ、誰でも理解できるが必要な詳細を与えないため、学習理解が損なわれ、残念ながらビデオを通じてそれを伝えてしまうことさえあります。
Googleの研究がSimplifyと呼ばれるこの興味深い機能を展開したのを見たとき、私はかなり興奮しました。これは複雑なテキストをはるかに理解しやすいものに変えるのに役立ちますが、重要または複雂な詳細を失うことはありません。より読みやすい方法で説明してくれるだけです。
専門用語を取り除きますが、概念を下げることはありません。Gemini言語モデルを使用して構築され、要約や説明ではなく、元の内容がすべて言っていることを、巧妙な方法で複雑なものを実際に書き直すことに焦点を当てています。そして、システムは別のAIを使用するなど、AIが指示をチェックし改善する何トンもの反復を実行することで自己調整します。
そして、彼らは何千人もの参加者でこの新しいシステムをテストし、人々が簡素化されたテキストをよりよく理解し、それにより自信を感じ、読書が精神的にあまり疲れないことを示しました。ああ、それが私に非常に必要なものです。
今、唯一の問題は、悲しいことに修正するのが最も簡単であるべきなのに、私にとって非常に有用な方法で展開されていないことです。これはiOSのGoogleアプリの新機能ですが、私はそのアプリをあまり使用せず、Geminiに行ってそれを行うことはできません。私のワークフローにはあまり適合しませんが、これがもっと一般的になることを願っています。もしSimplifyを使用するより良い方法を知っているなら、教えてください。私はそれがGeminiにあることを望んでいます。URLを教えてください。
Poについて、昔実際にPoをたくさん使っていました。複数のモデルがある最初の場所の一つでした。私は長い間それをやめていますが、いいですね。一つのサブスクリプションで多くの異なるものを見ることができます。
そのユーザーベースから、いくつかの興味深いトレンドがあります。GPT-4o、次にClaude、次に別のClaude、次に再びGPT、次にGeminiが人々がテキストモデルを使用する方法です。しかし、推論に関しては、人々は本当にGeminiモデルをより好みます。ここでOpenAIが4位まで現れません。DeepSeekの後でさえです。
Imagegenは絶好調です。私はImage 3を非常に気に入っています。非常に強力だと思います。しかし、GPT image 1 image 04の方がはるかに優れていると思いますが、このシステムではそれがおそらく最高の一つなので、それは理解できます。
そして、ビデオでも驚きました。V2が最も使用されると思っていましたが、Clingで時々混乱します。あまり使用しませんが、いつも人々がそれで何かを作っているのは知っていますが、それは本当に人気があります。Runwayの20%の人々を占めて少し下です。そこでちょっとした考えの糧です。
では、「星の王子さまとAIが脳の言語発達をよりよく理解するのにどう役立つか」と呼ばれる研究を見てみましょう。
子どもの脳が言語スキルをどのように発達させるかを調べたMetaの新しい研究があり、AIモデルが学習する方法との魅力的な類似点を発見しました。
星の王子さまのオーディオブックを聞いている人々からのデータを使用し、電極が脳活動を監視している間に行いました。研究者たちは、幼児でさえ基本的な音を認識できるが、完全な単語や文法の理解は後になって、より成熟した脳領域を必要とすることに気づきました。
子どもが年を取るにつれて、彼らの脳はより多くの訓練データでAIモデルが改善するのと同じように、言語により深くより広く反応します。そして、クールな部分は、Wave2vecモデルやLLaMA 3.1のようなAIが音の認識から完全な意味まで言語を学習する方法が、私たちの脳が言語への露出を通じて進化した方法を反映していることです。
これらのモデルが人間の脳にどれほど似ているかは常に印象的でした。しかし、連続思考マシン、これらのより大きなLLaMA 3.1モデルと子どもの脳が物事をまとめる方法の言語学習のパターンを知っています。
要するに、人間と人工システムの両方が基本的な音認識から複雑な意味まで、段階的に言語を構築し、非常に似た方法で行うということです。AIの学習と人間の学習の重複を強調し、魅力的です。
いくつかの意見記事に入りましょう。Rafi Brianaは「空飛ぶ車はAIなしには離陸しない、そしてこれがJetsonsが間違っていた理由だ」と書きました。最後に空飛ぶ車がどこにあるのか疑問に思ったのがいつだったか分かりません。しかし、私にとっては3、4時間前だったかもしれません。分かりません、相手。私の人生ずっと、赤信号などにいるたびに、上を越えて行けたらいいのにと思いますが、できません。しかし、まだそれについて考えています。
空飛ぶ車は素晴らしく聞こえ、何十年もSFの夢でした。しかし、現実版は人々が想像したものではありません。ガレージに駐車して自分で飛ぶ車の代わりに、実際に来ているのはエアタクシーです。これらを見たことがあるかもしれません。通常、eVOLsという頭字語を使用します。電動飛行車両です。パイロットによって操作されます。明らかに、非常に危険です。しかし、理想的には、将来、これはAIが文字通り離陸するかもしれない場所です。しゃれを意図しています。
商業運営を開始している会社がいくつかあります。彼らは主に短距離、空港シャトルサービスのようなものに焦点を当てています。
つまり、要するに、これが取引です。AIが人間よりもはるかに安全に車を運転できるようになり、道路の他の車がAIで運転されていることを本当に望むようになったとき、人間は奇妙なことをし、飲酒運転をし、気が散るからです。そのモデルを空飛ぶ車に適用することができ、そのとき初めて、将来の空飛ぶ車のビジョンを持つことができるかもしれません。
次に、心の理論をロボットに教えることと、それがどのように協力を向上させるかについて話しましょう。
心の理論について聞いたことがない場合、それはかなり広い概念です。多くの心理学の本でそれを聞きます。全体的に本当に興味深いトピックですが、それは単に、ある実体、生き物、人、人間と言いましょうが、ミラーニューロンや何らかのメカニズムを使用して想像できるというアイデアです。それも議論の余地がありますが、他の人の立場に立って想像することができます。
私たち人間は、これを超自然的に行います。しかし、それが心の理論です。私は他の誰かの心について私の頭の中で理論を持っており、彼らが私を助けたい、傷つけたい、何かをしたいと思うかもしれないと想像でき、他の人がどのように行動し、世界で行動を取りたいと思うかについて予測を立てているので、世界で取りたい行動について、私がどのように行動したいかについていくつかの予測を立てることができます。
デュークとコロンビアの研究者たちは、ロボットが人間のようにより協力して働く方法を教える新しい方法を開発しました。そして、彼らは心の理論の初歩的なバージョンを含んでいます。
遅い試行錯誤や専門家の行動の巨大なデータセットに依存する代わりに、彼らのシステムは、もう一つの良い頭字語ですが、HUMAC、HU MACは、人間主導マルチエージェント調整を表しており、単一の人間が戦略的に介入してロボットのチームを指導し、彼らの協力行動を形作り、より人間らしい直感で調整する方法を学ぶのを助けるフレームワークです。
それは本質的に、単一の人間が一緒に働いているロボットの束に短時間コーチとして介入し、「ねえ、みんな、違う方法で協力する必要がある」と言うことを可能にします。そして、ロボットはグループとしてそれらの信号から学習します。
これは強化学習の一種ですが、これらすべての小さなものの上に座るより大きなフレームワークのようなマルチエージェントの種類です。そして、それははるかに良い意思決定チームワークをもたらしました。彼らはロボットのかくれんぼゲームでこれをテストしました。そして、改善は巨大でした。36%から48%の成功率に上がりました。
これは本質的にシミュレーションの様子です。このゲームの神のような存在として、すべてのかくれんぼの挑戦を行うために一緒に働こうとするさまざまなエージェントを見ることができます。そして、隠れている人々または探している人々のどちらかとグループとして話し、彼らにヒントを与えようとすることができ、彼らはより良く学習します。
隠れる人を絶えず追いかけることは、隠れる人エージェントのより速いスピードのためにすぐに失敗するでしょう。私たちは探す人に将来の数ステップ先を予測するように訓練し、探す人が隠れる人の将来の行動を暗黙的に予測して先に計画するようにします。しかし、これだけでは十分ではありません。
協力には、相手とチームメートの両方の理解が必要です。したがって、私たちは探す人自身の行動とそのチームメートのポリシーを共同で予測することを学習する新しい表現学習方法も開発しました。
私たちのシミュレーションでのすべての他のベースライン研究の中で、単一の人間からの20から40分のガイダンスで、私たちの方法は一貫して他のすべての方法を上回り、挑戦的な4対4の設定で単純なベースラインを最大46%改善しました。
では、Greg Satelの、なぜ意図がAI経済の中心になるかについての意見を話しましょう。
OpenAIのCEOサム・アルトマンが人工知能がマーケティング業界にどのような影響を与えるかを聞かれたとき、彼は基本的に、それはほぼ瞬時に、ほぼコストゼロで、すべてが非常にまもなくAIによって処理されるだろうと言いました。
つまり、これをビデオの最初のNetflixの件に戻すと、この作品は意図がAI開発に関して最も重要なもののひとつになる理由について掘り下げています。
しかし、私たちは、作りたいような社会について多くを話しません。市民権とは何を意味するのか。将来世界の市民であることはどういう意味なのか。良い父親であることはどういう意味なのか。私たちの周りのすべての人との関係について。
AIは私たちの最高を引き出し、それで私たちが素晴らしくなることを力づけるか、それとも非常に非人間化するかのどちらかです。彼は、人間の仕事が実行よりも方向性の定義、努力の調整、目的の伝達についてになっていると主張しています。これ以上同感できません。
イーロンのTwitterとX、マーク・ザッカーバーグのFacebookとInstagram、そして中国のTikTokを担当している人からの決定が、おそらくこれの重要な決定者になるでしょう。もし彼らが、私はソーシャルネットワークの目的のようなものを私たちがしていることの最前線に置くつもりだと言い、AIがそれらのメッセージを増幅し、そのような方法でそれらを厳選するなら、私たちは黄金時代にいるでしょう。もし彼らが良い意図を持っているなら、しかし、これは私たちが今のところ善良な独裁者のようなものを持っていることを本当に望んでいる場所です。
つまり、この時点で付いて来ていて、これについて考えを持っているなら、コメントを残すことができるかもしれません。これは私が興味を持って聞いていることです。記事で、彼はスーパーボウルの広告のような派手なものでさえ、すべてのドットを結び、影響を与えるために細かい人間の戦略が必要だと主張しています。
結局、AIをどのように見ても、それは一方では強力なツールですが、エージェントがどのように働くか、中核機能、好奇心、感情、より良い世界を創造したいという欲求をミックスに持ち込む必要がある客観的関数を形作っているのは人間です。文字通り人間の意図が、私にとってこの全体の汎用人工知能超知能の整合性について大きな決定要因になるでしょう。
そして、私にとって一種の副次的な好奇心として、複雑適応システムに本当に興味があります。ビル・ガナポルス、おそらく姓を間違って発音しましたが、この記事を書きました。なぜいくつかのシステムは持続し、他は壊れるのか、持続理論への簡単なガイドです。
そして、全体的なアイデアは、多くの異なるものがネットワークに一般化できるということです。沼のすべてのワニ、脳のすべてのニューロン、企業間で起こるすべての取引のように。そして、これらのシステムの一部はあまり長く続きません。そして、一部は自分の尻尾を食べるようなものです。彼らは非常に大きくなり、その後リソースを使い果たすか、お互いを圧迫して倒れます。
時々、国々はこの革命を経験し、これらの素晴らしいネットワークを構築しますが、その後、改良し、完璧にし、すべての効率を絞り出し続ける目標で、それは一種の脆弱になり、壊れます。
しかし、彼は記憶、機械、または生きている有機体のように持続し、時間をかけて消えたり壊れたりしないシステムは、システムに入ってくるものと出て行くものを見るだけではなく、何かより多くのことをすると主張しています。
そして、システムが超持続的であるためには、可逆的である必要があるという結論に達します。これは記憶ガラスです。可逆性はシステムが構造を保持することを可能にします。不可逆性はそれを漏らします。
可逆性は、何かを本当に堅固にするための重要な要素の一つとして私に起こったことがありませんでした。たぶん、それは私が思っていたよりもはるかに重要です。実際、システムが時間をかけて自分自身の行動をどれほどよく逆転できるかに焦点を当てることによって、システムがどれほど堅固で長持ちするかを測定できるでしょう。
その段階がより可逆的であるほど、より良くまとまります。そして、興味深いことに、おそらく人間の脳が私たちを一貫性を保ち、意識を感じさせ、時間を通じて一つの実体のように感じさせることが非常に得意な理由は、アイデアを作成するために使用する多くの段階が逆転できるからです。アイデアから始まって、逆の方法で分解できるのかもしれません。
しかし、ここでの際立ったアイデアは、持続理論では、それが心、機械、有機体であれ、システムが持つエネルギーや情報の量ではなく、その行動がどれほど可逆的であるかにかかっているということです。長期的にシステムの健康を評価するために、システムがどれほど元に戻せるかのある種の測定があるべきです。
とにかく、持続理論についてもっと多くを知る必要がありますが、それに非常に興味を持つのに十分な知識は持っています。コメントを残したり、もっと教えたり、本当に興味深いものにリンクしたりしたいなら、持続理論をより深く掘り下げたいと思います。
そして、持続理論を理解するなどの努力のためにもっと時間を見つけるのを手伝いたいなら、patreon.com/dillingcuriousへお越しください。まだ91人のメンバーで、1か月以上そこにいます。それを100を超えることができるかどうか分かれば本当に素晴らしいでしょう。
ありがとうございます、みなさん。いいね、チャンネル登録、Patreonへの参加をお願いします。


コメント