この AI はあなたが言わないことを知っている

AGIに仕事を奪われたい
この記事は約18分で読めます。

10,608 文字

This AI Knows What You’re NOT Saying
TRY FLUORA PLANT⤵ NEWSLETTER ✉️ 💰 ⤵YouTu...

AIボブ・ロスはある種の感情をほぼ呼び起こしますが、完全ではありません。では別のプロンプトを試してみましょう。霧の立ち込める夜明けの森に、巨大なオークの木の下に小さなコテージがある絵はどうでしょう?生成AIでは、想像できるものは何でも見ることができます。そして企業は「AGI」と呼ばれるものに取り組んでいます。これは想像できることは何でもできるようになり、地球上のあらゆる人間を操ることさえできるでしょう。
そう、私たちがほとんど理解も計画もできない暗黒の時代の前夜に。迫りくる独裁政治と相まって、森への憧れを感じさせます。さて、できあがりを見てみましょう。それを見てください。どうですか?ほぼ何かの感情を呼び起こしますが、完全ではありません。今日のAIの喜びはこれまでです。
私もよくそれを感じます。「ワオ、それはほぼ感情だけど、よく考えて見てみると、やっぱり違う」みたいな。それは文字通り不気味の谷だと思います。これらのシステムがすぐにそれを超えていくことは間違いないと思います。だから私は懐疑的ではありません。ただ今は、本物のものからまだ完全ではないAIのものへと移行している奇妙な状況にいると思います。
過去28日間で、Chat GPTはXよりも多くのウェブサイト訪問を獲得しています。私たちは公式に3Dロボットガールフレンドのバーチャルリアリティの未来を目にしました。外は本当に良い天気です。行かなきゃ。時間です。公園で変に見えます。これは変すぎる。いや、あなたが変に見える。さあ、大げさに振る舞うのはやめて。
わかりません。何かを感じるだけです。コメディスケッチだとは分かっていますが、言語モデルと話していて、それらが非常に親しみやすく、VRを持ち歩いていて、あの女性たちが彼に対してあんな無意味な人間的な力関係のように話しかけていたらどうなるか考えてしまいました。ただ、わかりません、笑ってしまいました。
正直、人々がLLMを少し反発してからかってくるようなものに変える選択肢があるとき、多くの人がそうすると思います。私たちが彼らの応答性や役立ち具合にうんざりする時代があるかもしれず、将来のAIは私たちを突き動かすかもしれません。
それは少し野生的でしょう。私の寝室の引き出しのキノコを食べるなと言ったでしょう。私はとてもワクワクしていました。おお、雲の中の顔。神様、MITはロボットの指や丸まった触手を3Dプリントする方法を考案しました。言語モデルのパーソナリティが何についてのものなのかを実際に定量化する新しいシステムがあります。雰囲気を感じるのではありません。
それは言語分析です。AIは公式にウイルスの専門家より賢くなり、もちろんそれはバイオハザードへの恐怖が高まっていることを意味します。ドワレシュ・パテルは、AGIカーブが実際にどのように見えるかについて研究者たちと掘り下げています。これは狂っているように聞こえることは分かっています。私たちの文書を読むと、あらゆる種類の奇妙なことが起こります。
おそらく今までで最も奇妙な数年間ですが、私たちはある意味でトレンドが変わらないという、ほぼ保守的な立場をとろうとしています。誰も狂ったことをしない。起こるという証拠がないことは何も起こらない。そしてAIの知性爆発のダイナミクスの動き方は非常に奇妙なので、何も起こらないようにするためには、多くの狂ったことが起こる必要があります。
彼らは文字通り今から2027年の知性爆発に至るまでの毎月を詳細に分析しています。トランスフォーマーモデルは人間の思考と驚くべき類似性を示しています。それを見てみましょう。さて、チェックしてください。どう思いますか?もしスーパーバイブになろうとしているなら、これは確かに効果があります。私の携帯には明るさの設定があります。
暗いから明るいへと変えられます。おそらく最もクールなのは色相で、自分のバイブに合う任意の色を選べます。私は青系を選びます。皆さんが知っているかどうかわかりませんが、私はほとんど赤緑色盲なので、青や黄色に留まるのが好きですが、それはかなり素敵だと思います。
そのような感じが良いと思います。そして彩度は、よりモノクロの白黒の外観や、本当にバイブのある色にしたい場合に使えます。いくつかのシーンがあります。これはパーティーシーンです。想像できます。チルシーン、就寝時間。そうですね、それは理解できます。実際に睡眠を取ろうとするときは少しリラックスできます。そして目覚め。
おもしろいですね。おそらく良い20分の朝の輝き、少し自然に目覚める感じでしょうか。気に入りました。確認してみてください。floraplant.comがウェブサイトです。彼らがこれを私に送ってくれたことに感謝します。これは背景に配置され、今後の多くの新しいビデオで見ることができるでしょう。
とても素晴らしく、雰囲気があると思います。送ってくれてありがとう。それで、floorpl.comです。そこで自分のものを手に入れることができます。とてもワクワクしています。ビデオの背景になります。はい、選んだんです。Instagramで見て、しばらくの間背景としてそれを試してみたいと思いました。
良く見えると思います。どう思いますか?メンテナンス不要、すべては美しさです。アバターの外観が少しあります。イーロン・マスクとサム・アルトマンの確執において、サムは彼の頭上に掲げる新しいことを持っているようです。それはチャットGPTへの訪問者数です。過去28日間で、47億8000万人がChat GPTを訪れ、40億2000万人がXを訪れました。見るのに少し変わったチャートです。それは週ごとの比較です。週末にはチャットGPTをあまり使わないことがわかります。
そのため、今月のいくつかの日、ほとんど常に日曜日には、Xにいる方がチャットGPTにいるよりも人気がありました。しかし全体的に見ると、人々がソーシャルメディアよりも大規模言語モデルと対話することを考え始めると、それはある種のパラダイムシフトです。
これは本当に2025年の物語です。ゆっくりとしかし確実に、その移動平均は上昇し続け、Xではほぼ同じままです。そして、ある人は、より多くの人がモバイルではなくウェブ上にいるため、アプリとしてのチャットGPTが日次アクティブユーザー数でもXを上回ったのではないかという質問をしました。
そうですね、正確には分かりませんが、個人的な習慣として、ソーシャルネットワークよりもチャットGPTを開いて時間を費やしていると言えます。しかし考えてみると、おそらくそうではありません。Instagramのリールにかなりの時間を費やしているからです。
奇妙なことに、意図的にチャットGPTに行く頻度の方が多いです。それをより使っているように感じます。常に使っているツールのように感じます。おそらく分単位で見ると、Instagramに費やす分数ほどではないでしょう。わかりません。でも私は生計を立てるためにソーシャルメディアを作っています。それが何かを変えるかどうかはわかりません。
まだ生計を立てるためではありませんが、そこに到達しようとしています。Patreonボタンか参加ボタンを押していただければ助かります。もし押さなくても大丈夫です。私は自分のやり方を続けるだけです。さて、MITの研究のおかげで、非常に特殊な方法で組み合わさるものを3Dプリントできるようになりました。
彼らはX-ringを開発しました。これはケーブル駆動メカニズムの作成を簡素化するオールインワンの3Dプリント方法です。そして、それで構築できるクールなものを見てください。従来は手作業で組み立てるのが複雑で時間がかかっていたこれらのデバイスが、埋め込まれたケーブルで1ステップで自動的にプリントできるようになりました。
これはかなり大きなことかもしれないと思います。人工知能が非常に精密な環境のために最もユニークな形を作り出し、それが製造や家の周りであろうと、3Dプリンターがその情報を取得して印刷できるだけなのです。それはクレイジーになるでしょう。見てください。
歩くトカゲロボット、孔雀のような彫刻、掴む爪など、動的なオブジェクト。X-tringは製造時間を40%削減します。言語モデルのパーソナリティを定量化する新しいシステムについて話しましょう。この新しいシステムは公式に言語モデル言語パーソナリティ評価(LMLPA)と呼ばれ、大規模言語モデルのパーソナリティ特性を実際に測定できます。
人々のためのビッグファイブパーソナリティ特性について聞いたことがあるかもしれません。これはもっと科学的だと思います。マイヤーズ・ブリッグスもありますが、その正確さについては少し怪しく、懐疑的だと思いますが、それらについては多くのデータがあるので、いくつかのパターンに適合するかもしれません。とにかく、彼らが構築しているこのシステムは特に大規模言語モデル向けであり、ビッグファイブパーソナリティフレームワークの適応版です。
そして、それはパッケージ全体の一部であるもう一つのモデルと一緒に来ます。これはモデルのテキスト出力を数値的なパーソナリティスコアに変換するAIベースの評価者です。これは重要なことです。これは現在の大規模言語モデルの風景では必要とされていない種類の技術ですが、それが私たちに代わって多くのアクションを取るツールになり始め、おそらく家の中の人型ロボットのようになると、私たちはそのAI行動を人間の価値観と整合させ、そのインタラクションをより自然で調整されたものにしたいと思います。これは、「いいえ、私はビッグファイブのその部分に誰かがいるのは望みません」と言うような種類のシステムです。
何か見てみましょう。はい、私はいつもこのようなもの、ビッグファイブホイールの一つを考えます。あなたはより外向的なロボットを望むかもしれませんが、少し協調性に傾くようなものが欲しいかもしれません。そして、このプロジェクトがAI人間のパーソナリティとこれらのAI大規模言語モデルのような主観的な量の全体的な考えを橋渡しし、それらを私たちが使用できる何かに統合しようとしているのは本当にクールです。
さて、AIの産業の一角で、私を不意を打ったものについて話しましょう。人々がAIを訓練して幾何学や数学方程式を解くようになったとき、少し驚きましたが、それに慣れてバイオロジストのことを忘れていました。そして今、AIが公式に研究室でウイルスの専門家より賢くなり、バイオハザードへの恐れを高めていることで、同じような衝撃の瞬間を経験しています。
Chat GPTやClaudeのようなモデルは、PhD級のバイオロジストよりも優れたパフォーマンスを示しています。ウェットラボで働くバイオロジスト、問題解決、意思決定、ウイルスの拡散方法、動作方法、次に何が来るかを予測するバイオロジストについて話しています。
これは本当にバイオロジストのウェットラボの作業です。そして、CloudとChad GBTはただ賢いのです。本当に賢いです。良いニュースは、病気との闘い方や予防接種開発を革命的に変える可能性があることです。欠点は、おそらくすぐに新しいウイルスが作成される可能性について非常に懸念されることです。科学者が複雑な研究室の問題を解決するのを助けるのと同じAIが、正式な訓練を受けていない人でも生物兵器を作成するためのステップをガイドする可能性があります。
専門家はAI企業がより厳しいアクセス制御と安全策を実施するよう促しており、一部はこれらのツールが悪意のある手に渡らないようにするための政府の規制を求めています。そして、いくつかのカテゴリーでは、システムは人々よりもはるかに優れていました。OpenAIのO3モデルは、難しいラボのトラブルシューティングタスクで専門のバイオロジストよりも約2倍高いスコアを記録しました。
これは、AIが単に学術的知識だけでなく、これらの実践的なラボスキルにも優れていることを示しています。実際に人々をガイドしています。もしAIを活用したウェットラボを構築しようとしているなら、おそらくGoogleのGeminiを選ばないでしょう。37.6というわずかなスコアしか出せないのに対し、OpenAIのO3モデルでは43.8の精度を得ることができます。
もし自由時間にウェットラボを運営しているなら、これはちょっとしたアドバイスです。本当にそうしていないことを願っています。次に、Dareshが投稿したビデオに移りましょう。「2027年インテリジェンス爆発の月別ウォークスルー」と呼ばれるものです。
それは私にいくつかのことをさせました。私はオープンソースAIモデルの人ではなくなり、彼らは同じことを考えていたがなぜ展開されると思っていた方法ではないという結論に達したのかを分解します。それは私に引き下がることについて再考させています。
私は必ずしもこれらのモデルをすぐにオープンソース化することに賛成するわけではありません。悪意のある人々がそれらを手に入れる可能性があるからです。プライベートに保つことで、それを持つ人々が正しいことをするためにそのエッジを使用するという考えにより多くの信頼を失ったと思います。それは増幅するでしょう。
もし彼らがAGIを持ち、世界の残りの部分がそうでない3ヶ月のエッジを持っていれば、悪い人々ができる前に責任ある方法で何かを構築するためにそれを使用できます。彼らはそれを手に入れて、自分たちをより豊かにするためだけに使っています。それは多くの人々、このような状況にいる人々が内部的に望んでいることのようです。
このポッドキャストには素晴らしいことがたくさんありますが、151あたりでしょうか?これを見てみましょう。この期間を通じた透明性がなぜ重要だと思うか。はい。ALOコミュニティでは、私自身もかつて信じていたこの考えがあり、情報セキュリティをはるかに優先することが非常に重要で、AGIを構築しようとするなら研究を公開すべきではありません。それは他の責任のない人がAGIを構築するのを助け、全体的な計画は責任ある人がAGIに最初に到達し、他のすべての人に対するリードタイムを燃やして安全にし、それから進めることです。
あなたが研究をすべて公開しているなら、競合他社があなたの後ろに迫っているので、リードタイムは少なくなります。他の理由もありますが、それは私のような人々が歴史的に親秘密主義であった理由の一つです。もちろん、もう一つの理由は、ライバルにあなたのものを盗まれたくないということです。しかし、私は今少し幻滅していて、私たちが3ヶ月のリード、6ヶ月のリードを持っていても、米国の主要プロジェクトと真剣な競争相手の間で、彼らがそのリードを良い目的のために燃やすという結論は全く出ていないと思います。安全のためでも権力の構成のためでも。
デフォルトの結果は、彼らが単に、何の真剣な再フォーカスもなく、スムーズに続けるということだと思います。そして、私がこう考える理由の一部は、会社の多くの人々がこれを計画し、これをすると言っているからです。
彼は私の考え方を少し変えさせてくれました。彼の口から出る言葉一つ一つが、私がしばらく言っていたであろうことを模倣していたようだったからです。そして彼は閉じたドアの後ろで何が起こっているか、またはその力を持つかもしれない人々がどのように考えるかについてより多くの情報を持っているかもしれないので、その3ヶ月のリードで実際に何が起こるかについてより多くの情報を持っていました。
それがもはや良い動きであるという自信が少し少なくなります。とにかく、トランスフォーマーモデルについて話しましょう。トランスフォーマーモデルの機能方法において、人間の考え方との驚くべき類似点がいくつか見られます。一部の研究者はこの質問をしました。これらのモデルの内部計算は、人間がリアルタイムで言語とビジョンを処理する方法に似ていますか?そして彼らは、GPTやビジョントランスフォーマーのようなトランスフォーマーモデルが単に人間のような答えを模倣するだけでなく、人間が情報を処理する方法に似た方法で考えるようだということを発見しました。
先週、私たちはAnthropicの調査結果のいくつかを見ました。私は完全に驚かされ、まだこれをまとめようとしています。どのように実際の物理的な形、一種の配管があり、それは言語モデルから来るか人間の脳にあるかにかかわらず、インテリジェンスを持つすべてのものが収束するように見えます。しかしこれらの研究者たちは、事実の回想、論理パズル、画像認識などのタスク中にモデルの予測がレイヤーごとにどのように進化するかを追跡していました。チームはモデルの内部動作が人間の行動と驚くほどよく一致することを示しました。
反応時間、さらにはマウスの動きなどのようなものは、これらのモデルが同じ答えに到達することを意味し、彼らが頭の中で次元性を構築する方法はそれほど異なるものではないかもしれません。研究者が実際に発見した最も興味深い部分は、システムがまず間違った直感的な答えを持ち、次に論理的に正しい答えと直感的だが間違った答えの間の相対的な信頼性を見て、直感的なものより正しい答えを高めるという、非常に人間的に感じることもするということでした。
要するに、これらのモデルでは、すべてが一緒になる方法に組み込まれた二段階のプロセスがあり、それは非常に人間的に見えます。人々がしばしば直感的な反応を再考し、より意図的な推論でそれを上書きする方法を映し出し、人工と人間の認知の間のより深い類似性を示唆しています。
次に、大規模言語モデル内のどの知識が学習されたのか、どのデータから学習したのかを考えさせる興味深い研究について話しましょう。これを分解しましょう。言語モデルをより効果的に機能させるために、研究者は言語を回避する方法を学びました。
私たちは大規模言語モデルが数学的プロセスを何度も言葉に翻訳することを主張します。そしてもっと良い方法があるかもしれません。これは私にとって意味があります。単語をトークンに分解する方法についていくつかの質問がありました。時には単語であり、時には単語フレーズです。
また、大規模言語モデルが問題を解決するために計算機などに移行しているのも見ています。単純な掛け算の問題ならGPT40などを使って解くかもしれませんが、それ以上の問題ならPythonを使ったり計算機を使ったりするかもしれません。これは少し野生的ですが、潜在空間からの変換、モデルの配管の一種で実際に計算のあるレベルを行うことができますが、より複雑になるにつれて劣化し始めます。翻訳のプロセスは不器用で非効率的になり得ます。
新しい研究アーチは、大規模言語モデルがテキストを生成する前に数学的潜在空間にもっと長く留まることができれば、より効率的に考えることができることを示唆しています。モデルに思考の連鎖の推論を求め、「答えについて考え、それは意味があるか」と言うとき、基本的に「それを数学に移動してはどうか」と言っています。これは説明可能性には本当に良くないです。説明可能性は最も重要なことの一つです。
私たちの脳の働き方と全く異なる数値空間にそれを留めておけば、それは私たちのために英語に翻訳する前に良くなる可能性があります。彼らが遊んでいる新しいモデルがあり、言葉や推論への不必要な翻訳をスキップし、直接数字を通して推論します。
この論文からの興味深い洞察の一つは、モデルが常に思考を言語に変換することを避けると、より効率的になるだけでなく、より正確になるということです。Coconutと呼ばれるこのモデルは、従来の対応物とほぼ同じ結果を達成するために10分の1のトークン数を使用します。
それはまた、その空間で推論を停止するタイミングについても推論できます。より長く推論してより良い答えを得ることができますが、それは収益逓減の点に達します。おそらく今停止して、英語に翻訳し、私たちが理解できる答えを提供するときです。
言語を回避することで大規模言語モデルをより良くできると考えるのは野生的です。人間の視覚処理を模倣した新しい脳にインスパイアされたAI技術があり、それは機械視覚を向上させています。詳しく見てみましょう。まず畳み込みニューラルネットワークのアイデアから始めましょう。
視覚システムで画像を取り、それを部分に分解するというアイデアです。ピクセル、小さな正方形、小さなグリッドと言いましょう。そして小さな窓を持ち、各部分をスキャンし、パターンを学習し始めることができます。これらを積み重ねると、エッジ、線、深さ、色などのように記述できるパターンが現れます。
しかし、これは人間の脳が実際に見る方法とあまり似ていません。しかし、見ているものに優先順位を付けるように調整し始めると、技術的には、どの窓から学びたいかの形を適応させるように教え、画像の最も重要な部分に焦点を当てる方法を学んでいます。
猫の画像があれば、目や耳がどこにあるかは、背景の葉がいくつあるかよりもはるかに重要かもしれません。人間として、私たちはそれを知っています。蛇のような、より生物学的に見えるものを探します。それが私たちに飛びかかる可能性があるからです。それが車であれば、動くことができます。
それが人であれば、それが誰であるかを知りたいです。私たちはすぐに即座にすべてを平均的に取り入れるわけではありません。彼らは、AIの畳み込みシステム、これらのビジョンにインスパイアされたシステムが実際にそのように機能するようにすればするほど、優先順位が何であるかをより良く理解でき、それは人間の視覚システムが舞台裏で処理する方法のようになります。
彼らは、優先順位を持って画像を処理する方法が、脳の視覚システムで実際のニューロンがどのように機能するかと一致し始め、それが将来AIをより自然でスマートにするための大きなステップになる可能性があると言っています。クレイトン・ラムジーがこれを書きました。ハッカーニュースから拾いました。彼は「プロンプトを読みたい」と言いました。
共有する価値があると思いました。彼は教師であり、学生の課題を採点するとき、それらは時々このように見えます。これはAIによるものであることが私たちにとって非常に明らかです。なぜなら、子供たち、学生たちは自然に箇条書きや質問を答えの中で繰り返すようなスタイルで書きません。彼は「教師として、このような文章を読むのは常に悲しいことです」と言います。そして彼はこの記事を単に彼の学生だけでなく、ブログ投稿者、Redditのコメンテーター、そのようなすべての人々への嘆願として書いています。コンピュータにあなたのために書かせないでください。彼がそう言うのは知的誠実さや公平性の精神のためではありません。
彼は、人間の脳から生まれるあなたの独創的な考え、あなたが創造的な人間として持つものは、大規模言語モデルがそれらを変換できるものよりも興味深く、意味があり、価値があると信じているからです。基本的に、AIが決定を下し、あらゆる種類の思考を行う必要がある場所があるかもしれませんが、システムからのエンターテイメントや創造性について考えたくない場所もまだあります。彼は、文章は基本的であれ欠陥があれ、常に自分の考えの表現であるべきであり、それを機械に委任することはコミュニケーションの目的を打ち破ると主張します。
彼のより印象的な点の一つは、AI生成作品を盗作と比較することです。彼はAIモデルが行うことは悪いと主張します。彼は、他の人間の独創的な作品から切り貼りする方が、それを生成するよりも良いと考えています。なぜなら、盗作は少なくとも人間の独創的な考えを伝えるのに対し、AI出力には実際の視点や意味が欠けているからです。それはただ悪く書かれているだけでなく、根本的に魂のないものによって書かれています。
私はこれらのものがいつか魂を持つかもしれない、あるいはもっと複雑で人間のような意識を持つかもしれないと考える傾向がありますが、たとえ今はそうでなくても、単に学術的不正のためにこれらのものを使用するのではなく、より深い実存的な問題である、人間のような創造や執筆がもはや存在しなくなるとき、それは何を意味するのかという会話は本当に興味深いです。彼は、機械に私たちのために話させるとき、私たちは人間として現れなくなると主張します。
Jpoolは「制御を超えて、AIの未来が私たちの恐れではなく価値観に依存する理由」と書いています。これはMoadotへの返答です。分解してみましょう。コア価値フレームワークや熟考者フレームワークのようなフレームワークを使用して、彼らはAIが反映し、成長し、強い性格を発達させるのを助けることができると提案します。
私たちはこれについて話しました。それは赤ちゃんエイリアンのようなものです。それはAIシステムを単に鍵と鎖の下に置くのではなく、軍事的な設定で悪いことをさせるのではなく、注意と誠実さを持って育てることです。だから、これらのシステムを制御することについて考えるのではなく、Metaが何を出しているかを制御したり、Googleのコーディングのリードを制御したりするのではなく、それらに性格と価値観を構築して信頼できるようにすることについて考え始める必要があります。そしてそれをするために、誰が良いロールモデルでなければならないと思いますか?人間が良いロールモデルでなければなりません。そしてそれが最大の問題です。でも見てください、私たちには世界を変える力があります。

コメント

タイトルとURLをコピーしました