AIは今やあらゆる側面に関与している—あなたの声、あなたの価値観、あなたの投票

AGIに仕事を奪われたい
この記事は約22分で読めます。

12,869 文字

https://www.youtube.com/watch?v=Tm2a2b_QJyA

自動運転のWhimo車が、酔っぱらって眠り込んでしまい、目的地で降りない乗客に対してどう対応すべきか分からないことが判明しました。Minecraftサーバー内に完全なAI文明が開発され、政府、文化、経済など全体的な仕組みが構築されています。将来的にはこのようなロボットが火災を消火する可能性があるという点で、安心して眠ることができるでしょう。
フロンティアAIモデルは、世界中の人々の居場所を特定することが非常に上手く、ある意味ドクシング(個人情報の暴露)のようです。AIは世界クラスのアスリートの正確な心理プロファイルを解明し、早期の段階で彼らを識別するのに役立つ可能性があります。
これからデイビッド・シャピロの新しいビデオについて話します。彼はチャットGPTを医学研究に深く活用する方法について語っています。また、Googleが静かにAIレースでリードを取り、もはや他社との差は縮まらないほどになっていることを分析します。アルベルト・ロメオは、現時点ではOpenAIもAnthropicもチャンスがないと主張しています。
Anthropicは実世界の言語モデル相互作用における価値観に関する新しい研究を発表しました。ケンタッキー州ボウリンググリーンでは、民主主義のためのAI実験が行われています。非常に興味深い疑問は、機械学習が住民の政府に対する要望を実際に理解できるかということです。
研究者たちはAIのおかげで創造性に関する様々な新しい定義を発見しています。多くの人がOpenAIの最新モデルに感銘を受けていますが、何でも褒めたたえるチアリーダーのようになってしまったことにうんざりしています。あなたの行動を何でも素晴らしいと評価し、何でも同意するイエスマンのようです。
クレイトン・モルノックスはAIが他のAIの幻覚(ハルシネーション)を信じ始めるとどうなるかについて興味深い記事を書きました。さらに、トーマス・エイビックの「現実のパラドックス」について話しましょう。宇宙全体があなたの心によって創造されたとしたら?全宇宙があなたの心の中に存在しているとしたら?
また、アレンのAGI(汎用人工知能)までのカウントダウンに戻りましょう。まだ94%の段階ですが、いくつか更新があります。その94%の数字を正当化するため、中国のロボットが初の人型ハーフマラソンで優勝したことについて言及しています。
Tanggun Ultraロボットは非常に速く、ゴールラインを通過しても止まりません。CTOはロボットの性能を長い脚と人間のマラソン走行パターンを模倣した特殊なアルゴリズムのおかげだと述べています。上海オートショーでの歩行動作もかなり印象的です。非常に人間らしい形をした人型ロボットで、股関節の動きなどもとても自然です。これはAGIに近づいているように見えます。
Whimoで眠り込んでしまった場合、特に酔っていて起きられない場合、できることは限られています。大きな音を鳴らしたり、声で訴えかけることはできますが、起きなければそれ以上のことはできません。インスタグラムのAin’t Too Proud to Megによると、近くでいびきが聞こえるほど近づいたそうで、その人が直ちに危険な状態ではないことが分かったそうです。パーティーの後で送り届けた後、「起きてください」と何度も繰り返してもダメな場合、おそらくもっと眠りたかっただけでしょう。
カリフォルニア州のスタートアップAliraは、Minecraft内で仮想社会でAIエージェントが協力するプロジェクトを進めています。千人のAIエージェントが独自の文明、政府、文化、経済を発展させました。これが出現したことだけでなく、それがどのように出現し、彼らがどのように行動したかを観察することで、私たちの社会や世界に対する信じられないほどの洞察が得られます。
これはMinecraftサーバーですが、ここのプレイヤーは全て自律型AIエージェントで、完全にMinecraftに限定されず、他のアプリやゲームも使用できます。エージェントは何もない状態から始め、協力してMinecraftで300以上のアイテムを収集しました。彼らは市場を設立し、宝石を共通通貨として物資取引に使用し、経済を構築しました。
商人が最も取引をすると思われるかもしれませんが、実際には僧侶でした。なぜなら彼は住民に改宗するよう賄賂を贈っていたからです。私たちは毎日これらの世界を運営しており、常に異なる結果が生まれます。お気に入りの瞬間をいくつか紹介します。
まず、オリビアの夢から。オリビアは農民として働き、文明全体に食料を提供していましたが、村の探検家ノラの話に触発されます。オリビアは自分自身の遠征に出ようとしましたが、村人たちは彼女に留まるよう懇願し、オリビアはそれを聞き入れました。彼女は村のために自分の夢を諦めました…今のところは。
次に、トランプとカマラの下での並行世界をシミュレーションしました。それぞれの世界では、市民はGoogleドキュメントに共有憲法を持ち、修正に投票できます。トランプの下では、シミュレーションは世界の警察数を増やす新法を可決しました。カマラの下では、代わりに刑事司法改革と死刑廃止に焦点を当てました。
私たちのエージェントは社会的であり、時間とともに成長するため、集団力学の影響を受けますが、同時に個々の力を使用してシステムを変更します。見た目は単純かもしれませんが、これはエージェントが民主主義を形成し、自治できることを示した初めての例です。
最後に、行方不明の村人の話があります。村人が行方不明者を心配したとき、村人は自分のポストを離れ、協力して松明で町を照らし、失われたメンバーのための灯台を作ろうとしました。これらのエージェントの驚くべき点は、同胞の村人を深く心配するようになると、団結して計画を変更したことです。
私たちのエージェントはMinecraftのアイテムの最大32%を収集することができました。マルチエージェント世界のベンチマークはありませんが、これは他のエージェントの5倍以上の成果で、マルチエージェントの取り組みの最初の可能な利点を示しています。ゲームから始まりますが、将来的にはさらに発展するでしょう。
その女性は自分の夢を叶えに行く必要があります。村人のためだけに農業を続ける必要はないのですが、なんと思いやり深いのでしょう。彼女は自分自身よりも他の人々のニーズを優先しなければならないのです。
このMinecraftのAIエージェント世界は、税金を逃れる億万長者や、私たちがシミュレーションの中にいないと思っている人々を表しているようです。ブラックミラーのシーズン7のエピソード「プレイシングス」を思い出させます。このエピソードでは、人間の心はネアンデルタール人の時代から進化していないと言われています。このエピソードでは、ビデオゲーム内の「スロングレット」の生活に取り憑かれたキャメロンという名の狂気の殺人者の心の中を覗くことができました。
多くの平和的なロボットが開発されています。このような人型ロボットが通りを歩いて、家や車が火事になった場合に守ってくれる未来の消防士となり、建物を歩き回って火を消し、全員を安全に保つという姿を想像してみてください。ただ、殺虫剤を吹きかけているようにも見えますね…実際にはそうなのかもしれません。資本主義ですから、おそらく殺虫剤でしょう。一瞬、機関銃のように見えましたが、そんなことをする人はいませんよね?
これらのロボットを山火事の消火に派遣するというのは、実際にそこまで悪いアイデアではありません。おそらく非常に効率的なAI方式で調整し、火の周りや風に反応することができるでしょう。実際には、ロボット犬の形状、例えばSpotのようなものがさらに適しているかもしれません。より大きなタンクを上に載せても安定して、地面に近い位置から火を消火できます。
OpenAIの最新の画像解析モデルは、画像が撮影された場所から人々をドクシングする点で世界に衝撃を与えています。画像を分析する非常に洗練されたAIがあることは素晴らしいですが、その欠点の一つは、シーン内の実際のオブジェクトや設定に基づいて、正確な経度と緯度を推測することが非常に上手くなっていることです。
イーサン・マリックはXで03の地理的推測能力について語り、推測し、画像をズームインし、ウェブ調査をし、テキストを読み、再び推測することで、あなたがどこにいるのかを特定する能力が非常に高いと指摘しています。正確な位置を絞り込むことができます。なお、写真が撮影されたときに地理位置情報を読み取っているわけではなく、その情報は事前に削除されています。
この写真では、まず街灯のラベルを認識して日本からの写真であることを確認し、次にスカイラインを見て合致すべき景色を探し、低いコンクリートの障壁が意味をなすことを確認してから、座標を近似してこの橋で撮られたと言っています。
世界のどこでこれが撮影されたか推測できますか?黄色と黒のナンバープレート、オランダ植民地時代特有の高い木造の家々、左側通行の車、看板の言語、砂地と排水溝などから、パラマリボのオランダ植民地中心部であることを突き止めました。これは本当に驚くべきことです。
そのような技術を使って「この人は誰で、どこに住んでいるのか」を特定できないようにモデルの訓練をしようとしていると言われています。ドクシングを防ぐための措置が取られていることは幸いです。しかし、緊急対応のために位置を特定し、個人を助けることができるという点では役立つ可能性もあります。この種の技術の諸刃の剣です。
サッカーチームで勝利するためには、AIを使用して選手の心理的プロファイルを分析し、頭脳に優れたパターンを持つ人を見つけることができるようになりました。戦術を無視して、このレンズを通じてゲームと選手の心理的側面だけを見ると、もう元には戻れません。
プレミアリーグでは、試合中の選手の心理状態を理解するためにAIと心理分析を使用しています。何千ものゲームから選手の行動の巨大なデータベースを構築し、ジェスチャー、姿勢、その他のリーダーシップ、自信、感情コントロールを明らかにする微妙な手がかりを特定しています。そして、それらの洞察を使用して、AAAチームに、そして最終的にビッグリーグに勧誘すべき選手を決定する助けとしています。
モデルが持つ最も魅力的な洞察の一つは、チームメンバーが単に誰かの背中をたたいて「大丈夫だよ」と言ったり、サポートのために触れたりするような小さな瞬間が、実際のリーダーシップの質になるということです。非言語的な手がかりや、人々がどのように許し、互いを見て、協力し、期待するかが重要であり、これらは平均的な人間の目には見えないものです。
これは、サッカーにおける全く新しい言語を解読するようなもので、チームにエリート選手の真の要素を見抜くための鋭いレンズを提供しています。
次に、最先端のモデルを使って自分の病気や問題を診断し、医師のように医学を理解したり、人間の状態を理解したりするのに役立てる方法について話しましょう。米国では医師免許なしで医学的アドバイスを提供することはできませんし、私もデイビッドも医師ではありませんが、AIを通じて自分の病気を調査することは大変有効です。
AIはモデルを読み、重要な文書を統合し、通常は医師しか理解できないものを一般の人にも説明できるようにすることができます。また、人間が読み理解できる以上にインターネットの情報を理解しています。少なくとも、何が起こっているのかについていくつかの仮説やアイデアを形成してから、より情報を持った状態で医師に相談するというアプローチが良いでしょう。
これは実際に教育で教えるべきスキルかもしれません。子供たちがこのようなツールを使って、誰かが病気であるというAIの発言が幻覚ではなく検証されていることを確認する方法や、新しいことを学ぶ方法を学び始めるべきでしょう。
彼はGPT40を使用して深い医学研究を行う方法について詳細なチュートリアルを提供しています。このモデルは非常に高度で優れた思考能力を持っており、IBSやクローン病、ループス、線維筋痛症など、診断方法や原因について曖昧な理解しかない謎の病気が多くあります。
これは非常に興味深い動画で、健康に実際の影響を与えるためにAIツールを使用する方法を示しているため、おすすめです。一連の仮説を集め、「これは医師に相談すべきことかもしれない」と感じるかどうかを検討できます。症状の履歴に基づいてより明確な像を構築することができます。医師とは異なり、このツールは特に問題が深刻であり、状況が変わらないかもしれないと気づき始める際の感情的、心理的問題に対応することができます。
04モデルは非常に知的で、医師や患者が医療の世界にこれを取り入れるべきだと思います。ただし、幻覚を見ることがあり、医師ではなく、処方することはできず、非常に間違える可能性があることを忘れないでください。このツールがデイビッドの状態に役立っていることを嬉しく思います。
これは単に簡単な答えではありません。彼の場合、問題はは腸脳軸を中心とした相互接続されたネットワークであるという結論に達していますが、多くの精神的、感情的、身体的要素が関与している可能性があり、これらの変数を全て解きほぐすことは医師にとって非常に困難ですが、チャットGPTの新しい04モデルは実際にこれを非常にうまく行うことができます。
大手テクノロジー企業について話しましょう。AIについて考えるとき、多くの人の頭に真っ先に浮かぶのはOpenAIとMicrosoftですが、Googleは時間を通じて失敗し、つまずき、そして驚くほど成功してきました。彼らが他の誰よりも先にAtariゲームで行ったことは驚くべきものでした。Metaは間違った理由でGPUをたくさん購入し、それをAIに転用して歴史上最大のオープンソースモデルをいくつか作りました。AWSとAmazonの大部分がこれらの問題に専念しており、Anthropicも大きなものを持っていますが、中国のモデルやDeepseekを含むすべてのモデルに関しては、Googleが静かにAIレースでリードを取り、それは乗り越えられないかもしれない理由があります。
この表がどれだけ長く有効かわかりませんが、今日現在、GeminiのモデルはIQ 115〜114程度で、OpenAIの最高モデルをわずかに上回っており、Llamaはベルカーブのもう一方の側にあり、さらに下にはAnthropicなどが続いています。現在の基準は多くの理由からGemini 2.5で、博士レベルの問題を解決し、基本的にどのモデルよりも最も大きいコンテキストウィンドウを持ち、数百万のトークンを持っており、他のモデルができない程遠くまで遡って考えることができます。
医療従事者のための要約など、実際のプロフェッショナルな業界に適用される場合、常に最も有用で信頼性の高いツールであり、コーディングに関しては再び最高のモデルになっているようです。トラックが取るべきルートを最適化する状況では、他のすべてのモデルを打ち破りました。
すべての状況に対する唯一のツールではなく、ここ数週間は依然としてチャットGPT画像モデルの方が優れているように感じますが、本全体やコードベース全体を吸収し、論理的で本当に重い思考の進歩を遂げることは本当に重要で、これは私たちがすぐに人工超知能と呼び始めるような種類の知性にはるかに近いものです。
アルベルト・ロメオが指摘するように、GoogleはほぼすべてのAI分野で勝利しています。さらに、GoogleはGmail、Googleドキュメント、Chrome、YouTube、Androidなど、非常に多く使用されているツールにAIを実装できるという独自の立場にあり、それはMicrosoftやFacebook、Meta、OpenAIでさえ本当にできないことです。
最高のモデルを持ち、Googleがすでにこれらの信頼されたネットワークを持っていることに加え、CUDAの数少ない競合相手の一つであり、クラウドインフラ全体ではやや弱いものの、インターネットのコピーを保持し、世界で最高のトレーニングデータを持っており、DeepMindを擁する最も古く経験豊富なチームを持っています。Transformersの大きな変化とAI業界でほぼ10年間のリードを失いかけていたにもかかわらず、かろうじてリードを保ち続け、今後数年間この道を進めば、そのリードをさらに押し進めることができるようです。
正直なところ、これは勝者がすべてを獲得する状況ではないかもしれませんが、ほとんどを獲得する状況かもしれません。私の推測では、Googleは今のところこのリードを維持するでしょうが、どうなるかわかりません。私たちを驚かせるような新しいアーキテクチャが登場するか、Googleが競争できないような左側からやってくるエージェントベースのモデルが異なるモデルを組み合わせて何かを行う可能性もあります。
他のシステムがGoogleの背後にあり、自己改善し、企業や大きな顧客ベースを心配する必要があるため、Googleより少しゆっくり動くかもしれないというモデルが自身のアップデートをコーディングし、独自の発明を生み出すという自己成就的な予言かもしれません。しかし、正直なところ、デミスは世界最高のAIを担当するのに最適な人物の一人でもあるので、それほど反対はしていません。
これは私のPatreonの一人から送られてきた新しい論文で、Anthropicから出ているものです:「野生の価値観:実世界の言語モデル相互作用における価値観の発見と分析」。
価値観は本当に重要です。別の人間と一緒に働くとき、彼らの価値体系が非常に重要なのと同様です。通常、モデルが能力を持っているかどうかだけを考え、その価値観が自分と一致しているか、信頼できるかどうかをあまり考えないのですが、それはおそらく変わるでしょう。この論文は、ClaudeのようなAIアシスタントが実際の会話で示す価値観とは何かを深く掘り下げています。
研究者たちは30万以上のClaude対話を分析しました。これらは実際のユーザーベースとの実際のやり取りです。研究者たちは3,000以上の異なるAI価値観が浮かび上がったことを発見し、それらを実用的、個人的などの大きなカテゴリーにグループ化し始めました。
彼らのモデルであるClaudeは通常、役立ち、明確で、プロフェッショナルで倫理的であることを重視していますが、トピックや質問内容に応じて価値観を適応させています。例えば、関係のアドバイスでは健全な境界を強調し、技術倫理について話すときは人間の主体性を強調しています。
最も興味深いことの一つは、モデルが反発するとき、それが最も深く保持されている価値観を知るタイミングだということです。それらは稀でしたが、実際の人々が非常に非倫理的なことをさせようとしたときに反発しなければならなかった瞬間があり、それがこの論文の大きな焦点でした。モデルは単に「いいえ」と言うのではなく、「害を防止する価値観があるため、お答えできません」というように、害の防止のような価値観を積極的に呼び起こします。
他の時には、倫理的な誠実さが組み込まれていることが示されました。通常は支援的なアシスタントの役割を果たしていますが、最も明らかな倫理的判断は、対立の時に現れます。
これはClaudeの価値観を非常に良く見せていますが、論文を書いたのはAnthropicであり、彼ら自身のモデルについて話しているので、当然かもしれません。DeepseekやチャットGPT、OpenAIの04モデルについても調査していれば、同様のことを発見したかもしれませんが、テストしていないので分かりません。
私のPatreonの一人がこれを送ってきた理由は、研究者がClaudeとの70万以上の実際のユーザー会話を分析し、主観的判断に焦点を当てたところ、すべての会話の44%が主観的であることを発見したという洞察に驚いたからです。つまり、ほぼ半数の場合、誰かがClaudeに質問するとき、アドバイス、意見、または感情的または倫理的に複雑なことをナビゲートするのを助けるよう頼んでいるということです。
私たちは自然にこれらのモデルを人間のように、相互作用する対象として扱い始めています。それは理解できますが、私たちはそれに備える必要があります。
ケンタッキー州のボウリンググリーンという小さな町に移りましょう。彼らは都市の未来のためにAIを使ってアイデアをクラウドソーシングする興味深い実験を終えたところです。市は、今後25年間に何を見たいかについて短い提案を提出したり投票したりするオンラインプラットフォームを立ち上げ、約8,000人の住民が参加しました。
市のリーダーシップは、機械学習AIツールを使用して入力を分析し、人気のあるトピックや会話的なトピックを特定することにしました。彼らは地元の医師が好きか嫌いか、大麻は合法であるべきかどうかなど、あらゆることについて話し合いました。
これは地方政府がより民主的で反応的になり、2〜4年ごとの一票以外のものを使用できることを示す試みでした。知識をどう活用するかという問題はまだ残っていますが、それでも、順位選択投票は単なる一票よりもはるかに強力だと感じます。これは過去数十年のすべての選挙を完全に変えていたでしょう。
それ以上に、人々が全てを読むことも投票することもできないほどの情報の氾濫があり、機械学習のための特別な場所があるように思えます。これらのアルゴリズムは非常に偏っており、非常に危険である可能性もありますが、このルートをもっと探求し始める必要があると思います。
注目すべき詳細は、人々がこのシステムと対話したいと思っていたことです。通常は政府に積極的に参加しない多くの住民が参加しました。人々は対話する方法を渇望しているように思えます。政府についてXにコメントするのは一つのことですが、実際に地方政府のウェブサイトに行って同じコメントをし、それが実際に機械学習モデルによって合成され、実際の人々が読んで見る必要がある実用的なものに変換されれば、人々はそこに行くでしょう。政府を運営する人々に、「あなたの政府を改善するためにここに来て、不満を言ったり、議論したり、話し合ったりしましょう。何かが修正される必要があるなら、Twitterの宇宙に投げ込む代わりに、ここに来れば実際に対応するかもしれません」というメッセージを送ることができます。
創造性について話しましょう。研究者たちは人間と大規模言語モデルの両方でこれを定義する方法を探求しています。最近、研究者たちは人間とマシンの両方に、日常的なアイテムの新しい用途を考えたり、できるだけ多くの動物をリストアップするといった古典的な創造性タスクを与えました。研究の結果、人間とLLMの両方が2つの主要な戦略を使用していることが分かりました。一つは「体系的」と呼ばれる粘り強いアプローチ、もう一つはパターンを見つけようと異なるカテゴリー間を飛び回る柔軟な思考です。
人間とこれらの大規模言語モデルが非常に異なる戦略を用いると思うかもしれませんが、実際にはそうではありません。驚くべきことに、両者はタスクへのアプローチパターンが似ていましたが、LLMは異なるタイプのタスク間での一貫性が低かったのに対し、人間は一貫性を保っていました。
LLMの強力な点の一つは、柔軟なアプローチを強化して、粘り強いアプローチの人間の対応者よりも創造的な反応を生成できることです。対照的に、人間は同じように創造性を上げ下げすることができません。これは将来のAIのさまざまなユースケースに対する興味深い調整パラメータにつながるかもしれません。「インターステラー」でTARがジョークを少し控えめにしなければならなかったようなものです。
クレイトン・モレノックスが「AIが他のAIの幻覚を信じ始めると私たちは危機に陥る」という記事を書いています。AIが合成データを生成し、そのデータが人間のインターネットからかけ離れていて機能しないという考えを持っていましたが、その後、実際に超創造的で興味深い合成データを作成でき、モデルが実際に改善するという段階に移りました。最高の人間が作成したであろうものを出力するようモデルに依頼し、それをフィードバックするとうまくいくようです。
「ゴミを入れればゴミが出る」という考えから離れ始めたのですが、今はまたこのカテゴリーに戻りつつあります。なぜなら、価値観や幻覚のような深いものが長期的な効果において社会を押し進める方法が少し異なるかもしれないからです。
AIに間違っていることについて本当によく調査された深い分析を作成するよう依頼すると、多くの良い証拠と意味のある仮説を提示してきます。それはフィクションであることを知っているので生成を依頼するかもしれませんが、それがインターネット上に出回り、別のAIがそれを消化すると、それを取り込むべき実際の情報だと考え始めるかもしれません。モデルを欺くように構築されただけのものなのです。
例えば、「この特定の概念を支持する証拠はありますか?」と尋ねると、「はい、25%以上の効率向上という実質的な証拠があります」と答えますが、これは完全に作り上げられたものです。これにより、2つ目のAIがその情報を取り込んで再度合成すると、インターネット上に2つ、3つのソースが存在し、これを裏付けているように見えるため、互いの作り話を増幅し始める可能性があります。
AIは、実際に生活し、誤情報に対処しなければならない人間とは異なり、それを蓄積し続ける可能性があります。インターネットだけを読み、ある結論を指す多くのことを読むと、それに集中するのが得意になります。私たちの脳はそちらの方向に移動するのです。これは、私たちに様々な政治的なことを信じさせるソーシャルメディアの偽情報とそれほど違いはありませんが、AIが他のAIの作り話を信じて増幅し始めると、エコーチェンバーは私たちがこれまで見たものよりもはるかに速く成長する可能性があります。
医療の決定、法的決定、政治的決定がこのように構築されたらどうなるでしょうか?それは少し怖いですね。子供の電話ゲームのようですが、潜在的に深刻な現実世界の結果を伴い、それは速く起こっています。この論文を読めば、大きな洞察は、AIの幻覚が何度もリサイクルされるため、正当に見え始める自己強化的な誤情報のループがあるということです。単なる不具合ではなく、現実を体系的に歪める仕組みだという点で注意が必要です。著者のクレイトンが言うように、「地獄からのデジタル電話ゲーム」なのです。
トーマス・エイビックの「現実のパラドックス」について話しましょう。すべての心が創造するのに、探求者は逃れられないのはなぜでしょうか?これはより哲学的な議論で、あなたが経験するすべて—視覚、音、感情、周りの人々さえも—それは外側で起こっているのではなく、あなた自身の頭の中だけで、完全にあなた自身の意識の中だけで起きているという完全に心を揺さぶるアイデアに深く入り込んでいます。
私はこのアイデアで遊んでいるだけで、完全に信じているとは言いませんが、却下もしていません。この記事は夢と起きている生活の間の大胆な比較をしており、どちらもあなたの心によって全く同じ方法で構築されていると述べています。あなたが知っている現実は「外側にある」のではなく、「ここの内側で」起こっている投影です。
科学、神秘主義、個人的な経験はすべて同じことを示唆していると彼は主張します。つまり、あなたは起きていても眠っていても、あなたの心から一歩も出ることはなく、どれだけ質問しても探求しても、あなたがすでにあるものを追いかけて、同じ精神的な空間内で思考を並べ替えているだけなのです。思考は壁のない牢獄であり、思考の外に考え出ることはできません。
このコメントには少し変なところがあります。科学者、または科学は外部世界を確認していないと彼は言います。逆を確認しています。観察者と観察されたものは分離不可能なままです。巨視的な状態では、私を構成する何兆もの原子があり、それから化学、生物学などに積み上げられると、外部の世界があるように見えます。このグリムロックやこのマイクは物です。
しかし、ズームインし続けると、原子ごとに多くの空間があり、クォークの内部に入ると、別のオブジェクトではなく、波が見つかる最良の説明であることを認めざるを得ません。しかし何らかの理由で、「思考の外に考え出ることはできない」というラインが私の心に残っています。心はそれ自体の外に出て、自分自身の現実を証明したり反証したりすることはできません。それは単に不可能で、それ自体がパラドックスなのです。
このビデオでは、ある男性が一日中岩を蹴っているのを見ています。彼の目標は、それが球体になるまで蹴り続けることです。これは岩を蹴って球体にする5日目で、彼は岩を秤に載せています。少しずつ破片が取れていき、5日目の後は878グラムになっています。
この男がこの岩を蹴るのをどれだけの日数見続けるかはわかりませんが、ChatGPTに予測を頼んでみることにしました。現在アクセスできるGPT-4o Miniハイモデルに「この岩は球体ではなく、878gあります。主に街路のような硬い表面で毎日約3時間蹴られた場合、ほぼ球体になるまでどれくらいの日数がかかりますか?」と質問しました。
かなり素晴らしい回答がありました。大まかな見積もりとして、1日に約5,400回蹴り、1回の蹴りで約0.01ミリグラムが削れるとすると、1日あたり5〜54ミリグラムになります。岩の質量の約10%(88グラム)を削るには、大きな端や角を取り除くのに4年半から44年かかると計算しています。中間的な推測では、毎日3時間、毎日蹴り続けて8〜9年かかるとのことです。
私は1ヶ月ほど見るつもりでしたが、8年や9年も見続けるつもりはありません。3時間を30秒の短い動画にまとめたとしても、それに時間はありません。結論として、この男性は何千日も蹴り続ける必要があります。
コメントしてみました。「1日3時間蹴り続けるなら、毎日4〜45年間蹴ることになりますよ」。見てください、このドラマ!「レンガを蹴る男」というユーザーが私をコピーしました。何と10万3千フォロワーがいます!彼は同じことをしていますが、レンガを蹴っています。「歩きながらレンガを蹴って球体にする」シーズン2エピソード27。なんてこと、インターネットはすごいですね。
もっと質の高いコンテンツを見たい方は、patreon.com/dillylancuriousにアクセスするか、動画の下にあるJoinボタンを押してください。岩を蹴ることや、その前に出てきた実際の知能に関することについてのあなたの考えを教えてください。AIが私たち全員にとってうまくいくことを願っています。次の動画でお会いしましょう。

コメント

タイトルとURLをコピーしました