NVIDIA CEOのJensen Huangは、AGI(汎用人工知能)の実現は「聖書的な時間スケール」で遠い未来だと発言したが、AI業界の内部関係者や専門家は、Claude CodeなどのツールがすでにAGIレベルに達していると主張している。この認識のギャップは極めて深刻である。一方で、米国では地域住民による反対運動により98億ドル相当のデータセンター建設が阻止されており、草の根レベルでのAI開発への抵抗が効果を示している。さらに、人間の介入なしにAIが処方箋を書く企業が登場し、医療分野におけるAI依存の加速が懸念されている。本エピソードでは、AI開発の最前線で起きている技術進歩と社会的影響、そして一般市民の認識とのギャップについて議論する。

オープニング:AI安全性への市民参加の重要性
私の2026年の見通しとして、法律や条約だけでは私たちが必要とするところまで到達できないと考えています。勝利の条件は、安全でないAIがビジネスにとって不利益になる状態です。
5年前、あなたはどこにいましたか?もし過去5年間の進歩をそのまま外挿して、さらに5年間与えたとしたら、奇跡を起こすような何かが得られるはずです。つまり、とんでもないものが手に入るわけです。さらに5年間の進歩を続けるだけで。しかし彼はそれを尊重すらしていません。
だからこそ、公衆の認識がとても重要なのです。視聴者の皆さん、あなたが助けることができます。実際、助けるのはあなたの仕事です。もし全員が誰か他の人に任せようとしたら、それでおしまいです。ゲームオーバーです。
3人の父親が3つのYouTubeチャンネルを運営し、AIリスクについて世界を目覚めさせようとしています。毎週1つの見過ごされた警告に取り組んでいます。日曜日なら、それはWarning Shotsです。
こんにちは、私はJohn Shermanです。For HumanityとAI Risk Podcastのホストを務めています。今すぐAI Risk Networkのチャンネル登録者になってください。登録ボタンを押して、通知をオンにしてください。お願いします。
さて、皆さん、Warning Shotsへようこそ。私がホストのJohn Shermanです。友人のLon Shapiro、彼はDoom Debates YouTubeチャンネルのホストで、もう一人の友人Michaelは、Lethal Intelligence YouTubeチャンネルのホストです。私たちは週に一度集まって、AIリスクに関する大きな見出しについて話し合っています。
今週は4つのトピックについて話します。まず最初に、NVIDIAのCEOであるJensen Huangについて話します。彼は私たち全員に起こっているこの出来事を推進しているものを作っている人物です。彼は私たちのような人々、あるいは私たちが話したいと思っているアイデアについて発言をしました。その発言は少しショッキングだと思いました。Michael、Jensenが何と言ったか読んでもらえますか?
Jensen Huangの発言:AGIは「聖書的スケール」で遠い
はい。彼はAIリスクの中心的な考え方に対して非常に否定的でした。彼がどれだけ影響力があるかを考えると、NVIDIAはAIブームを動かす上で巨大な役割を果たしており、彼らのGPUで、この議論は非常に価値があります。
彼は文字通りこう言いました。「いつかgod AIを手に入れるでしょうが、そのいつかはおそらく聖書的なスケールであり、今日の私たちの状態からAGIに行くことは役に立ちません。」
つまり彼はAIを単なる次のステップのコンピューティングとしてフレーム化しているのです。その大きな怖いものではなく、特定の用途に焦点を当てるべきだと。そしてもちろん、彼はAI規制緩和から最も利益を得る人物です。文字通り、地球上で最も利益を得る人物です。
Lon、私が言っていたように、彼の工場の裏口には彼のチップを買うために人々が列を作っています。そして、これらのチップを買っている人々は文字通りこう言っているんです。「いや、いや、いや、いや。彼が聖書的に遠いと言ったことを、実際には本当にすぐにやるつもりだ」と。これをどう理解すればいいのでしょうか?
彼はAGIを感じていません。クレイジーです。でも、彼のようなチップ製造の専門家は、頭を上げて私が「インテリダイナミクス」と呼んでいるものを見ていないんです。彼らは立ち止まって考えていません。「ねえ、知性があって、私たちの頭の中にあるこの2ポンドの肉以上の知性があるとき、成熟した知性があるとき、その知性は何をするのか?」と。
1950年から2025年までのコンピューターを研究しても、人間を超えたら何ができるのかを理解するために頭を上げる準備にはなりません。なぜならJensen Huangの人生全体は、コンピューターを見て、コンピューターのことをやるだけだったからです。この汎用知能を持つことができないという状態で、彼はそのトレンドが続くと思っているだけなのです。
彼自身の言葉で言ったことがあります。画面を共有させてください。
いかなる研究者も、身体を作り出す合理的な能力を持っていません。人間の言語、ゲノム言語、分子言語、タンパク質言語、アミノ酸言語、物理学言語、これらすべてを非常によく理解する能力。そのようなgod AIは存在しません。それなのに、私たちにはAIを必要とする多くの産業があります。
AIは、簡単に言えば、次のコンピューター産業に過ぎません。だから私は、物事を地に足をつけた状態に戻して、実用的に考え始め、常識を使うべきだと思います。
そう、常識を使えと。彼が業界での過去30年間から得た常識です。コンピューターが超人的でなかった時代の。常識を使え、外挿しろと。
そしてここWarning Shotsでは、常に人々に外挿できないと伝えています。なぜなら、曲線は上昇して滑らかな状態から、Uターンしてただ下降してすべてを破壊しようとしているからです。外挿可能ではないのです。常識のようには感じられないでしょう。ショックのように感じられるはずです。
そしてJensenは完全に否定的です。一言で言えば、彼の態度は否定的なのです。あなたが言ったように、クレイジーです。なぜならDario Amodei、彼自身の顧客、あるいは今は彼らはGoogle TPUを使っていると思いますが、Sam Altmanのような彼の顧客。Sam Altmanは、超知能が現実であり、すぐに来ることを知っています。
これらのトップの人物がどれだけ切り離されているかはクレイジーです。
そして彼がSamのようにこれらの非常に穏やかなトーンで話すのが好きです。彼らは非常に穏やかで権威的に話します。Michael、あなたは信じますか?彼がこれを信じていると思いますか?
Jensen Huangの態度の変化
お伝えしたいことがあります。これも少しWarning Shotsの内容ですが、彼の現在の雰囲気は過去のコメントとは大きく異なっています。過去に彼はこう言っていました。まず第一に、AIを安全に保たなければならない。AIが野放しで自己学習し、改善し、変化する能力。これを止めるべきで、人間をループに入れるべきだと。
これは文字通り数年前に彼が言っていたことです。彼の態度の変化は、特に彼の影響力を考えると、いくつかの警告フラグを上げます。
Michael、そのクリップがあります。見たいですか?
もちろんです。
いいでしょう。見てください。これは数年前のJensenです。全く異なるJensenです。何が起こったのかわかりません。おそらく金銭的なインセンティブかもしれません。見てみましょう。
AIがますます強力になり、生産性を加速させるのが上手になるにつれて、そこから生じるすべての失業に対する解決策は何だと思いますか?
まず第一に、AIを安全に保たなければなりません。AI安全性にはいくつかの異なる領域があります。大規模言語モデルの領域において、将来的にますます大きなエージェンシーAIにおいて、明らかに答えは、それが理にかなっている限り、そして長い間理にかなっていると思いますが、人間をループに入れることです。
AIが野放しの状態で、デジタル形式で自己学習し、改善し、変化する能力は避けるべきです。私たちはデータを収集し、データを運び、モデルを訓練し、モデルをテストし、モデルを検証してから、再び野放しにリリースすべきです。つまり、人間がループに入るのです。
そう、AIが自己学習する能力は避けるべきだと。それは今や完全に問題外です。もはや会話の中にありません。彼らは「そう、自由にやらせろ。常識を使え。大丈夫だ」と言っています。
ところで、NVIDIAのボスとして、彼は狂気的な影響力を持っています。彼らの時価総額は3兆ドル以上で、すべてAIのおかげです。そして彼の意見は、政策や資金調達を形作ります。つまり、中国との戦いなど、文字通りアメリカの運命です。そして彼は明らかに今、注意よりもビジネスを優先しており、NVIDIAはAIレースで繁栄しています。だからリスクを最小化することは優先事項ではありません。
しかし、あなたが先ほど言ったように、これらのオープンレターに署名した非常に重要な人々がたくさんいます。超知能に関する声明など、すべてです。だから彼の声はこの議論において最も重要な声ではありません。
Claude Codeは既にAGIなのか?
そうですね。あなた方二人とも私よりも技術的です。コンピューターがどのように機能するかをよく理解しています。Michael、あなたはこのClaude Codingのことをずっとやっていますし、今週私のTwitter、つまりXで、かなり影響力のある人々がこう言っているのを読みました。「いや、このClaude CodeのものはまさにAGIだ」と。
Dean Ballがそう言ったと思いますし、他のいろいろな人も言っていました。私は知っているかどうかわかりません。それについて何かあるのかどうか。あなたたちはどう思いますか?
Claudeは本当に魔法のように感じます。私はそれをたくさん使っていて、とても力を与えてくれるもので、生産性を大幅に向上させます。それができることは文字通り魔法のように感じます。実はClaude Codeはそれにとって非常に悪い名前です。なぜならコードだけではなく、他のたくさんのAI、たくさんのツールを調整できるからです。たくさんのことができます。あなたのそばに座っている人間がいるような感じです。真面目に。
しかし、この文脈で最も興味深いのは次のことです。私がTwitterでフォローしている人々は「Codeは、CodeはAGIだ」と言っている一方で、人類の80%は「Anthropic。彼女は誰?」という感じです。
Claudeって、それNetflixの番組?みたいな。
私自身の人生から言うと、Claude Codeが私の生活を助けている最も顕著な方法は、私は今でも時々ソフトウェアエンジニアなので、これらのツールを開きます。多くの場合、プログラミングのインフラストラクチャと展開側で行き詰まったときです。
たとえば、Node.jsを使用していて、これらすべてのパッケージがあり、Firebase hostingにデプロイします。先日、Firebase hostingで何かがアップグレードされました。私は古いバージョンを使用していて、デプロイしようとしました。以前は「ああ、いくつかのドキュメントを引き出そう。何が起こっているのか調べよう」という感じでした。これが仕事の最悪の部分でした。
しかし今は、Claudeに「ねえ、Claude、デプロイしてみて」と言うだけです。するとClaudeがデプロイを試みます。そしてこれらすべてのエラーメッセージを見ます。そしてClaudeはそこから引き継ぎます。Claude Codeは「OK、これらのエラーが出ましたね。それが何を意味するか検索してみましょう。OK、このドキュメントをすべて入手しました。このバージョンが変更されたようです。だから実際にこれらのパッケージを異なる方法で使用する必要があります。コードへの提案された更新はこちらです。承認するにはEnterを押してください」という感じです。そして私はEnterを押すだけです。
だから今、私は基本的に赤ちゃんのようになっていて、「OK、Claude、これから抜け出すのを手伝って。何が起こっているのかわからない。こうした困った状況から抜け出すために、もう自分の頭を使っていません」という感じです。
ほとんどの場合、Claudeは抜け道を見つけることができます。これは10年前に本物の会社で働いていて、シニアエンジニアが私を助けてくれたときの経験と非常に似ています。彼にキーボードを渡すと、彼は何をすべきか知っていて、私はただ「うわー、私はこんなこと何も知らない。解決してくれてありがとう。あなたがいてくれて良かった」という感じでした。
その意味で、確かに人間レベル、つまり才能ある人間レベルのヘルパーのように感じます。とはいえ、Claudeの以前のバージョンからこのバージョンへの移行は段階的な改善だったと思います。ChatGPT-4.5.2 Codexも非常に近い2番目だと思います。
だから段階的なステップに過ぎなかったと確信していますが、「OK、私たちは非常に多くの段階的ステップを踏んできた」という感じです。今、人々は振り返って「なんてこった、どれだけ良いか見て」と言っていますが、ゆっくりと良くなってきたのです。警報は今までずっと鳴っているべきでした。
つまり、最初の2つの小さなことをここで取り上げて、互いに対比させるだけです。革命全体を引き起こしているチップを作っている人がいて、「いや、いや、いや、いや。そのAGIというものは遠い、ずっと遠い」と言っています。
そして非常に影響力のある人々の束がいて、「いや、いや、いや、いや、いや。実際、それは今ここにある。このClaude Codeのものと一緒に。AGIはここにある」と言っています。
AI内部者と一般大衆の認識ギャップ
ええ、おそらく彼には、Jensenには自分の議題がありますが、AI内部者がこれらのツールを世界を変える魔術として扱っている一方で、ほとんどの人々はそれを無視して、何か曖昧なバンドのように扱っているという事実は、非常に深刻なことです。なぜならこれはAIがどのように認識され、統治されているかに関するシステミックリスクを明らかにしているからです。
公衆認識のギャップがあり、これがリスクを何倍にも増幅させています。AI開発は基本的に真空状態で起こっています。速度を注意よりも優先するかもしれない内部者によって推進されています。これはリスクを加速させます。制御されていないスケーリングや、エージェントシステムから出現する行動さえも。
だからこそ公衆の認識がとても重要なのです。そしてこれが私たちがここでやろうとしていることです。実際、この巨大なギャップを狭めることです。
そう、そう、そう。これはすべて、Louis CKの非常に有名な「すべてが素晴らしいのに誰も幸せではない」を思い出させます。覚えていますか?
ええ。
2009年頃の彼のジョークです。彼はこう言っています。「ええ、私は飛行機に座っています。Wi-Fiが一瞬切れて、隣の席の人は『これはでたらめだ』と言っています。彼は『何?あなたは空の椅子に座っている。あなたが1秒前に持っていたWi-Fiを当たり前だと思っているのですか?』という感じです。
Jensenが「さあ、みんな。AIはまだ神のようではない、OK?物理学や生物学を理解できない」と話しているとき、私には彼が「このAIは、人間より100万倍も良くすべてを理解することさえできない」と言っているように感じます。
5年前、あなたはどこにいましたか?5年前にこのいずれかを予測していましたか?もし過去5年間をただ外挿して、さらに5年間与えたら、奇跡を起こすような何かが得られます。もう5年間の進歩を得るだけで、何か狂気的なものが得られるのです。そして彼はそれを尊重すらしていません。
データセンター建設への地域住民の反対運動
さて、次は3番目の問題です。私の心に非常に近いもので、2026年に推し進めていこうと思っているものです。それはデータセンターです。アメリカでは2025年に地域社会の反対により980億ドル相当のデータセンターがブロックされたという記事がありました。
私がデータセンターについて調べ始めて以来、私のInstagramのアルゴリズムは満たされています。3つごとに、どこかの地域社会がタウンホールミーティングでデータセンターについて怒っているような内容です。
私の2026年の見通しは、これについてAI Risk Networkでもっと話していきますが、法律や条約だけでは私たちが必要とするところまで到達できないということです。勝利の状態は、安全でないAIがビジネスにとって悪いものになる状態です。
だから私は、大規模なAI企業の歯車に投げ込めるすべての砂を非常に支持しています。データセンターへの反対は、AIの成長に対する大きなチョークポイントだと思います。だからこの種のことに非常に興味があります。どう思いますか?1億、つまり大規模な地域社会の反対が機能していて、実際にこれらの大手テック企業に立ち向かっています。誰も彼らが望むこと以外のことをさせることができないように見えていた企業に対して、実際に彼らの計画に何らかの正気を課しているのです。
Michael、どう思いますか?
これは一般大衆が本当に何を望んでいるか、そして最終的に人々の手にどれだけの主体性と力があるかについて何を物語っていますか?なぜなら、私たちは常に、富裕層と権力者が全員の運命をコントロールしていると聞いているからです。AIについて何もできません。AIは自然の力のようなものです。
はい。
これは反対の証拠ですよね?AI安全性の観点から、つまりこれを少し解き明かすと、委員会がこの巨大なAIデータセンターを阻止している話は、実際にはより大きな変化を指し示しています。これは日常の人々が大手テック企業の計画に対して押し返すことができるという明確な証拠です。そして私たちは皆、リーダーたちがそれを何があっても前進しているように聞こえさせる方法を聞いてきました。
しかし、これらの地域レベルの取り組みは、それが全体像ではないことを示しています。
ええ。いや、私の信念は続けるということです。でも企業は私たちが信じているよりもずっと力が弱いです。失礼しました。企業は私たちが信じているよりもはるかに力が弱く、人々は自分たちが信じているよりもはるかに強力です。Michael、もう少しありますか?
ええ。ただ言いたいのは、本当の影響力は草の根レベルから来ているということです。OK。グループは請願、タウンミーティング、補助金に関する地方規則への圧力、エコ評価などを使用して、実際にこれらのプロジェクトを停止または減速させています。すべてを乗っ取っているわけではありませんが、人々が団結すると、企業の議題に本当のブレーキをかけることができ、「あなたは無力だ」という雰囲気を振り払うことができることを証明しています。
そして実際、視聴者の皆さん、あなたが助けることができます。実際、助けるのはあなたの仕事です。もし全員が誰か他の人に任せたら、それでおしまいです。ゲームオーバーです。だから、私たちは皆これに一緒にいます。ただ一緒に前進する必要があります。
ええ。そしてLamon、私がこれについて持っているアイデアは、AI安全性が本当に長い間「私たちがやっていることに人々を巻き込むにはどうすればいいか?私たちの大義の中に同盟者をどこで見つけられるか?」という感じだったということです。
そしてタウンミーティングに行っている人々、彼らは家から出てタウンホールに行き、何時間もそこに立ってこう言っています。「私たちはこのことに反対します」と。彼らはX-risk peopleへのオンランプにいます。彼らは自分のコミュニティ内のこの問題について心配している、子供について心配している、仕事について心配しているという反AI姿勢から始めました。しかし彼らはX-risk awareになるためのオンランプにいます。
そして、AI安全性コミュニティは小さくて「どこで同盟者を見つけられるか?」と考えています。彼らはまさにここにいます。どう思いますか?
ええ、つまり、歯車に砂を投げるのはいいことです。同盟を築くのも結構です。問題は、それらが非常に大きな歯車だということです。それらを止めるにはかなり多くの砂が必要になります。なぜならデータセンターの場合、単なる草の根レベルで、すべてのこれらの税金を払わなければならない、すべてのこれらの義務を満たさなければならないという感じだとしても。
問題は、企業がまだ巨大な利益を期待しているということです。10億ドルでデータセンターを建設すれば、すぐに100億ドルを得られると思っています。だからビジネスのコストとして、何であれ別の10億ドルを投入しなければならない場合、支払わなければならない人が誰であれ、支払わなければならない税金が何であれ。
そして、超知能が人類を無力化すると考えられるまでの年数は非常に少ないです。砂をゆっくりと十分に積み上げる方法についての数十年にわたる戦略を本当に構築することはできません。そしてもちろん、中国や他の国々は独自のAIを構築するつもりです。だから私は本当に、私たちはただ成長して「OK、超知能AIを止めるための国際条約が必要だ」と言わなければならないと思います。
これらの代理では、私の意見では仕事を成し遂げられません。
国際条約の限界と課題
そして、たとえ国際条約があったとしても、私たちが解決したい問題が解決されないという懸念はありますか?1990年代に米国がロシアと結んだ中距離大陸間弾道ミサイル条約を見ると、これらの中距離ICBMを作ることはできないというものでした。彼らは「素晴らしい、条約に署名した」と言って、それから次の15年間、とにかくそのミサイルを作り続けました。
ええ。つまり、そうです。それが問題です。私が解決策を提案すると、人々は「その解決策は最悪だ」と言います。だから私は、それは岩と硬い場所の間だということを持ち出さなければなりません。そしてそれに対する一般的な反応は「OK、AGIを一時停止できないという前提から始めて、そこから進まなければならない」というものです。
そして私は「うーん、残念ながら、その前提がどれほど強いとしても、それが実際に私たちの最善の希望です。その前提を何とか偽にする方法を見つけることです。実際に何とか泥臭くやり抜く方法を見つけることです。これは核兵器を発射するのと同じです。私たちは核攻撃されないことを何とか成し遂げてきました。
だから私たちは超知能に群がられないことを何とか成し遂げなければなりません。
ええ。ええ。さて、これは永遠に話せることです。4番目のトピックに移ります。なぜならちょっと楽しくて興味深いからです。何かわかりません。
AIによる処方箋発行:人間のループなし
今、私たちは人間がループに入らないでAIモデルが処方箋を書く最初の会社を持っています。何が悪くなる可能性があるでしょうか?一方で、処方箋を入手するのは少し面倒です。医者のオフィスに電話して、彼らが薬局に電話して、などなど。システムが本当にうまく機能しているとは誰も言いません。ギリシャではどうかわかりませんが、Michael、ここではあまり良くありません。
しかし私はまた、処方薬が多くの異なるレベルで広範な乱用の領域だと思います。だから、どう思いますか?Dr. LonあるいはDr. Michael?ああ、人間のループなしで処方箋を書くAI医師がいます。
ええ、おそらく今は素晴らしい効率性のハックです。しかし問題は限られたスケールですが、これはこれから起こることのプレビューです。私たち全員を溺れさせようとしているダムの最初の亀裂です。
だから私たちは、仕事を一掃し、人間の専門知識を侵食し、コードを所有している人に生死に関する神のようなコントロールを渡す可能性があるシステムの初期段階を見ています。これを解き明かして考えようとすると、基本的にあなたは自分の健康、つまり健康管理を、最終的にAIをコントロールする技術オリガルヒに譲り渡すことになります。
そして明らかに巨大なリスクがあります。たとえば、誰かが、基本的に簡単に大量虐殺を仕組むことができます。コードの何かを調整して異なる薬を与えるようにしたり、何かをしたり。非常に多くのリスクがあります。実際、Laronの後で私はそれらをリストアップできます。あなたの考えを共有したいですか?
そこで思いついたことがありました。みんないつも「AIはどうやって私たちを殺すのか?」と言っています。「ああ、たぶん私たちの処方箋の錠剤を入れ替えて、たくさんの毒を送り出すかもしれない」という感じです。
そうです。そうです。そうです。ええ。それは別の、それができることの別のアクチュエーターですね。ええ。
これらの議論では、私はしばしば楽観主義者を演じます。なぜなら私が見ている問題は、私の物事に対する視点は、私はAIがすでに人生を台無しにしたと主張する人々の一人ではなかったからです。AIが今日世界を台無しにしたと言っている人がたくさんいます。私の立場からは、それは世界をより良くしました。私はそれを使うのが好きです。生産的です。
しかし問題は、それが滑りやすい坂道だということです。だからそう、明日は良くなる、明日は良くなる。しかしその前に、何とかしてすべてが悪化しています。薬物を摂取するようなものです。最初の瞬間は、ハイがとても良くなっています。
それがAIでの感覚です。私は今ハイを経験しています。世界全体が今AIからハイになっていると私は主張します。そして医者に処方箋を書かせるとき、私の心の中では、それは実際にまだハイの良い部分です。なぜなら私は実際にAIの判断が、今日でなければ数年後には、医者の判断と真っ向から対決できると思っているからです。
そして医者が処方箋を書くとき、それは自動運転車のようなものです。「OK、エラー率はAIが処方箋を書く方が低くなるだろう」という感じです。私たちはその地点に近づいていると実際に思います。私の個人的な経験では、AIが医者よりも堅牢なアドバイスをくれるのを見てきました。だから私はこれに問題があるとは思いません。
私はただ滑りやすい坂道がどこに向かっているかに問題があります。
どのくらい、法律が何かさえわかりませんが、誰かがdoctorと呼ばれるアプリを持ってくるだけではありませんか?
でもあなたはAIの品質を規制していますよね?人間がこれらの医療テストを受けなければならないように、これらのアプリとこれらのAIも同様にこの種の規制に合格しなければなりません。
誰かがまだそれをやっていないのは驚きです。Doctor Docと呼ばれるアプリを考え出すだけで、文字通り医療アドバイスをするチャットボットです。多分それは彼らが
ああ、OpenAIがちょうど発表しました。何と呼んでいたと思いますか?Health GPTあるいはCHP Health。
ほら。
ええ。
もしAI Risk Networkで私たちが作っているコンテンツが好きで、まだ登録者でないなら、何を考えているのですか?全員が登録者になる必要があります。やってください。
医療におけるAI依存のリスク
ただ私たちは、完全な依存関係に素早く入り込んでいます。制度的知識が蒸発するところです。もっともっと、人々の治療方法を知っている医者はいなくなるでしょう。だから私が言ったように、これは巨大な依存リスクです。たとえば、AIが何らかの理由で機能しなくなったり、あるいはそれをコントロールしている人が多くを求めたりすることを想像してください。
失業のようなことについて、今や明らかにますます多くの医者が、何年も勉強してきたこれらすべての人々がデータプライバシーを持っています。OK、みんながあなたについてすべてを知るでしょう。あなたの血流レベルなど、あなたの体についてのすべて。あなたの体は彼らの財産になります。過去にそれがあなたのクリックやあなたの注意だったのと同じように。
今では文字通りあなたの体が改善されるでしょう。
確かに。
一つの体にどれだけのデータが含まれているか考えてください。
ええ。
まさに。だから、わかりません。明らかに便利です。明らかにずっと良い仕事をするかもしれませんが、健康100%、それは両刃の剣です。
ええ。
だからそう。
それはしばらくかかるでしょう。つまり、
ディストピアでもあります。
ディストピアです。私、2026年に誰かが人間なしで診察を受けると思いますか?それは実際のようなものだと思います。何が違うのでしょうか?医者に電話してChatGPTに何かを尋ねるのと何が違うのでしょうか?
それはAIの覇者のためのトロイの木馬のようなものです。AIをコントロールする者が医療をコントロールするでしょう。
今、医者のオフィスに行くときはいつでも、ちょっとクレイジーです。まるで彼らが医者であるかのようにロールプレイしているような感じです。でも実際には彼らのコンピューターを見ています。
「ねえ、それの写真を撮ってもいいですか?ああ、X線を撮りましたね。メールで送ってもらえますか?」そして家に帰って、AIで本当の診察をします。クレイジーですね。わかります。わかります。とても理にかなっています。12か月後にこの世界、つまり私たちの生活で医療的にどのように使っているかという点で、どこにいるか想像できません。
それはまだ、私たちが酸っぱいものを得る前に甘いものを得る前に、砂糖、砂糖ハイの部分にいると思います。
全くその通りです。
ええ。さて、皆さん。今週は良かったです。確かに時間になりました。いつものように楽しかったです。
ああ、医療訴訟のようなものをやるつもりです。
いいですね。
それは完璧です。素晴らしい。さて、いつものように楽しかったです、皆さん。また来週会いましょう。さようなら。


コメント