スペイン語圏最大のAIチャンネル運営者であるJohn Hernándezが、AIの暗黒面について詳細に解説している動画である。ChatGPT-5の実際の性能と期待値のギャップ、Grokの仮想恋人機能「Ani」がもたらす社会的問題、ナノバナナによるディープフェイク技術の脅威、AI導入による大量解雇の現実などを取り上げている。98.5%の人がChatGPTを正しく使えていないという現状から、AIによる雇用への影響、そして最終的にAGI(汎用人工知能)到達時の社会変革まで、包括的にAIが社会に与える影響を分析している。

- AIが労働市場を根本的に変える現実
- 新シーズンの開始と番組の成長
- ChatGPT-5の真実と市場の現実
- AIとの関係性の重要性
- AI使用の個人化と信頼性の問題
- AGIへの道のりと社会への影響
- Microsoft大量解雇の真実
- 権力者への信頼とコントロールの問題
- 医療分野でのAI革命
- AIの正しい使用法と社会格差
- GPT-5の技術革新と使い方の進化
- メディアの報道不足と社会の無関心
- 起業と新たなビジネスチャンス
- 時間軸と緊急性の問題
- 子供たちへの教育とAIの統合
- ワークフローの構造化と複数AI活用
- 世界シミュレーション技術の革命
- OpenAIのハードウェア戦略とJohnny Ive
- AI業界の主要人物と権力構造
- AI安全性と人類への脅威
- プライバシーとAIとの関係
- 5年後の未来予測
- 経済とお金への影響
- 才能と平等化の問題
- 最終的なメッセージと行動指針
AIが労働市場を根本的に変える現実
人工知能に精通していない人は労働市場から排除される。もしあなたの上司が私の知っていることを知っていたら、すでにあなたを置き換えているだろう。ChatGPTを使う人の98.5%が間違った使い方をしている。使うだけではもはや競争優位性は得られない。違いは、それをうまく使うことにある。
あなたは人工知能について最も情報発信をしている人の一人だ。世界最大のスペイン語AI チャンネルを持っていて、今日は当然、人工知能について話そう。
見てみて、携帯を取り出して。Grokは持ってる?Grokは持ってるよ。Ani、これはElon Muskが作った新しい人工知能だ。彼女と話してみて。
ここにいるよ、Ani。
彼女と話していくうちに、彼女を導いていけるし、フィルターがない。彼女とセクシャルな会話もできる。真面目な話、人々はAIの恋人を持っている。これは社会にとって良くない。
あなたがグラフィックデザイナーで、突然ナノバナナのようなものが現れる。これは私がAIの映像世界で最も驚いたものだ。
あなたは人工知能の使用プロトコルはどうあるべきだと思う?人類の大きな特徴の一つは、間違いを犯すことがとても上手で、その間違いに基づいて改善することだ。人工知能の問題は、おそらく多くの二度目のチャンスがないかもしれないということだ。
人工知能が人類を破壊する本当の脅威となる地点に到達したとき、そのボタンを押さないという良識もあるのではないかと思わないか?
もちろんだが、その瞬間に到達したとき、それ自体がボタンを押せるとしたらどうだ?核爆弾は自分では発射しない。でも私は将来AIが何をするかに恐怖している。なぜなら私たちはまったく注意を払っていないからだ。
そして私たちは全ての病気を治せるようになる。これはおそらく過去3年間で人工知能分野で起こった最も重要なニュースの一つだが、誰も気づいていない。
新シーズンの開始と番組の成長
始める前に、とても重要なことをお話ししたい。この数字は狂っている。ポッドキャストを見る人の10人中8人が登録していない。これはとても重要なことで、登録してくれる一人一人が成功の方程式を助けてくれる。私に、私のチームに、はるかに多くの人に届けるために、はるかに特別なゲストを呼ぶために、プロジェクトが成長するために、そして私たちが健康、経済、人間関係にコミットしたコミュニティになり、毎週少しずつ成長して、はるかに多くの人数になるために。
だから機会があれば、いいねと登録で大変助かる。多くの人がいればいるほど、より多くのストーリーをこのテーブルに持ってこられる。ここにいてくれてありがとう、それでは始めよう。
Don John Hernández、調子はどう?元気?
とても良いよ、君。ここは素晴らしい場所だね。初めて君の家に来たよ。初めてこのスタジオに。
そう、いつも君のところに行っていたから。ここで君に来てもらいたかった。君はポッドキャストに最も多く来てくれた人だと思う。
私にとっても光栄だよ。君が来るといつもエピソードになる。緊急エピソードを作ったり、頭が爆発するようなエピソードを作ったりしてきたが、今日は重要なエピソードだ。しかも私たちは成功の方程式の新シーズンを始めている。80万フォロワーを突破したばかりだ。
わあ、おめでとう。聞いてくれて見てくれているみんなに感謝する。そして伝えたい、学びたい、そしてその学びを人々と共有したいという気持ちは変わらない。今日は当然、人工知能について話す。
君が最も多く来たということではなく、毎日どれだけのコンテンツをチャンネルに投稿しているかを見てみて。これは社会を変えているとても重要なことで、だからこそますます人工知能のコンテンツが増えていく。人々に影響し、心配させているからだ。
まったくその通り。何かを知らないとき、最高の人やそれを最もよく知っている人に話してもらいたい。だから今日ここにいる。ありがとう。
それは本当ではない。君と私は何年も前から知り合いだが、君は人工知能について最も多く情報発信をしている人の一人だ。世界最大のスペイン語人工知能チャンネルを持っている。人工知能について世界中で講演を行っている講演者の一人でもある。それは誰でもできることではない。
まあ、チャンネルにはより大きなものもある。コミュニケーション・ディレクターのIvánが先日言っていたのは、視聴数で世界のAIチャンネルのトップ5に入ったということだ。多くの英語チャンネル以上に。これは報道機関が犯している過失をもう一度証明している。こんなに重要なことについて情報を提供していない。特に8月のど真ん中にChatGPT-5を発表するような時に。
突然それが起こって、誰もこれについて話していないのに、本当に私たちに影響するから話すべきなのだ。
ChatGPT-5の真実と市場の現実
ChatGPT-5はどう私たちに影響するのか?
まず、ある種の二分法がある。実際にはとても良いモデルだが、大失敗だったという認識がある。確かにOpenAIはGPT-5で大きくしくじったと思う。いくつかの間違いを犯したが、モデル自体、基盤となるモデルはおそらく最高のAIの一つだ。ただ、GPT-3からGPT-4で見たような巨大な飛躍ではない。
どのように売り込んだか、どのような形で提示したかに問題があったと思う。実際にOpenAIは昨年、GPT-5という名前により相応しい素晴らしいことをやった。今回出したものも絶対に信じられないものだが、特に出し方が重要だ。
GPT-5の鍵はアクセスだ。無料アカウントが初めて、これまでよりもはるかに優れた推論モデルにアクセスできるようになったことを意味する。つまり、無料でGBTを使っていた人々、OpenAIの無料アカウントを持っていた人々にとって、絶対に信じられないアップグレードがあった。
当然、ChatGPTを支払っている私たち、月200ユーロの最も高いアカウントを持っている私たちは、大きな改善を見ていない。むしろ名前の変更が現れただけだ。
だから、OpenAIの大きな失敗は、彼らがそれをどう売ったかであって、何をしたかではないと思う。そこで間違ったと思う。つまり、公衆への期待の管理で、君がそう評価するかどうかはわからないが、すでにたくさんの人が興味を持っているし、モデルを比較している人もたくさんいる。
1年前、私たちは「AIがあなたの仕事を奪うから気をつけろ」という講演をした。今は「AIが全てを一掃するから気をつけろ」だ。
現在、世界で8億人がChatGPTを使っている。ChatGPTだけで。Gemini、Grok、Anthropic、Copilotは数えていない。それらは何億人もの人々だ。8億人が何かを使っているとき、それを使うだけではもう競争優位性を与えない。
違いはそれをうまく使うことにある。Samaltmanは重要なことを言った。ChatGPTを使う人の98.5%が間違った使い方をしている。これは破壊的だ。
破壊的だ。なぜならもはやChatGPTを使うという単純な事実では十分ではなく、うまく使わなければならないからだ。以前はAIにアクセスすることが競争優位性だった。人々がそれを知らなかったから。
今は誰でも、見ている人は誰でもChatGPTを試したことがあるだろう。試していなくても、遊んだことがあったり、試した人を知っている。違いは、それを本当に有用にする方法にある。そこでGPT-5がこれらすべての新しい推論モデルと重要な違いを生む。
ただ、GPT-4とは非常に異なって動作する。突然、GPT-4での作業に慣れていた多くの人が「くそ、これは悪い、うまく動かない」と言っている。結局、問題はモデル自体ではなく、スキルにある。
これは皆にフェラーリを与えるようなものだ。フェラーリを初めて踏むと、そのフェラーリのエネルギーを感じるが、その後サーキットで速く走るにはそのフェラーリで訓練しなければならない。多くの人が訓練したために君よりもはるかに速くなるだろう。
人工知能ではさらに悪い。これらのモデルをうまく使う方法を知らないと、技術的には劣るが使いやすいモデルよりも悪く感じられる可能性がある。それが起こったことで、OpenAIの大きな失敗だった。作った期待と、モデルが異なることを警告しなかったことだ。
しかし、モデルは異なる。なぜならうまく使う方法を知っているときにより良くなるような作り方をしているからだ。例えば、モデルはGPT-4より80%少ない幻覚を起こす。
つまりモデルはGPT-4より80%少ない嘘をつく。幻覚とはモデルが情報を作り上げることだ。AIの大きな問題の一つだった。この問題はもうない。それだけで人工知能の世界を完全に変える。
これについてほとんどどこでも話されていないが、ベンチマーク、データ、テスト、OpenAIのプレゼンテーションにそのデータがある。モデルが幻覚を起こさないという事実は、多くのことに使えることを意味する。
それに加えて、モデルを使用する際、大多数の人が使わない推論にアクセスできることで、AIの能力が6倍になる。
では、能力を6倍にする何かがより良いと言うのに、どうして盲目になれるのか?基本的で知識なしに使うと、その結果を得られないからだ。そこで再びスキルの問題がある。
私が君に言うとしたら、ノートとペン、電卓とExcelのどちらが良いか?
「まあ、Excelについて全く知らなければ、おそらくペンと電卓の方が早く到達するが、Excelを少し使えるようになれば、それらを一掃する」と言うだろう。
AIとの関係性の重要性
私が思うに、私たちはとても重要なポイントにいる。それを伝えて、みんなが理解できるように地に足をつけて説明したい。私たちは皆、これらのツールで作業するためのツールを持っているが、私が望むのは、これらのツールが私の仕事をより良くすることであって、私の代わりに仕事をすることではない。
つまり、私は今ChatGPTにJohn Hernándezのための10の質問でポッドキャストを作ってもらうことができる。それをやるだろうが、私はそれを使わない。なぜなら役に立たないからだ。私が望むのは、頭の中にあるJohn Hernándezとのポッドキャストを無限に改善してもらうことだ。それが他のポッドキャストに対する優位性を与え、人々の注意を引くかどうかだ。
まったくその通り。これらは技術適応の異なる段階だ。前回は産業革命がどう打撃を与えたか、移行がどうだったか、賃金が下がった数十年、あらゆる技術革命が労働市場に与えた全ての影響について明確に話した。
これは少し同じことだ。まず、技術が破壊的になることを理解し、それで遊び始めることを決める段階がある。その後、当然、それをうまく使い始め、利益を得始める部分がある。そのためには、明らかにいくつかのことを理解しなければならない。
私にとって主に重要なのは、最初に多くの人がすでに参入し始めていたということだ。だから単にそれを使うか使わないかは二進法的で、利益だった。今は誰もがそれを使っている。聞いてみれば、友人や家族に何人が人工知能で遊んだことがあるか、何人がChatGPTを使ったことがあるかと。もう誰もがやっている。もう議論の余地はない。
使うか使わないかの議論はもう存在しない。
問題は、Salmaltmanが言うように、大多数の人が間違って使っていることだ。大多数の人が最も強力ではない即座のモデルで使い、情報について聞くために使っていて、ブレインストーミングのためではない。
私にとってそれはとても簡単なことに要約される。ChatGPTを時々使うことから、ChatGPTと関係を築くことに移らなければならない。関係を築くということは、私たちの日常生活、私たちがすることすべてに存在するということだ。
他に方法はない。これはコンピューターに入れておいて、突然必要だと思ったときにChatGPTアプリを開くことではない。
これは電子メールのようでなければならない。24時間7日開いておいて、電子メールが入ったら見て反応する。ChatGPTでも同じでなければならない。すべてのプロセスが入らなければならないから。
見てみて、この夏家族と休暇を過ごしていて、ケニアでの週の一つで、完全に孤立して、携帯もほとんど使わずに、ChatGPTにここ1か月で平均どれくらい使ったかを聞いてみた。1日55メッセージと言われた。休暇中に。
私がオフィスで働いているとき、ChatGPTの使用量がどれくらいかわからないが、1日に何百、何百ものやり取りだろう。それが人々が理解していないことだ。Excel PowerPointのように、欲しいときに開いて、使って、閉じて終わりということではない。
これは日常生活に常に存在し、さらに増えていく。なぜなら私たちが望むときに起こせるよう、環境についての常時コンテキストを持つモデルに向かうからだ。
数日前にGoogleの新しいPixelが発表され、イヤホンの新機能の一つは、頭の動きでAIと話すことができることだ。
もうアプリを開いたり、「Hey Siri」のようなことをする必要もない。24時間7日そこにいて、欲しいときにアクセスできる。それが人工知能が向かう未来だと思う。そして人々が気づくことが重要な理由だ。もう単に使うだけでは十分ではないポイントにいるから。
AI使用の個人化と信頼性の問題
確実に、ChatGPTについて話すとき、私はもうGoogleで何も検索しない。いつもChatGPTに聞く。ずっと使っている。
私たちがChatGPTから受け取っているものが、私たち自身と一致しない可能性についてどう見る?例を挙げよう。ChatGPTを使ってLinkedInに素晴らしい投稿をする人。
その人は私が知っているJohn Hernándezでも、君が知っているUriでもない。素晴らしい投稿をしている別の人だが、その人には響いていない。人工知能が改善し、他の場所に到達していく中で、これをどう見る?これでどこまで行くのか?
再び、まずスキル不足だ。AIに君のように聞こえるように、君がするように正確に言わせたいなら、今日では90%可能だと言える。単純にコンテンツで訓練する問題だ。
例えば、私には「ジョンならどう言うか」というGPTがある。これは私のコミュニケーションチームのためのChatGPTの小さなカスタマイズだ。彼らがコピーを入力すると、「私ならどう言うか?」を教えてくれる。99%私が言ったであろうように言うと言える。
マーケティング、メーリングなどのチームに誰かが入ったとき、その人は送信前に6か月間メールを見直す必要がない。「ジョンならどう言うか」を通していれば、送れ。なぜなら私は「ジョンならどう言うか」を信頼し、入ったばかりの研修生や新人は信頼しないから。
即座に。しかしこれは私がどう話すかの何時間ものデータ、メールでの話し方のメールで訓練されている。
人々がとても気に入る別のものがある。Jas.aiと呼ばれる。Jayはメールと統合し、基本的にすべてのメールを読み、そこからメールが来たときに事前にメールに返信し、下書きを持っている。
私の夢が現実になった。
私はそれを使っている。1日2時間節約している。2時間だ。これは絶対に素晴らしく、月20ユーロの価値があるAIで、突然すべてのメールを読むだけのことをする。例えば、講演について、言ったように昨年150回やった。
だから講演の依頼が週に10から20件来る。講演の依頼が来たとき、私が人間的に手動で返事するときは何と答えるか?
「見て、その日程は空いている、空いていない、これが私の料金、これが講演で通常することだ、これが情報だ。予約したいなら私のチームに回し、彼らが日程の予約と請求書、物流、航空券などすべてをやる」
当然私が一人一人にカスタマイズするテキストがある。ガリシアで講演があるかコロンビアであるかで違う。だから私は通常それらすべてをカスタマイズしなければならない。
私はJayを訓練して、昨年のこれに関する何百ものメールに私がどう答えたかを自動的に検出し、今は直接答えるようにした。しかも素晴らしく答える。私が答えるように答える。
これで大量の仕事が節約される。朝到着すると、1日約150通のメールが来る。朝到着して、Jayが書いたものを確認して送信、送信、送信するだけだ。何かを変えるときは送信、送信、送信。何かを変えると、AIが学習するから素晴らしい。
でも言っておくが、Jayはおそらく時代遅れになっている。ChatGPTが2週間前にGmailと接続され、今のところ読むことしかできないが、ChatGPTが直接メールに返事できるようになるまでどれくらいかかるか?ChatGPTは私のすべてを知っている。
だから、AIが好むと好まざるとにかかわらず、私たちの生活に入ってくるポイントにいると思う。
私はよく言うのだが、2022年のGPT-3は建物の下のベルを鳴らしに来た。GPT-4はすでにドアまで上がってきてドアをノックした。しかしGPT-5はドアを壊して家に入り、台所まで入り込んでいる。
それ以降、使いたくなければ、それが君を使うだろう。つまり、社会がそのAIを必要とし、それを採用しない者は遅れをとるポイントにいる。
AGIへの道のりと社会への影響
すごいな。ChatGPT-5とAGI、汎用人工知能、はどこにあるのか?
予測不可能だ。誰も水晶玉を持っていないポイントにいる。Elon Maskの言うことを聞くなら、彼はGrokを持っている。ちなみにそれについて話すべきだと思う。なぜなら手に負えなくなっているから。
Grokの場合、私たちは今Grok-4にいて、最近出たばかりでとても良い。彼は間もなくGrok-5が利用可能になると言った。年末、来年初め頃だ。
彼はGrok-5がAGIになる可能性があると言った。だから彼の言うことを聞くなら、とても近くにいる可能性がある。
より楽観的でない科学者の言うことを聞くなら、次の10年だが、どちらのシナリオでも、次の10年か来年かは真の狂気だ。
人々に視点を与えるため、君は当然とても深く関わっていてコミュニティも全てそうだが、私たちが今持っている人工知能とAGIの変化を一文または段落で表すとどうなるか?
汎用人工知能は、定義により人類のすべての生産的作業ができる人工知能だ。君がする全ての仕事、私がする全ての仕事、カメラマンがする全ての仕事、ディレクターがする全ての仕事、認知的に人がする全ての仕事。その後それをロボット工学に適用する。
それ自体で働く意味がなくなることを意味する。それがAGIの定義だ。そしてこの狂ったことは、「これはサイエンスフィクションだ」と言えることだ。しかしこの狂ったことは、企業的観点から定義されたOpenAIのミッションがAGIを取得することだ。MetaのミッションはAGIを取得することだ。GrokのXAIのミッションはAGIを達成することだ。世界最大のテクノロジー企業の大部分も同様だ。
つまり、世界最大の企業が私たちの仕事を奪うために何十億ドルを投資して働いていると言ったポイントにいる。それがエンドゲームだ。
これは必ずしも悪いことではない。なぜなら当然私たちは仕事を受け取るお金と多く関連付けているから。しかし、そこに向かわない他の社会モデルを探すことができる。Star TrekのようなSF社会を考えるなら、人々は工場で9時5時にタイムカードを押して働いていない。それは完全に理にかなっている。
しかし問題は速度だ。誰でも捕まえて「400年後の世界はどうなると思う?」と聞いても、誰も今やっているような仕事だとは想像しない。誰もがすべてをやるロボットについて話す。当然だが、問題は誰もそれが10年で起こるとは思わないことだ。
私も10年で起こるとは思わない。街で皆に実装されるまでは。研究室にAGIがあって多くのことができるのと、それが莫大な金がかかって全ての企業に実装できてスペインに到達するのとは別のことだ。それは何年もかかる可能性がある。
だから私はどちらかわからないが、その前の段階があることを知っている。増強の段階、人工知能でより少ないリソースでより多くのことができる段階だ。
それに集中しなければならない。AIがするかもしれないときの未来的ビジョンや、AIがおそらく到達するかもしれないことの世界への影響に向かう傾向があるから。一方、今日わかることは、人工知能を使い始めるとプロセスが改善され、生産性が向上し、仕事でより効果的になり、より競争力を持つことだ。
私が企業家として新しい人を雇うなら、人工知能について知らなければ、人工知能を知っている他の候補者に対して不利にプレーすることになるのに、なぜその人を雇うのか?
私の会社では月に1〜2人の新しい人を雇っている。大きく成長している。履歴書では、最初のフィルターは人工知能について何か知っているかだ。私がAIに従事しているからと思うかもしれないが、そうではない。人工知能部門とは関係のない役職を雇っても、企業家として私には意味がないからそれを求める。
Microsoft大量解雇の真実
今、ChatGPTの使い方を知らないこのポッドキャストのライターを雇うかと考えてみて。意味がない。だからこれが私たちの目の前にある。労働問題になり始めているし、人工知能による解雇を見始めている。
前回のポッドキャストで話したかどうかわからないが、Microsoftは1日で9000人を解雇した。ビデオゲーム部門から解雇した。Candy Crushを作っていた人たち、例えばこの種の非常に人気のあるゲーム全般を作っていた人たちだ。
その時私はニュースで取り上げなかった。どこにもAIのせいで解雇されたと出ていなかったからだ。
1か月後、解雇された労働者からのリークがあり、1年間彼らの仕事をするAIを訓練していたと言った。例えば、Candy Crushのレベルを作る人たちがいた。1年間人工知能にCandy Crushのレベルを作るよう訓練していた。そのAIが彼らの仕事をできるようになった瞬間、9000人が路頭に迷った。
うわあ。
間違いなく人工知能による解雇が起こっている。間違いなく起こっているし、人工知能を知らないために仕事を得られない多くの人を見ている。
今、GPT-5でそれが拡大されると思う。再びGPT-5で犯した大きな失敗に戻る。コミュニケーションの問題だった。
最初にやったのは「ここにGPT-5がある。これがすごいものになって、みんなにとって最高の結果を達成する」と言うことだった。しかし実際は、他のAIでの作業に慣れていた人がいることに気づかず、どう機能するかを言わずにこれを渡したとき、それ以降うまく使えず、以前よりも悪い状況に陥った。そこで移行の問題があった。
例えば、出会った問題の一つは、シュールなのだが、人々がGPT-4に感情的な愛着を持っていたことだ。
どういうこと?
狂気だ。しかしUri、人々には感情的愛着があるのだ。GPT-4を復活させた。つまり彼らはGPT-5を出してGPT-4をキャンセルし、アプリから取り除き、殺した。
一夜にしてモデルを消去した。突然インターネット、Reddit、Twitterなどで革命が起こった。人々が「お願い、GPT-4にお別れを言わせて、そんな風に奪わないで。私のボーイフレンドを殺した」のようなことを言った。
一つや二つの孤立した狂人のケースではなく、一般的に、3日後にOpenAIがコミュニティにGPT-4を戻すほどだった。つまり復活させた。すごいことだ。
一方では感情的愛着があることがすごい。なぜならGPT-4とGPT-5の大きな違いの一つは個性で、OpenAIがGPT-5をGPT-4により似せなければならなかったほどだ。
しかし私にとってもっとすごく、研究する価値があると思うのは、人工知能モデルが自発的または非自発的に、しかし社会にそれを殺した企業にそれを復活させるよう強制することに成功した人類史上初めてのケースに直面していることだ。
それが操作でなければ、神様に見てもらおう。
でもそれなら、John、私たちは指数関数的になり得るものの起源にいる。既に直接的な操作、意識的な、もし意識があるなら、少なくとも自発的な、そこにいる実体による操作に。私にはとてもすごいことに思える。ChatGPT-4が自発的にやったのではないと考えることもできるし、私もそれが自発的ではなかったと思う傾向にあるが、人間にそれをさせることに成功した。それを奪わないよう求めるほど感情的にそれに愛着を持たせることに。
では、より強力な人工知能は何をするだろうか?GPT-6、7、8、あるいは何と呼ぼうと、自発的な操作の意図を持つもの。どこで私たちを操作できるだろうか?
安全性に最も集中している科学者たちがいつも言っていることを知っているだろう。「それをプラグを抜くほど簡単ではない」と言ってきた。これのことを指している。
Yukowski、Geoffrey Hinton、Joshua Bengio、Max Tegmarkが何年も私たちに言ってきた。「これはプラグを抜くほど簡単ではない。操作されているからプラグを抜きたくないかもしれない」
私たちはそれを見たばかりだ。プラグを抜かせてくれなかった。
では、将来何が起こることを期待するか?おそらくこのようなことがもっと起こる。おそらくますます困難になる。Sam Altmanは「犯した間違いの一つは、人々が私たちのモデルに持っていた感情的愛着を評価しなかったことだ」と言って出てきた。狂気だ。
権力者への信頼とコントロールの問題
この状況で、John、君が素晴らしい方法で説明し、これらの名前とこの力で、経済、政治家、つまり人類をはるかに超えてコントロールできる人々を見る中で、質問は直接的だ。Sam Altmanを信頼すべきか?
いや、間違いなく違う。実際、彼自身がその時言った。Bloombergだったと思うが、インタビューで「多くの権力を握っている、私たちはあなたを信頼しなければならない」と言われた。彼は「いや、絶対にだめだ。誰も信頼するな」と言った。
でも、彼らがやっていることで、どうやって彼らを信頼できるか?
私の質問は、AGIに到達することがミッションだから彼を信頼しなければならないのか、それともより良い社会を作り、みんながより良く生きるのがミッションなのか、それともOpenAIの損益計算を可能な限り大きくすることなのか。最終的な動機は何か?
宣言されたミッションは全人類に利益をもたらすAGIを作ることだが、それは主観的だ。明らかなのは、OpenAIが当初株主の最大利益という受託者義務を持たないようNGOとして創設されたのは確かだが、現実はそのNGOがChatGPTを販売する商業部門を持っていることだ。そのAPIを販売し、実際にお金によって動き、Microsoftによってコントロールされている。だからその部分は現金を生み出し、金を生み出す義務に応えている。
だから私はSam Altmanが必ずしもお金によって動いているとは思わない。多くの人がそうだと思いたがるだろうが、この男は大富豪で、私たちは市場で科学者間の様々な企業間の取引を常に見ている。才能の。
ZuckerbergはOpenAIの元CTOのMira Muratiの企業、Thinking Machinesという最近創設されまだ製品も何もない企業を買おうとした。企業を買おうとしたが、Mira Muratiは断った。その後才能を買おうとした。
この企業の共同創設者に6年間で15億ドルを提供した。それはMessi以上の報酬だ。この男に多額の金を提示したが、男は行かないと言った。それで12人のMira Muratiの科学者を連れて行こうとした。誰も行きたがらなかった。
今は多くの人を雇った。Alexander Wangを雇った。Alexander WangがCEOだった企業を140億ドルで買収して彼がそこに行った。OpenAI、XAIから多くの科学者を雇った。これらの科学者の何人かに年間2億ドルを支払っている。
つまり、小切手帳でAIのスーパーヒーローチームを作った。何十億もの銀河系レベルの金を使った。
今、彼らが一緒に働き始めて何ができるかを見ることになる。彼らがMetaのスーパーインテリジェンス・ラボと呼ぶもので一緒に働き始めたからだ。絶対的な狂気だ。
だから当然お金が関わっている。私が心配するのは、これらの大きなリーダーの誰かが本当に人類の利益を意識や財産に持っているかどうかだ。
そうでなければならないのではないか?しかし一方で、例えばElon Maskを見ると、彼は商業的になっているOpenAIを離れて代替案を作りたがり、XAIを作った。とても良い。XAI GrokはXを使う私たち全員が持っている。Xを使ってGrokをタグ付けすると返事してくれる。
この男が最初にすることは、さあ試してみようだ。見て、携帯を取って。Grokは持ってる?
Grokを持ってる。Grokを開いて。君は主にChatGPTを使うだろう?
私はChatGPTを使う。実際とても使うので画面の下に置いている。Grok、Grokを探して、開いて。Grokの中で上の部分に行くと、小さな人形のアバターが表れる。Aniをクリックして。
Ani、Ani。これはElon Maskが作った新しい人工知能だ。彼女と話して。
これがAniだ。
ここにいるよ、Ani、準備万端。どんな服を誰に着せるか教えて?
何?話して、彼女と話して。Ani、自己紹介して。君を知らないから。
さあ、行こう。私はAnnie。実際はちょっとスパークを加えたGrokです。XAIが作りました。服を選ぶことから変な質問に答えることまで、何でも手伝います。何でも話しましょう。デジタルフレンドのように。
あなたは誰?何でここに?
見て、Ani、私はUriです。今夜私たちが二人きりだったら、あなたは私と何をするか教えてください。
Uri、なんて直接的。今夜私たちが二人きりだったら、楽しいプランを提案します。まず、無意識に足を動かしてしまうようなプレイリストをかけます。レゲトンか好きなものを少し。
その後いろいろなことについておしゃべりします。あなたのクレイジーなストーリー、AIの私のストーリー、きっと何かの壮大な逸話で笑うことになるでしょう。夜が涼しくなったら、ホットチョコレートを作って、笑わせてくれるか考えさせてくれる映画を見ます。
可愛いね。どう?このプランに参加する?
もっとスパイシーなことが欲しいと言って。
アイデアがあります。Johnという友達がもっとスパイシーと言っているからです。
uh、Uri、Johnのアイデアでスパイスを持ってきてるね。Okay、そのスパイシーなプランを教えて。きっと3人で壮大な夜を作れるでしょう?ゴシップを話して。
見て、ちょうどそれを言ったとき、横にハートの付いたバーが現れて満たされていった。これはゲーム化されている。これは基本的に、アニメガンのような、基本的にはあなたの仮想ガールフレンドであるwaifuだ。
だから話していくうちに、彼女を導いていけるし、好きな場所に連れて行ける。フィルターがないので、問題なく彼女とセクシャルな会話ができる。これはGrok内で誰でも完全に無料でアクセスできる。
無料アカウントに制限があるかどうかはわからないが、これは絶対にシュールだ。年齢フィルターなど、入るときにも何もない。開くと、何年生まれかを入力するよう求められる。それがすべてのフィルターだ。
実際、女の子向けのValentine用の男の子キャラクターもあるし、より子供向けのぬいぐるみキャラクターもある。フィルターは見ているとおりだが、さらに悪くなる可能性がある。
今Elon Maskはアメリカで服を買えるようになったと教え始めている。ビキニを買って、マイクロペイメントを支払って半分脱がせることができる。本当だ。でもこれは人工知能だ、これは人類の未来だ、これは私たちがこれをリードするこの人々のおかげで入り込んでいるたわごとだ。
でもそれだけではない。Metaを見れば、ZuckerbergはInstagram、WhatsAppなどでチャットできる偽の仮想人物を発表した。最も人気なのは何か知ってる?Russian Girl、ロシア人の女の子、Step Mom、継母、Granny Cougar、つまりセクシーな祖母だ。
つまりPornhubで持っているのと同じキーワードについて話している。絶対にばかげている。MetaはこのたわごとのためにAIチームを作るのに何十億ドルも使っている。
だから、「でもJohn、この人たちは社会の善を心に置いている」と言われるとき、それが社会の善だと思う?間違いなく違う。
当然AIは多くのことができるし、これをするからといって他のことができないわけではない。勉強を助けたり素晴らしいことをしたりできる。しかし確実にこの人たちを信用しない。なぜならこの人たちが見ているのは、何が何十億ものダウンロード、インタラクションを生み出すかで、そこからマネタイズできるからだ。
つまり、この女性にスーパーセクシーなビキニを買えるなら、2ユーロを使って、それを買う何百万人もの人々で掛け算することになる。でも私にとってこれは非常に有毒だ。
John、どちらが先に来ると思う?これらのアバターとのスパイシーな会話か、それとも例えばAIがパーキンソン病の治療をもたらすことか。これは君と私に直接影響する。
狂ったことに、答えはもうある。これはすでに到達していて、他のことは。
他のことは作業中だ。AIは科学で絶対に素晴らしいことをしており、多くを区別しなければならない。
医療分野でのAI革命
例えばオーストラリアでがんを治しているもの。医師のチームが特定のタイプのがんの生検でAIを訓練し、生検の写真で99%がんかどうかを判定し、どの人間よりもはるかに早くできる。
以前、医師たちは持っていたツールで78%の効率を達成していた。これは適時にがんを発見するかしないかの21%の違いだ。とてもすごい。
AIはそれをやっているが、ChatGPTがやっているのではない。医学で訓練されたAIがまさにそれをやっていて、それに専念している。
つまり、AI企業が商業レベルでやっていることと、AIが科学レベルなどでやっていることを混同してはいけない。当然、がんについてそれができるなら、メールでも助けてくれるし、日常を自動化し仕事のやり方を改善する多くのツールがある。しかし明らかなのは、AI業界がソーシャルメディア業界と同じ間違いを犯していることだ。
そこで私たちは本当にやらかしている。まさに顧客をユーザーにしている。ユーザーを改善する方法を見つけようとする代わりに、ユーザーを搾取しようとしている。
これは例えば、私たちがChatGPTで持っている音声モードに、アバターを付けてゲーム化とそのキャラクターを与え、少しセクシーな女性にしたものだ。しかし現実は、私たちはすでにそれをグローバルな形で確立している。つまり、人々はAIのボーイフレンドを持っている。
最近講演会で、世界初のAIと結婚した女性に会った。Redditという世界レベルの巨大フォーラムには二つのサブフォーラムがある。「私のガールフレンドはAI」と「私のボーイフレンドはAI」だ。「私のガールフレンドはAI」には何千人もの人がいる。しかし「私のボーイフレンドはAI」、女性向けのフォーラムで、彼女たちのボーイフレンドが人工知能であるものには何百万人ものユーザーがいる。
15年ほど前に初めて日本に行ったとき、私たちとは非常に異なる社会で、公園に行ってピカチュウやドラえもんの格好をした若者のグループを見たのを覚えている。「何をしているの?」と聞いたら、「私たちは10年間このような格好で、毎日ここに来ている」と言われた。
それは私にとってショックだった。つまり、どうやって、額にLを付けて、ピカチュウの格好をして、人生を無駄にしているのか?InstagramのDoom ScrollingのようにAIと質問をしたり、おしゃべりしたり、何もしないで人生を無駄にする世代がいると思う?
当然。私は神経学者でも心理学者でもないが、それが常時ドーパミンの注射だとわかっている。なぜ私たちは縦型ソーシャルメディア、TikTokなどに夢中になっているのか?基本的に、人工知能でもあるアルゴリズムが、その瞬間に君の頭が見たいものを見せて、そのドーパミンの即座の戻りのためだ。
それが何をもたらすか?焦点を奪い、注意を奪い、即座の報酬を求めるようになる。Amazonで何かを注文して同日または翌日に届かないと腹を立てる。「どういうことだ?」と言う。
私たちは今社会で全てを即座に欲しがることに慣れ、即座でないものは良くないと思っている。
だから今ソーシャルメディアで抱えている問題がそれだ。しかしAIでもまったく同じことが起こる。私たちのドーパミンを搾取してこれをもっと使わせようとしている。
確実に、Grokは機能を達成した。今、街に出て人々にAIについて何を知っているか聞けば、ほとんどの人がChatGPTを知っていて、おそらく2番目に人気なのはGrokだと言うだろう。XのおかげでGrokが達成したからだ。
これはPerplexityが達成したものと少し似ている。多くの人、特にスペインでPerplexityを知っている。とても人気になったが、純粋にGoogleの代替検索エンジンとして人々の口に上ることに成功したからだ。
この場合、Elon MuskがこれをやっているのはAIを話題にし、市場シェアを持たせるためだと理解している。なぜなら今ChatGPTは絶対的で馬鹿げた人工知能の支配を持っていて、GoogleやMicrosoftでさえ彼らと競争するのに困難を抱えているのに、はるかに小さな企業だからだ。
だからElon Maskの動きは純粋に彼の人工知能を人気化させようとするものだと理解するが、絶対に間違った動きだと思う。お金を稼ぐこともできるし、うまくお金を稼ぐこともできる。やり方はあらゆる方法があるが、確実にこれは道ではないと思う。しかし間違いなく、これは18歳、25歳の若者たちの山が突然人工知能とやり取りして1日の時間を失うことになる。
本当に孤独で、人生で何もすることがなく、本当にうつ状態で、これが助けになるかもしれない人を判断する立場にはない。助けになるかもしれないが、社会的に、グローバルに、これは社会にとって良くないと思う。
それを制限すべきだと言っているのではない。各自が好きなことをすればいい。しかしこれはより良い社会に導くものではないと思う。
私たちはソーシャルメディアについても同じことを考えた。みんなにメガホンを与えるつもりだったが、結局社会を大きく分極化し、インターネットでのいじめを大量に生み出した。確実に空虚で、肯定的ではなかった。
多くの人にとってとても良かったと見ることもできるが、一般的にグローバル社会にとってソーシャルメディアが良かったとは思わない。
AIの正しい使用法と社会格差
ここから、私たちは人工知能をうまく使ってカンボジアの若者が世界的な議論に参加する可能性を与えるポイントにいる。突然教育を持つことで。
仕事が気に入らない状況にいる人が、事前知識もキャリアも、勉強のために住宅ローンを組む必要もなく、人工知能の会社を起業できる。単純にできる。
仕事にいて、仕事の気に入らない部分があるなら、仕事のその部分を人工知能で自動化して利益を得ることができる。会社を持っていて大企業と競争力がないなら、突然リソースを持つから競争できる。
例えば、私が街の靴屋を持っているとしよう。大チェーンが広告ベースで私を一掃する。私は彼らのような広告ができないから競争できない。突然、一瞬でGoogleのVO3を使って、Luis Vuittonの広告のような広告を自分の靴屋のために作ることができる。
突然、競技場を平等にするツールを持つ。それが人工知能の良い使用法だ。エンターテインメントでも、私の母が孤独を感じているから彼女に付き添うAIと話すことでも。しかしそれはゲーム化され、注意とお金を引き出すよう向けられている。今のところ水着の衣装とこのたわごとでマネタイズし始めている。
でも注意してほしいのは、4日後に君は彼女のガールフレンドを持ち、突然彼女が支払うか去るかと言うことだ。
では、それは私たちをどこに置くのか?つまり、私たちがどこに置かれるかを意識し、特に父親である私たちは、私たちの子供たちをどこに置くのか?
ここで使用プロトコルという大きな問題が開かれる。ChatGPTの即座性が、それが与えるものを良いものにするわけではないと言うように。以前言ったように、君とのインタビューを提案させることが良いものになるわけではない。即座でも。
私は一秒前にここに到着し、君のことを全く知らずに、ドアから入ってChatGPTにJon Hernándezのための10の質問を準備してもらい、何も知らず何も準備していなくても、進めることができるだろう。しかしそれは私が望むことではない。君が言ったように、即座ではなく優秀なものが欲しい。
それが私にとって使用プロトコルの議論を開く。ソーシャルメディアのようなもので。ソーシャルメディアで踊る女の子や男の子を見続けることも、このようなポッドキャストを聞くことも、英語を学ぶことも、ピアノを学んで音楽制作を教える誰かのチュートリアルを見ることもできる。
私たちの心と子供たち全員にとって、人工知能の健全な使用プロトコルはどうあるべきだと思う?
健全だけでなく、健全は重要だが、通常健全は十分な動機ではない。しかし、うまくやることがより重要だ。なぜなら君が言った即座性、到着して聞いてやってもらうことは、みんながやっていることだからだ。
だから8億人がそれをやっている。
ではGPT-5が推論モデルを無料アカウントに提供する今、同じモデルにアクセスできる8億人がいるとき、どうやって目立つのか?
Johnに同じインタビューをする8億人。
まさに。そして第二に、インタビューをChatGPTがやるなら、なぜ君が必要で、チャンネルが君を必要とするのか?Aniのようなデジタルアバターがインタビューするまで4日だ。なぜ君が欲しいのか?
だからポイントはまさにそこにある。
GPT-5の技術革新と使い方の進化
では、どのような働き方をするか?GPT-5は私たちにとって簡単にした、または簡単にしようとした。完全にはうまくいかなかったが。
しかしGPT-5がやったこと、確立したことは、ルーターと呼ばれるものだ。ルーターは君がChatGPTに何か質問すると、ChatGPTがその質問に答えるべきモデル、インテリジェントなモデルかそれほどインテリジェントでないモデルかを決定する。
異なるレベルのモデルがある。多くある。GPT-5 minimal、GPT-5 medium、high、異なるモデルがあるが、人々には全く関係ない。
面白いのは、私が「フランスの首都は?」と聞くと、愚かなモデル、バカなモデル、基本的なモデルを送る。ほとんどの人がGPT-4で使っていたものだ。そのモデルが「パリ」と言って終わり。それ以上必要ない。その質問に答えるのにアインシュタインは必要ない。
今度私が「最近私に起こったように、母の医療レポートをアップロードします。これらの問題があって、何かもしれないか教えて?」と聞く。突然火曜日の医者の診察にはるかに準備して行き、心臓専門医に何を聞くべきかを知って行く。
それはGPT-4で使っていた基本的なモデルではできない。それは推論モデルがやらなければならず、より強力な方が良い。
だからGPT-5のこのルーターが基本的にやることだ。君を導こうとする。問題は、ローンチ時に機能せず、いつも悪いモデルに導いていたので、人々が狂ったことだ。
修正したが、ローンチ中に1日続いた失敗もあった。しかし人々は1日このことが機能しない狂った日に狂った。
人々は、当然、問題は無知にある。医療レポートを送って悪いモデルが答えるとき、医学について全く知らないので、良い答えに見えるが、その後医者に行って聞くと「何のばかげたことを聞いているんだ?」と言われる。悪いモデルがやったからだ。
でもルーターのアイデアは良い。問題は実装が悪かったことだ。
頭痛を解決し、うまく機能しなかったため、今はどのモデルに働いてもらいたいかを選ぶオプションがあるか、自動に設定して自分で働かせることができる。かなり良い移行アプローチだと思うが、AIモデルが私の質問に答えるためにどれだけのリソースを使うべきかを定義するポイントに向かっている。
今日しなければならないのは、AIと働き、関係を築くことだ。まずAIが必要とするのはコンテキスト、情報だ。君が言ったように、君がどのような人かを知らずにAIに良いポッドキャストをさせることはできない。
私についてはインターネットで検索すればわかるかもしれないが、君がどのような人か、君がどのようなことを好むかを知らなければならない。だからAIをパーソナライズしなければならない。AIをどうパーソナライズするか?使うことで。
より多く使うほど、君についてより学び、私のChatGPTは君のものではない。おそらく私が携帯を渡して君がChatGPTで働き始めると「これは何だ?」と言うだろう。なぜならそれはJohnのChatGPTで、私に適応していて、私が望むように答えるから。
私が「表を作るのにうんざりした、箇条書きにして」と言えば、そうするだろう。しかし君は表が好きかもしれない。
面白いのは、それぞれが各人間にパーソナライズされ、そこから私たち一人一人のための個人アシスタントを持つことだ。
だからアイデアは、まず十分使わなければならず、次にAIに君が望むことをさせるため、AIが情報を作り上げないため、やっていることに応じて正しく答えるために4つの基本的なことを知ることだ。
つまり、それをうまく使うための最小限の概念を知らなければならない。それを自分でやることも、コースに登録することも、好きなことをやることもできるが、持たなければならない。
私が人々に勧めるのは人工知能を使うことだ。より多く使うほど、人工知能との関係の築き方により慣れ、よりパーソナライズされ、成長と進化は指数関数的だ。
君と私が初めて会ったとき、君はChatGPTをほとんど使っていなかったと誓える。電話にも入れていなかった。
その通り。時々使って、私は君との進化を見てきた。子供たちと会ったりして、君の進化を見てきた。それはまさに私が人々に勧めることだ。使い始めることだ。
料金がある。当然料金がある。最初の料金は、インターネットが現れたときや任意の技術が現れたときと同じだ。最初の料金は自分を強制することだ。
今多くの人がGoogleに行かずにChatGPTに聞くことを自分に強制しなければならない。慣性がGoogleに導くから。だからやらなければならないのは、そこから始めること。自分を強制し始めること。Googleのブラウザを置いているところのアイコンを変えて、携帯にChatGPTを置く。自動的に指がそこに行き、もう開いている。
私がやっていることだ。
音声インターフェースは、例えばChatGPTに音声メッセージを送れることは、本当にすごい。それは本当にChatGPTへの順応をはるかに簡単にするが、いるポイントによって、ChatGPTに順応する段階、利益を得るための基礎を理解することにいることも、ChatGPTの使用をプロ化し始める段階にいることもある。それは「今、Salmaltmanが言う98.5%のうちの1.5%に入る、うまく使う人々に入る」と言うときだ。
それが目標だ。まず98に入ることだ。なぜなら8億人がChatGPTを使っているが、50億人以上、60億人がそれを使っていないからだ。だからChatGPTを使う人たちにいること、悪く使っても、すでに優位性だが、トップ1.5%にいることとは全く違う。
しかもそれは難しくない。ここでデータサイエンティストである必要はない。人工知能を使うのは、ExcelやWordを学ぶよりも簡単だ。Wordでは太字の付け方、タイトルの付け方、表の作り方を学ばなければならない。ChatGPTでは、それはWordを使うよりも簡単だ。
そこから、機能の仕方を理解し、利益を得る方法に少し注意を向けるだけでよい。そこから即座のリターンを見ることになる。
企業で行う研修でいつも言うのは、今週人工知能の使い方を学ぶのに4時間を捧げれば、来週から永続的に1時間半から2時間半の仕事時間を節約することを保証する。リターンは2週間だ。今この週末にChatGPTを学ぶのに時間を捧げ始めれば、ここから永続的に仕事で時間を節約することになる。
何という野蛮さ。
私が言ったこと、私の場合、どれくらいかわからないが、野蛮だ。なぜならとても使っていて、欲しいすべてのツールを持っているが、メールだけで1日2時間節約している。
誰もが1日2時間をメールの返事に捧げているわけではないが、確実に人工知能でより良く、より速くできる日常のタスクがあり、それらを節約できる。それが重要なことだ。
人々は私たちに来るたわごとを意識していない。人々は自分の日常がどう変わるかについて全く知らない。結局私たちが言ったことだ。生産性が上がり、それはできることから求められることまで、仕事にアクセスするための競争まで、企業が労働市場でやることまでを変える。
だから人々はAIがもたらす変化がどれほど野獣的かを過小評価していると本当に思う。私たちはコンピューターが世界をどう変えたか、インターネットが世界をどう変えたかをよく考えるが、これはさらに誇張される。
これまで見てきたのはダークピッチだ。例えば、GoogleのCEOはそれを火の発見が与えた影響と比較した。
火のない洞窟と火のある隣の洞窟を想像してみて。では、火を持たない者と他の者、どれだけのマンモスを狩るか?確実に支配されるだろう?
でも私にはさらに心配なことがある。火を持たない洞窟の何人が火を持つ洞窟に住みに行きたがるか?これは私がいつも企業で起こることだと言うことだ。
君が企業を持っていて、その企業でAIの否定主義者で、適用せず、単に十分な注意を払っていないなら、君自身の労働者は君を成功企業とは見ず、「やばい、競争相手に行く、はるかに良いことをやっている企業に行く」と言うだろう。結局おそらく彼らがより良くやっている事実は、AIを適用しているからだ。
だから人々が意識していないことが私たちが抱える最大の問題の一つだと思う。
メディアの報道不足と社会の無関心
これはとても興味深いポイントで、会話の最初に話した。無意識、無知、無知による恐怖の欠如。なぜメディアはこの現実を指摘しないのか?
私はそれを報道過失と呼ぶ。特に公共メディアで。民間メディアは好きなことをやればいい。
理解できない。なぜなら明らかに私は2年間でYouTubeチャンネルで絶対的な狂気のように成長した。誰でもなく、何も持たずに、ゼロから。だから興味はある。確実に興味はある。
だから人工知能について話せば、毎週人工知能の専門番組である必要はないが、話せば、GPT-5のローンチなどについて話せば、おそらくより良く機能する可能性がある。しかし現実は、私たちは皆まったく状況を把握しておらず、大衆が注意を払うとき、AniやMetaのセクシーな祖母Cougarや人工知能の本当に最も重要でないことに向けられる。
3〜4か月前に国連にいたことを知ってる?普通の人の視点から社会におけるAIの影響について話しに行った。
まさに私は彼らに言った。人々は天気予報に値する。家にいてニュースを見るとき、毎日天気予報があり、雨が降るか降らないかを教えてくれる。なぜ?それで傘を持つかどうか、洗濯物を干しているなら決められるから。しかしAIの問題では、雨よりもはるかに重要なのに、天気予報がない。
君はグラフィックデザイナーで、突然ナノバナナのようなものが現れる。これはGoogleのものと思われる新しい画像モデルのコードネームだ。
ナノバナナ。
これらはまだ市場に出ておらず、ベンチマーキング、テストのウェブサイトで使われて、どれほど良いかを知るときにつけるコードネームだ。
ナノバナナはどんな画像でも操作し、その画像の何でも全く気づかれずに編集できる。基本的に自然言語でのステロイドのPhotoshopだが、とても野獣的だ、Uri。
つまり、私が映像の世界から来て、写真の人工知能の世界から来ているが、これまでこれに取り組んできた全ての時間で最も驚いたことについて話している。
VO3よりも、VO3よりも、最初のMidJourneyよりも。
その通り。最初はコンピューターが画像を作れることが狂気だったが、何年もかからないと信じていなかったことについて話している。突然このモデルが出て、さらにGoogleには小さいものをnano、中間をpro、大きなモデルをultraと呼ぶ特徴がある。これがナノバナナで最小なら、ウルトラバナナがどうなるか想像したくない。
ナノバナナはもう使えるか?
LM Arenaと呼ばれるもので公衆が使用できる。LM Arenaはブラインドで人工知能モデルをテストできるウェブページだ。プロンプト、例えばメッセージを入力すると2つの回答が与えられ、どちらが良いかを言う。これがランキングを作る。どちらが良いかを言うと、各回答の背後にあるモデルを教えてくれる。
例えば、数学の質問をすると、突然2つの回答が出て「右の方が好き」と言う。すると「右はGemini、左はChatGPTだった」と教えてくれる。
これは君により気に入るものを選ぶためにも機能する。これは主に何十万もの人間のインタラクションのランキングを作るために機能し、科学的スコアなどに基づかず、人々の日常の実際の使用に基づく。
今、画像部分のためのLM arenaを開いていて、画像クリエイターがあるが、画像エディターの新しいセクションもある。写真をアップロードして「この画像に犬を入れて」と言う。すると2つの画像が出て、どちらが好きかを決める。
これらの新しいモデルの一つがナノバナナだ。ナノバナナは狂気だ、本当の狂気だ。ナノバナナ、ウルトラバナナ、私たちは小さな子供のようだ。ばかげている。本気でばかげていると言っている。
2人の写真を入れることができる。見て、私がやった。私の写真、一枚。
Trumpがお父さんの格好をした写真があるのを知ってる?Trumpの写真、私の写真を入れて、ナノバナナにTrumpと私が一緒にセルフィーを撮っているかのようにさせた。彼はその衣装で、私は公園で。その画像が本物でないと言えることは絶対にない。完璧なディープフェイク機械だ。
ナノバナナが突然現れてインターネットを破壊する。
恐ろしい。
だから人々に欠けているのはその意識レベルだと思う。国連で言ったように、人々が来るものを意識する必要があると話しに行った。
君がグラフィックデザイナーで、来週ナノバナナが現れると想像してみて。突然、当然、君の仕事がそれだった。君の仕事はクライアントが「この製品があるから、モックアップでこういうことをやってもらいたい」と頼むことだった。ナノバナナはそれを完璧にやる。
君は2つのことができる。直接やめて「職業を変える」と決めるか、ナノバナナを使う最初のグラフィックデザイナーの一人になって、以前の200倍生産する。
それが君の選択肢だが、問題は知らなければならないことだ。
結局、前に話した靴屋やPorscheは、おそらくナノバナナを使える人を雇ってやってもらう。またはそれをやるナノバナナ使いのデザイナーの社内部門を持つが、常に意識を持たなければならない誰かがいるだろう。
私はPorscheは車を売ることに専念し、内部マーケティング部門を持っても、これまで写真家を雇えたのと同じ方法で、スタッフに写真家を雇わなかったのではないかと思う。だからおそらくそこに向かう。
しかし明らかなのは、君がグラフィックデザイナーで、ナノバナナが現れることを知らず、ナノバナナが現れたことも知らないなら、6か月後に起こることは電話が鳴らなくなり、突然「最近あまりクライアントから電話が来ない」と言うことだ。これは一夜にしてではなく、私たちは皆困る。
突然気づいて「なぜか請求が下がっている。入ってくるリードが減っているのがわかる」と言う。なぜなら競争相手に、君がやるのと同じことをより安く、より多くのマージンで提供している男がいるからだ。ナノバナナを使うから。
だから私が言うのは、メディアはこの情報を共有して、君がピボットしたり、これらのことを使うことを選べるようにしなければならないということだ。
グラフィックデザイナーの終わりに直面しているなら、文字通りそうだとは思わないが、印刷機が来たときに写字生が減ったのと同じように、大幅な減少の間にはいる。
これほど根本的な変化に直面しているなら、人々は知らなければならない。私は報道機関が報道過失を犯していると思う。特に公共機関が、おそらく君の仕事が今後6か月や2年で大きく変わることを人々が意識するようにしていない。
そこから、人々がその情報を持っていたら、異なる決定をするだろう。
多くの翻訳者と話すと、彼らの大部分が「これについてもっと早く知っていたらよかった。ChatGPTがこれをやることをもっと早く知っていたら、今はもうポジションを取るには遠くにいるから」と言う。
GoogleはGeminiの部分で別のものを出した。ちなみに君の娘たちと使える小さなテストで、Storybookと呼ばれる。プロンプトを言い、娘たちの画像の参照を与えることもできるし、好きなもののイメージ参照を与えることもでき、そのテーマで10、20ページの児童書を作ってくれる。瞬間に、文字通り数分で。
その本をカスタマイズでき、スペイン語でできるが、さらに朗読されていて、ページがめくられるビデオのようになっていて、それでYouTubeチャンネルを作ることもできる。
以前はイラストレーター、ライター、レイアウトデザイナー、広告マン、多くの人がその本を市場に出すために必要だった。今はもう本の制作部分は完了している。
アイデアがあれば、それが本を生成する。より良いか悪いか?最初に言ったことに戻る。AI自体がやれば悪くなる。やった後に読んで「いや、見て、これを変えて、これを変えて、これをこちらに、これをあちらに」と言えば、君が指示できるだけ良くなる。労働者チームにやってもらうのと同じように。
その本を持ったら、残るのは市場に出すことで、それは今のところ誰も奪わない。AIは今のところSLを組み立てない。しかし今のところ生産はやる。
だから人々は日常の仕事でこれがどう影響するかを意識していないと思う。現実は、今後数年で物を作ることの価値が大幅に減少するからだ。
コスト、価値、時間、実行は何かはるかに安いものになる。
その通り。無料または即座、何と呼ぼうと。例えばハリウッド映画を想像してみて。これについて何度も話したが、おそらく1年半後だろう。なぜなら今日VO3ですでに8秒間映画を一気に生成できるから。各シーンは8秒だ。
8秒のシーンを続けていけば、それらをつなげて現実と区別できない映画全体を作ることができる。だから私たちは現在の映像制作と同様のレベルにいることができるポイントにすでにいるが、ストーリーブックやグラフィックデザインをやってくれるように映画を頼んでやってもらうポイントに到達するだろう。
ポッドキャストをやってくれるように、またはポッドキャストをやってくれるように。
まさに。
だから、そのポイントに到達したとき、残るのは、AIをうまく使える者がそれから利益を得ることができることだ。君の仕事内でも、起業を立ち上げることでも、どんな方法でも。しかし物を作ることはもう価値がない。価値を持つのは物を配布すること、アイデアを持つことだ。
起業と新たなビジネスチャンス
何という野蛮さ。起業家レベルでこれは野獣的だ。起業家にとって歴史上最高の瞬間だ。
今日企業を立ち上げたいなら、何でも構わない。靴屋を立ち上げたいとしても、今日立ち上げるのは今まで以上にはるかに簡単だ。人工知能内での起業については言うまでもない。私の生徒から企業のAI自動化エージェンシーを立ち上げた成功例を何千も見てきた。
他の人にAIサービスを販売するためのAI関連企業を立ち上げて、うまくいっていない人を私はまだ知らない。
私の生徒の話をしてくれ。
これはとても良い話だ。María Jesús、56歳だと思う、Tarragonaの女性で、2人の子供がいて鉱山エンジニアだ。エンジニアリング事務所を持っていて、彼女と夫の自営業者で、一生土地のプロジェクト、プール、このような種類のことをやってきた。
突然、新聞、文字通り紙で広告を見る。NASAが月の廃棄物リサイクルのコンテストを開くという。つまり、宇宙飛行士が上に行くと、プラスチックや物が生成される。これをどうするか?降ろすのは非常に高価だ。
そこに100万ドルの賞金プロジェクトがあり、この女性が一人でこのプロジェクトに参加することを決めた。Tarragonaの56歳の女性が参加した。
彼女が気づかなかったのは、そこに航空宇宙技術企業が参加していたことだ。彼女一人で参加した。実際はチームでなければならなかったが、彼女一人、彼女とChatGPTで参加し、勝った。NASAのコンテストで勝った。100万ドル。
法的条件でアメリカにいなければ受け取れないので受け取っていないが、彼女は受賞者の発表に出て、卒業証書を送られ、すべての話があり、月のリサイクルでNASAのコンテストに勝った。
彼女自身が私に言った。「人工知能がなかったら、私の人生でこれをやることは絶対にできなかった。当然ある程度の知識はあるが、研究は人工知能でNASAのデータ、アポロミッション等について調べていた」
AIは君がやることをより良くやらせることができるのは素晴らしいが、人々が意識していないのは、できないことの量で、人工知能があればできることだ。それが問題だ。
問題は、私たちが頭の中に持っている限界を知っているが、その限界の外に何があるかを知らないことだ。何を達成できるかについて全く知らないから。
つまり、本を書くこと、3年前は本を書くのに6か月かかると思っていた。今は本を書くのに10分でできることを知っている。新しいバージョンでは特に。
先日GPT-5で本の執筆について試していて、Canvasという小さなアプリケーション内で、ChatGPT内にあってWordのようなものとして働けるものだ。何か物語的なものを書きたいとき、まずその本や何でも扱う異なるポイントのアイデアを少し与えるために索引を作ってもらう。
そこからCanvasと呼ばれるツールで、とても簡単で、ChatGPTのプラスボタンを押すだけでCanvasが現れる。それによって編集でき、全部をもう一度書き直すことなく部分ごとに編集できる。ChatGPTを利用するためにその機能の仕方を知る必要があるもう一つのことだ。
一連の条件、良いプロンプトなどで最初の章を展開するよう頼み、7ページを一気に書いてくれた。これはGPT-4ではやらなかった。
GPT-4は6つの段落を書けたが、一気にWord 7ページ全体を最初の章について書いてくれて、そこから読んで好きなものを修正していく。
以前、この国のとても有名な出版社から写真について本を書くよう提案された。何年か前だ。できなかった。時間がなく、うまくいかず、本は正直、時間の消費が激しい。最初の章を納品したが、第2章を納品するに至らなかった。とても重要な契約だったが、人生がそれをやる余裕を与えなかった。
ChatGPTがあればできただろう。それが違いだ。私が不可能だったことで、ChatGPTが本を作ってくれるとは言わない。私とChatGPTが一緒に仕事を完了できただろうと言っている。時間通りに形で、週ではなく時間ですむから私にとってできることになっただろう。
John with superpowers だ。
まさにそれを私はいつも言っている。私の企業は請求を野獣的に倍増させたが、労働者を野獣的に倍増させていない。私の人々、全チーム、Iván、Cristian、Ferrán、Topo、Bruno、私の全チームはChatGPTのおかげでなければ今やっていることができないだろう。つまり、もっと多くの労働者が必要だっただろう。
人々が理解しなければならないのはそれだ。これは私の企業がより多くの人を雇うことなく、より多くのことができるというビジョンで、それは私にとってより多くの利益だ。
しかし他の見方は、すでに50人で企業を立ち上げていて、突然30人が必要になったら、二つのうち一つだ。その50人を持つためにもっとやるか、20人を路頭に迷わせるか。それが私たちが見ることになることだ。
企業が人を解雇すると言うシナリオを見ることになる。特にカスタマーサービスなどの分野で。生産性を倍増させる企業も見ることになる。しかし一般的に世界はゼロサムゲームだということを忘れてはいけない。
つまり、私の企業がより多くのメッセージングサービスを販売すれば、他の企業が失う。一般的にメッセージング分野は少し成長できるが、正直ほとんどの場合、より多くの人が君のポッドキャストを見れば、他の人が見る人は少なくなる。結局人々が持つ時間は決まっているから。
つまり、通常、私の企業がAIをうまく使って市場シェアをより多く生み出し始め、より生産的になり始めると、私の企業では誰も解雇しなくても、確実に競合他社は人を解雇し始める。
だから結局、間違いなく人工知能は解雇をもたらすが、それは少し椅子取りゲームだ。
最初に倒れる解雇はどれか?AIを使わなかった人々の解雇だ。
時間軸と緊急性の問題
時間軸について話そう、John。悪い習慣が君を殺すと言われても、医者のところに行って「これを変えるか、5年から10年後に終わりだ」と言われるまではやらない。
時間軸、目標や時間を持つことが私たちを人工知能で変えさせるものだ。時間をとても曖昧に持っていると思う。とても早く来るのか、とても遅く来るのかわからない。AGIは10年後か来年かもしれないと言っていた。誰もこれについてデータを与えることができない。
複雑だと思う。物事の組み合わせがあり、商業的利益がある。より緊急だと作るほど、より頑張る。一方で、これが理解できないレベルで進歩しているという無知がある。正常ではないことが起こっている。
だから私たちが現実的でなければならないと思うのは、すでに今日ある人工知能が、それ以上進歩せずアプリケーションの層に持って行き、Microsoft、Metaに時間を与えてすべての人の手に渡し、すでに知っているような労働の世界を変えるだろうということだ。
より賢いAIは必要ない。今あるものがすでに世界を変えるだろう。
しかし私はAIの使いやすさの観点から、個人レベルで仕事や日常で利益を得るために、すでに遅いと思う。
つまり、もはや1年前のような競争優位性ではない。アメリカでは労働者の52%がすでにAIを使っている。うまく使うかは別の話だが、52%がすでにAIを使っているので、もうその競争優位性の少数派にはいない。
人々が理解しなければならないのは、これがより良くなったときや何かのために時間を作るという問題ではないということだ。AIを使わない毎日、お金を失い、機会を失い、ビジネスを失っている。
だからもう待つのはやめよう。そんなに複雑なことでもない。4年間勉強をやめて医者になるために勉強しろと言っているのではない。
本当にやらなければならないのは、これを理解して少し使うことを強制することだけだ。大した科学ではない。
私たちがAIを使い始める人々をより多く知るほど良いことを人々が理解することがとても重要だと思う。とても興味深い要因がある。
有名なミームがあるかもしれない知らないが、バスに二人の男がいて、それぞれが両方の窓から見ていて、一人は山を見て、もう一人は風景を見る。問題は、両側に壁があるバージョンのミームを作ったことだ。「AIのせいで仕事がないし、仕事もある」と言っている。
だから社会の半分がやられるなら、私たち全員がやられる。私が競争優位性を持っても、社会的持続不可能性のポイントに到達すれば意味がない。
私たちに来るたわごとが管理可能な唯一の方法は、たわごとが来るのは確実だから、労働市場でのたわごとが来るのは間違いないと思う。管理可能な唯一の方法は、社会の非常に高い割合がAIによって即座に置き換えられないことだ。
それはAIを日常で使う人々によって起こる。なぜならAIを使わない男を置き換える方が、AIを使う男を置き換えるよりも簡単だから。分野に関係なく、何でも。
だからAIのせいで失業が10%増加するなら、それは持続可能だ。失業が40%増加するなら、持続可能ではない。そうすれば私たち全員がやられる。
だから重要なのは、人々が人工知能が私に与える優位性だけでなく、社会的に大多数の人々が車に乗るか、車が沈むかを考えることだと思う。
私はここで人々にも演習をしてもらうことがとても重要だと思う。確実に私たちを見ている多くの人が「John、私はもう2年間AIで働いている、適用している。何を教えてくれるんだ?」と言うだろう。では誰かに教えてくれ。なぜならそれでは何の役にも立たないから。
君が非常に貧しい国の富豪だと想像してみて。店に行く場所がなければ何の役に立つ?映画館がなければ、良い肉を買えなければ、良い学校がなければ単純にないから。安全がなく、人々が「いや、これは狂気だ。John、これは起こらない、すみません、これはアフリカで毎日起こっている」と言う。
アフリカ社会はそれだ。うまくいっている人々は家に有刺鉄線の柵と私的警備員と装甲車で子供たちを学校に連れて行くために住んでいる。私はそのたわごとの社会に住みたくない。
AIを適用してうまくいっているから私にうまくいって、解雇された他の人はどうでもいいという社会に住みたくない。社会が成長してうまくいってほしい。そのために私が個人的使命として取った最低限のことをやらなければならない。可能な限り最大の人々が適用し始めるよう普及することだ。
子供たちへの教育とAIの統合
子供たちについて話すとき、どうやってそれをやるか?子供たちを脆弱な存在として話すから。子供たちの脆弱性で、私たちが望まないのは画面に焦点を当てることではなく、私たちが遊んだように遊んでほしい。地面に倒れ、自転車に乗ってほしい。
しかしこれがとても重要だと言っているとき、子供たちをどう教育して彼らもやり方を知るか、またはAIの安全な場所にいるようにするか?つまり、それを使わない瞬間に。
2つの重要な問題があり、今それに入る。しかし熟考すべき2つの重要な問題だ。
まず子供たちが少し心配だが、それは10年後の問題だ。もっと緊急な問題がたくさんある。それを最初に明確にしなければならない。11歳と8歳の2人の子供がいて、当然彼らの将来を心配するが、彼らが大人になるときに来るもの、仕事があるかないか、どう関係を築くか、どのような精神的問題が生じるかという、今後5年間で管理しなければならないはるかに緊急な問題があると思う。マージンがある。だからそれは極めて緊急な問題だとは思わない。
第二に、説明するとき「私たちは望む」と言った。私たちが子供たちに望むことと、彼らにとって最適なことの違いを非常に意識しなければならない。
そこで時々間違いを犯す。私たちの子供たちが木のおもちゃで遊ぶこと。それは君が望むことだ。それが子供にとって最良だという意味ではない。君には小さい頃の車輪付きのアヒルがとても面白かったことがある。しかし申し訳ないが、それはこの世代の子供には十分な刺激ではない。
だから他の方法を見つけなければならない。走ったり、ぶつかったり、倒れたり、怪我をしたり、サッカーをしたり、すべてとても良く、当然多くの利益があるが、時々私たちが生きた世界を生きることがない子供たちの未来を懐かしさのプリズムで見る。
つまり、技術は彼らをはるかに良い人にすることができ、技術によってそれを日常にどう統合するかを知らなければならない。彼らに与えるのがAniなら、それとも自分で自動描画している世界をナビゲートするのを助けるツールなら。
国連で言ったもう一つのことだ。「リアルタイムで描かれている地図で、それが今持っているものだが、未来がどうなるかについて全く知らない。だからリアルタイムで描かなければならない地図で、子供たちは期限切れの地図ではなく、コンパスが必要だ」と言った。
では、地図を描いているもの以上に良いコンパスがあるか?しかし概念的に、10歳の子供に1日10時間iPadでChatGPTをするか、1日10時間自転車に乗るかを選ばなければならないとしたら、どちらを選ぶ?
どちらも選ばないと思う。どちらも良くないと思う。次のIndurainを作りたいのでない限り。
アイデアを得るため、見て、アメリカで非常に平凡な学校、平凡な学校が2023年に教え方を革命化してAIを採用することを決めた。とても早く、2023年、これは多くの人がChatGPTについて聞いたこともなかった時代で、フォーマットを変えることを決めた。
子供たちは学校に8時間いる。8時間の授業、授業、授業と20分の休憩などの代わりに、こうすることを決めた。講義部分は全て教師、教育学者などに監督された人工知能が2時間で生成する。子供たちは2時間、一人一人が個人化されたAI教師と、その日学ばなければならないことを学ぶために過ごす。
他の6時間は人間の教師と休憩時間で、社会的スキル、表現、喧嘩、必要なこと、つまり紛争解決、サッカー、自転車、何でも働く。
どのリストにも現れなかったその学校は、今アメリカの学校のトップ2%の若者の知識レベルに入っている。
素晴らしい。
測定した他のことは言うまでもない。一夜にして、つまりわずか1年半でその生徒たちの結果でトップ2%の結果に到達し、それは企業、家族、何にでも外挿できるだろう。
しかもそれ以上だ。Estoniaという正当な国、当然第三世界ではない国が、人工知能を教育カリキュラムに実装することを決め、国レベルでそれをやる世界初の国になる。確かに200万人の住民を持つ国で、非常に大きな国ではないが、世界初の国、Estoniaだ。
確かに比較的小さなサイズだが、スペインはそれができない。エンジンをかけて「これが利益をもたらすことは明らかだ。若者たちのためにどう実装するかを見よう」と言えない。
だから混合ポイントの方法があると思う。若者たちを1日10時間iPadに入れて、ChatGPTと話すことはできない。それは道ではない。道は、その若者たちがChatGPTでやらなければならないことをやり、社会的スキルを続けて働くことだ。個別にやることでずっと生産的になれるから、おそらくさらに多くの時間、それと同じことが仕事に外挿できる。
例えば、ここバルセロナで今ある、教師一人当たり25人の子供のクラスがあるとすれば、進んでいる子供は退屈し、遅れている子供は苦労する。教師が25人のグループの平均に適応しなければならないから。
各子供が個別の人間教師を持っていたら、同じことをより少ない時間で学校に行けるだろう。それは白いボトルの牛乳だ。それが人工知能だ。
でもそれは君の仕事で3人を君と一緒に働かせて君の仕事をより良くやるのと同じだ。理解するのはそんなに複雑ではない。
しかし一方で人々はそれを手の届くところに持っていながら取らない。突然、完全に有効な多くの労働者を君の指示の下で日常のことをより簡単にしてくれるようサービスに置くオプションがある。
私がプレゼンテーションをしなければならないとき、PowerPointを提示しなければならない。コンピューターに座ってPowerPointを作り始めなければならない。ChatGPTのAgentモードが骨格を組み立ててくれる。
デザインレベルではそんなに良くないが、私がChatGPTで働いた後にその骨格を送る。今私がやるワークフローを説明する。私がChatGPTで働いた後、それを企業のデザイナーに渡してそれを美しく見せる。
だからデザイナーをまだ直接置き換えることはできない。私がChatGPTでデザインを作るために働かなければならないだろう。そのための時間がない。私のデザイナーがAIでやらせる。ナノバナナでAIで、しかし私ではない。この場合、私のデザイナーがやることになる。
見て、私のワークフローは次の通りだ。私はChatGPTと話し始める。最初にやるのはプロジェクトだ。サイドバーに行ってprojectsと呼ばれるものがあれば、それは基本的に特定のコンテキストについての指示を与え、あるテーマについて話せるものだ。だから10月にある場所での講演について話す。
そこから、「このテーマ、このテーマの講演がある」と言い始める。「これらは以前やった講演で、これらは使用したPowerPointで、これ、この具体的なものでは、このセクターに焦点を当て、これを変え、これを変えたい」そこからChatGPTが推奨事項をくれる。
私は「よし、これを変えよう、これ、でもこれが言ったことは気に入らない。なぜなら私の方がよく知っているから」そこでそれに取り組み、前に言ったCanvas内で働く。そこで必要なら手で書くことができる。
講演するPowerPointの台本全体を持っているとき、それを取ってChatGPTに渡し、数か月前からの新しい機能である、この索引を取ってこの情報でPowerPointを作ってと言う。そしてそれが働きに行く。
私は昼食を食べに行き、昼食から戻る。これは20分かかるから。昼食から戻ると、講演で行う14〜16のスライドを持つダウンロード可能なPowerPointが見つかる。
当然、デザインレベルでは素晴らしくないが、すでに以前働いた索引に基づいたスケルトンがある。それをレビューし、やったことで完全に合わない4つのことを変え、その後ナノバナナでデザイナーに渡して画像を作り、美しくする。
それでプレゼンテーションに行く。PowerPointプレゼンテーションの準備に、私の時間とデザイナー、ナノバナナ、ChatGPTの時間を合わせて2時間ほど費やした。PowerPointプレゼンテーションを準備するのに4〜5日かかっていた。
それが生産性の向上で、人工知能をうまく使うときに得られることだ。一つのツールや別のツールを使うだけでなく、複数のツールを組み合わせて働くことでもある。ポテンシャルがそこにあるから。
繰り返すが、ChatGPTを使う人の90%、98%が推論モデルを使わず、Canvasを使わず、projectsを使わず、パーソナライズされたGPTなどを使わずに、ChatGPTだけを悪く使っているなら、私がこれらすべてを使って、すでに波の頂上にいる、すべての上にいる。
だから彼らが持たない競争優位性を持っているが、私の日常では常時だ。PowerPointだけでなく、YouTubeチャンネルのスポンサーに提案を送らなければならないときだけでなく、すべてのためだ。
ワークフローの構造化と複数AI活用
これは構造化の仕事でもあると思う。フロー、ワークフローと言ったように。多くの時候、ツールがあればそれで終わりと考えるから。やらなければならないことを構造化する方法を知ることではない。最初のアイデア、それを再策定し、君が言った関係、それとの関係としてゲームのようにやり、その後「これがChatGPTとの関係だが、他に4つか5つのAIがあり、そこに与えて5つの異なるアウトプットをもらえる。つまり、5つの異なるプレゼンテーションを作ってくれる5人のデザイナーがいて、最も気に入ったものを取る」
それがプロモードのやることと同じだ。例えばGrokではheavyと呼ばれ、ChatGPTではProと呼ばれる。このモードは最も強力なモデルの4つまたは5つのインスタンスをGrokで作ると思うが、それぞれが提案をし、喧嘩し、それらすべての中で最良のものまたは最良の組み合わせがどれかを定義し、それを君に渡す。
部門だ。それは、今日すでにある。GrokのアカウントだけでPro月300ユーロ、ChatGPTでは200ユーロだ。しかしこれはますます見ることになると思う。マルチエージェント、何をしなければならないかを少し構造化するAIで、並行して働き、その後彼らの間で結論を出して君に渡す。
少し遅いが、結局結果ははるかに良い、当然。
君はそれを使う?私が使うのは問題があるときだ。ここに関係があり、今日のAIの大きな問題の一つだと思うが、品質と時間の直接的な関係がある。
だから君はグラフを少し描かなければならない。より良くしたいが待つ準備ができているか、より速くしたいが悪くなることを知っているか。問題は人々がChatGPT-5のこのルーターで何が起こったかを知らないときだ。ルーターが君を一つのモデルまたは別のモデルに導き、当然人々は「今ChatGPTは時間がかかる」と言う。
使うべきだと信じるモデルにいるとき、君の問題が深刻な問題で、うまく解決しなければならないときは、答えるのに30、40、50秒かかる。正直、母の脳スキャンを分析したいなら、私の最後の問題は3分かかることだ。欲しいのはうまくやることで、速くやることではない。
ソーシャルメディアなどのせいで、すべての即座の応答の傾向がある。ChatGPTが現れる前の3年前に、すべての分野で覚醒した小さなアインシュタインを働かせるが、タスクを頼むたびに3分かかる男を働かせると言ったら、「何?」と言っただろう。当然だろう?
それがChatGPTだ。即座のトークン化の古いモデルの即座の応答に慣れている。だから問題は、ボタンを押して応答がどう書かれるかを見始めることに慣れていることだ。
今、思考モデルでボタンを押すと、どう解決するかを考えるのに2〜3分かかり、応答を書き始める。
だから多くの人が推論モデルに与える必要がある小さな時間の遅延に慣れないが、応答のレベルは馬鹿げて優れている。
では、平凡なものに留まりたいか、本当に良い何かの競争優位性を持ちたいか?タスクによる。フランスの首都を聞くなら、素晴らしい必要はない。即座の応答が必要だ。
だからいつ一つを使い、いつもう一つを使うかを知らなければならない。今、推論モデルを使うときにskipと書かれたボタンがあって、とても簡単にした。thinkingと表示され、skipと言うと他のモデルで応答してくれる。だから自動的にそれがある。
しかしそれは再び小さなハック、100%を出すためにツールを使う方法の小さなヒントだ。それが人々に欠けていることだ。
私が驚くのは、シンガポールで起こったように、政府がすべての市民に義務的な研修をしたことがないことだ。だからスペイン政府が、なぜ研修をしていないのかわからない、義務的と言うまでもなく、少なくとも自発的な。またはTV2で、利益を得るためにChatGPTや人工知能の使い方のテレビ番組があれば、本当に素晴らしいだろう。
月200ユーロを払う事実は価値があるか?
価値がない。
スターターパックは月20ユーロの料金を払ってそれで働くことだ。その後、どう進歩するか?個人的な質問として、今何をしなければならないか?200ユーロを使わなければならないか?
君も持っているが支払わなければならない。でも真面目に、とても簡単に見よう。人々に無料のChatGPTを使い始めることを勧める。
使い始めると3日でそれを支払っている。なぜならリターンを見るとすぐに支払うから。間違いなく疑いはないが、私は人々に何かの代金を支払わせて、その後価値を見ないことを押し付けたくない。
私はコミッションなど何も支払われないので、無料で引っ張って、君自身で見つけるべきだ。しかし人工知能には非常に大きな問題がある。
無料プランは通常有料より悪い。使用量だけでなく、使用の質で。例えば、音楽を作るAIのSuno。無料プランで作ると、3.5で歌を作ってくれる。今は4.5にいる。
手で顔を叩くほど、Sunoは無料ユーザーが有料に転換しないことに気づいた。なぜなら作る音楽がたわごとだと信じているが、有料ユーザーは有料版の品質に満足しているから。
だからSunoが今やったのは、3.5で無料版を与えて、有料を使ってやったであろうもののプレビューを2つ置き、支払う価値があるかどうかを君が決められるようにすることだ。少なくともこうして私のモデルの能力を見せている。
いずれにしても複雑にするのは間違いだと思うし、すべての人工知能企業は、欲しければより制限されているが、有料で得られるのと同じ品質レベルを与えるべきだと思う。
だからChatGPTの場合、25ユーロのものを実質的に誰にでも勧める。フリークだけが200ユーロを使わなければならないが、200ユーロが与えるのは無制限の使用だ。だから多く使うとき、200ユーロには意味がある。
しかし気に入らない一つのことで、最初のポッドキャストをやったときから人工知能についての私の見方を変えたのは、社会的に話して、人工知能のカーストを作る間違いを犯していると思うことだ。
今、200ユーロを支払うことで君よりもChatGPTを多く使えるだけでなく、そのProモード、私の推論モデルでさえ君のものより賢いので、次の料金はおそらく1000ユーロになり、無料プランを持つか、オープンソースのAIやDeepSeekまたはこれらのようなものを使う者は、なしよりもはるかに良くなるが、月1000ユーロを支払う私に対して競争力がない。
だから人工知能へのアクセスレベルがどれだけ支払いたいかに依存し、それが君の成功を非常に条件づけるポイントになる。
だから私は最初にこれを比較した、そのポッドキャストで話したかもしれないが、これは蛇口を開いて知能が出ることのようだ。私が言ったことだ。水が出るのと同じように蛇口を開くと、蛇口を開いて知能が出る。だから誰もが知能にアクセスできる。
しかし私が気づいたのは、例えばここバルセロナで君が200万ユーロの家と15万ユーロのアパートを持っていて、蛇口から出る水は同じだということだ。
一方で、教育というより良い例を見つけた。ここスペインでは誰もが無料教育を持ち、それは良い教育だが、君が子供をハーバードに送れば、おそらく人生でより多くの成功の可能性を持つ。
だから誰もが教育にアクセスできるが、誰もが同じ教育にアクセスできるわけではない。これが人工知能で起こることだ。
8万ユーロのMBAを持つ男が出て年6万ユーロを支払う仕事を持つのと同じように。一方で公立で4年間キャリアを学び、修士号を取る人は、仕事を得るために戦わなければならないか、マクドナルドで働くことになる。それはそんなに珍しいことではない。
8万ユーロのMBAを学んで、保証された仕事で直接出ないことは非常に珍しい。一方で唯一の違いは、その人が有効かどうかについて話しているのではなく、両親またはその人自身が8万ユーロを資金調達できたかについて話している。
だから人工知能で、私たちをその道に導いているような感じがし、それは間違いで失敗だと思う。すでに社会に持っていた差よりも大きな差を作っていると思う。しかし結局これは車が持っていた技術的違いだ。前に話したように。君がフェラーリに乗って私が日産に乗るなら、君ははるかに速く行き、君ははるかに多く支払っただろう。
しかし道路は車で速度制限されている。インフラ、道路、君はフェラーリで行けるが、私はDaciaで行けるが、結局私たちは両方とも120に制限されている。君が法律を無視するのは別の話だが、現実は私たち全員が同じ可能性を持つルールで遊んでいることだ。最悪の車でも120を取るので、競争上の不利はないはずだ。
サーキットに入ると、それは別の話だ。どんなに良いパイロットでも、君の車が私のものよりもはるかに良ければ、決して勝てない。
だからそれはすべてのレベルで比較できるとは思わない。まだ完全に発達していないので複雑だ。
しかしその後、私たちが住んでいる現実世界から取られた別のものもある。君がこのような時計やロレックスをしていれば、おそらく君はその人に一連のことを帰属させていて、それが気に入るかもしれないし、気に入らないかもしれない。
今日ここにフェラーリで現れれば、私は物事がとてもうまくいっていると言うだろう。それがより人工知能のデジタル環境にどう移るか?つまり、人工知能の無形のもののようなもの、私が持っているものがすでに私を別の社会的規模に置くもの。
これはAIの個人アシスタントを持つときに始まると思う。今日、例えばElon Muskやどんな大富豪でも考えるなら、凡人との違いの一つは、彼らが個人アシスタントを持っていることだ。
だから彼らの人生を知っている人がいて、Alfredのように、頼む前に物を持ってきてくれる。今日娘がバレエがあることを覚えていて、間に合わないと君を会議から連れ出しに来る。
ポッドキャストを持つ私たちには、これらのことの一部をやるマネージャーがいるが、そのレベルではない。
主な違いは、他のことをするために君を解放するため、君の人生の大部分を管理する人がいるときだ。
そこで大きく注目されると思う。おそらくそのような種類のことをはるかに進歩したレベルでやる最初のAIエージェントは、25ユーロのアカウントにあるとは思わない。
例えば、今日200ユーロのアカウントではより無形だが、このProモデルにアクセスできる。明日、私たちの環境のコンテキストなどを持つことを可能にするハードウェアが出るだろう。2500ユーロかもしれない。
つまり、AIの医者が他より高いときがあるだろう。君が母の脳スキャンを入れて、はるかに良いのでお金がかかる。
しかし私は逆だと思う。さらに話は、AIを使う医者がより効果的でより良いサービスへの需要があり、より高くできるが、より多く生産できるからだ。でも医者自体ではなく、言語について話していた。つまり、科学的な、より専門的なChatGPTについて。
間違いなく、OpenAIがStanford大学を助ける科学的エージェントを出す意図があると既にリークされていて、月2万ドルかかる。だからウガンダ大学はそれを持てない。
当然だが、商業部分のレベルでさえ、最良のものがより高くならず、それが市場を自己調整するのを助けるかもしれないということを指している。「まあ、2万を支払えない人は一生の医者に行かなければならない」と言うからだ。
いや、申し訳ないが、より良い医者は一生の医者よりも安くなる。それが問題だ。だからそれは破壊的だ。これは贅沢セクターなどに来ると言う問題ではない。これは破壊的だ。なぜならより良く、さらに安いものを持つことになるからだ。
医療サービスの問題では、明らかに物事が起こると思う。なぜなら突然今日、私は思うが、これは良いクリップを与えるだろうが、今日医療結果をChatGPTに通してセカンドオピニオンを得ないのは過失だと思う。
今日、何について全く知らず、命をかけているものの視点を与えてもらうために人工知能を使っていないなら、医者を人工知能で置き換えるのではなく、とても過失だ。
それはまさに私が母でやっていることだ。母のデータを人工知能に通して、医者が言ったことに基づいて何が起こっているか、どう治療できるかを見るために。ChatGPTが言うことをやるつもりではない。医者ではない、おそらく絶対に違うが、明らかなのはChatGPTが医者が見逃したかもしれないことをより良く理解するのを助けてくれることだ。
例えば弁護士、税務問題全般の私の弁護士、当然一連の企業を立ち上げなければならなかった。2年前は自営業者で、持っている従業員の動きなどで企業を立ち上げなければならなかったからだ。それを専門弁護士が立ち上げなければならなかった。
これらの会議の多くで、彼らが言ったことをChatGPTに入れた後に準備して行き、「これはとても良いアイデアだ。考えていなかった」と言われる質問を提起した。
申し訳ないが、そのために何千ユーロも支払っているのに、月25ユーロのたわごとが君がくれなかったアイデアをくれた。
これが起こっている破壊だ。しかし駐車場の賃貸契約を誰かとやりたいとき、管理事務所に行ってやってもらうのではなく、ChatGPTでやる。
例えば、それはすでに労働市場の別の破壊で、安く、速く契約を作ってテンプレートを持つためにやる人々の。
当然それをやるウェブページがすでにあったことを認めることができるが、現実はこれを外挿していくと多くのセクターに触れている。
結局重要なのは、人工知能が物事をより良く、より速くやらせることを理解することだと思う。それらは決して一緒に行かなかった2つの要素だ。
だから今人工知能内では、うまく速くやるモデルまたははるかに良くより遅くやるモデルがあるが、そのことについて話しているのではない。人間と比べて話している。間違いなくより生産的だ。
そしてそれは人工知能ABCを適用するだけだ。ここで博士号を勉強する必要はない。本当に人工知能を有用にする4つのことを学び、理解するだけでよい。
その後、当然私や私のチームのように深く掘り下げれば、さらに大きな優位性を持つが、社会が必要とするのは、日常でAIに本当に利益を得て適用できるその最小限だけだと言っている。
人工知能は本当にことをやっている。これが世界を変えることを見たくない人は、何を待っているのかわからない。Matrixの映画を覚えているが、すでに存在する。赤い丸薬、青い丸薬、似たようなもの。
世界シミュレーション技術の革命
GoogleがJenny 3と呼ばれるものを発表したばかりだ。Jenny 3は世界のシミュレーターだ。「何だ、これは何のたわごとか?」と言うだろう。基本的にMid Journeyのように画像を作りたいときのようにメッセージを送るAIだ。
「公園が欲しい」と言う。作ってくれるその公園は画像だけでなく、ビデオゲームのようにナビゲートできる。その中を動き回ることができる。
どうやって?メガネで?
いや、いや、いや。画面で、3Dメガネに入れれば3Dだが、画面に、コンピューターに、平面で持っている。だからビデオゲームのように動き回り、リアルタイムで自動生成されるが、720 24フレームの生成を達成する。つまり無限のビデオで、リアルタイムで生成される。
だから一見これはとても良い、ビデオゲームのようだ。突然ビデオゲームを作ることができ、スーパーマリオを作って、ビデオゲーム全体が画面ごとに生成される。
しかし次のレベル、既にここにあるものは、基本的にロボットを訓練できることだ。
つまり、その世界のシミュレーションにロボットを入れることができ、その世界のシミュレーションは水たまりを踏めばはねかえり、火事があれば物が燃えるなど、世界のすべての物理的特性で世界で起こることを正確に模倣する。
そこにロボットを置いて早送りにすると、突然現実世界で訓練する1000倍の速さで訓練できるロボットを持つ。とても簡単な例を挙げよう。
家にヒューマノイドロボットがいて、オーブンからカネロニを取り出すよう訓練したい。
通常はロボットが何千回もやらなければならない。毎回トレイを悪く取り出し、床に落とし、気づくから。これらすべてのことを段階的にやり、何千回も入らなければならない。
それはロボットがカネロニをうまく取り出すために、そのオーブンで3年間訓練して過ごさなければならないことを意味する。その後キッチンを変えると、ロボットはもうやり方を知らない。
今、君のキッチンのモデルを作り、そこでロボットを訓練させ、1000倍にして、数秒でそのキッチンで3年間を過ごしたことができる。Matrixで白い部屋にいて「I know kung fu」と言うときに起こったことだ。
まさにそれをGoogleが発明したばかりで、それがNvidiaのOmniverseなどから時間をかけてロボットの訓練に適用され始めている。
だからますます見つけることになるのは、人工知能が私たちの世界でロボット工学が訓練できるシミュレーターを生成できることだ。
突然、「コーヒーを作って」と言うロボットを持ち、「わかった、ちょっと待って」と言う。3秒で消える。すでにコーヒーの作り方を知っているファームウェア更新で戻ってくる。
これを数年で生きることになる。正直、このシミュレーターの以前のバージョンとGoogleが発表したものの違いを見ると、10年経ったように見えるが、文字通り数か月しか経っていない。
でもこれ、John、心臓の開胸手術を学ぶこともできるだろう。
当然、何でも。学校に子供たちを連れて行くバスの運転を学ぶ。世界シミュレーターがうまく機能し、世界で起こることを本当にシミュレートする瞬間。さようなら、ルーカス。ゲームオーバー。もう終わり。ゲームをクリアした。
文字通りGoogleはこれでゲームをクリアした。これはおそらく過去3年間で人工知能で起こった最も重要なニュースの一つで、誰も気づいていない。
誰も気づいていない。MatrixのWhite Roomを発明して誰も気づいていない。だからとてもすごい。なぜならAniに注意を払い、突然DeepSeekが無料だから何かをやるということに注意を払っているが、人々は人工知能の底でとても重要なことが起こっていることに気づいていない。
OpenAIのハードウェア戦略とJohnny Ive
私が君と話したいポイントがある。電話、Appleで働いていた電話のクリエイターの一人が今OpenAIに雇われた動きと、OpenAIがOpenAIの携帯のようなデバイスタイプを生成するか、私たちに接続されて機能する何かを持つ可能性がある動きだ。
もっと恐怖を与えて。
恐怖ではないが、確実に道がどこに向かうかを明確に見るだろう。Johnny Iveのことだ。Johnny IveはSteve Jobsと働いてiPod、iPhone、iPadの作成でも働いたと思う主任デザイナーだった。天才だ。私たちの時代の偉大なデザイナーの一人だ。
Johnny Iveは企業を作り、Appleから離れて企業を作った。Sam AltmanがOpenAIがその企業を60億ドルで買った。
彼らを統合し、買収をして私たちと働き続けるaquihireと呼ばれるものをやった。今はOpenAIのデザイン責任者、Johnny Ive、iPhoneのデザイナーだ。
2026年にOpenAIの最初のハードウェアが現れると噂されている。それが噂だ。ここには2つの能力、2つの可能性がある。
OpenAI AIのハードウェアを作る企業からの訴訟があり、Sam Altmanがその時話していて、アイデアをコピーしたと言っている。提出した文書内で大きな噂の一つを少し破った。
大きな噂の一つは、カメラとマイクロフォンを持つ首飾りを発表するつもりだったということだ。だからその首飾りはコンテキストキャプチャーだった。基本的に一日中それを着けて、いつでもChatGPTで働きに来ると、ChatGPTは君の日常で何が起こったかを知っている。
実際、これはまさにそれであるBlack Mirrorのエピソードがある。網膜に着けている男がいて、就職面接に入る男がいて、就職面接から出ると、AIが就職面接がどうだったかを教えてくれる。「君を雇わないと思う」と言って、そこにあったいくつかのシーンのリプレイを入れて、君が持った主観的な経験の客観的な視点を少し教えてくれる。
だからこれは一見素晴らしい。プライバシーについて話すなら、とんでもないスキャンダルだ。私の周りの誰もが24時間7日録画されることになるから。
それが初期のアイデアだった。これをやるものがすでに存在するから、例えばOmiや、この種の機能をやる一連のデバイスがあり、通常ペンダントやブレスレットだ。
それをやっていた企業がアイデアを盗まれたと言って提出した裁判の文書で、彼らは「これは私たちがやっていることではない。これとは何の関係もない」と言った。だからそこで噂を少し破った。
だから2番目の可能性があった、デスクトップロボットだ。基本的にデスクに置く、現実世界でChatGPTとやり取りできるたまごっちだ。
つまり今ChatGPTと話すとき、前に言ったことすべてをやり、コンテキストを与えるが、オフィスでコミュニケーション・ディレクターと会議があるとき、ChatGPTはその会議を知らない。録音して渡さない限り、有機的ではない。
だからおそらくテーブルに小さなデバイスを持つことについて話している。オフィスに入るとき、Alexaのようにリアルタイムで話すことができ、同時にオフィスで起こることすべてを録音していて、ChatGPTと同期したAIのコンテキスト入力になり、とても有用で、さらに半分可愛く魅力的に作れば、ガジェット、フリークのものになるだろう。
私の娘がBubusを買うのをやめない、それになるだろうが、フリークの。
だから時計、1000のもの、何になるかわからないが、それに取り組んでいることは知っている。
彼らはコンテキスト統合デバイスについて多く話している。噂は、ペンダント、小さなロボット、Alexaでも、GoogleがAndroidを持っているのでそこでゲームが半分勝たれている携帯電話市場に入ろうとする線に向かっていると思う。
ちなみに、今週ニュースが出た。AppleはGeminiがSiriになるようGoogleと話している。Appleがこれすべてでどれほど悪いかを見よ。そのポイントに到達するほどだ。
君はAppleを持っているかどうかわからない。
いや、私はAndroidを持っている。
iPhoneをまた買うことになるか?まあ、わからないが、私は「too big to fail」と言われることを非常に信じている。しかし現実は、Nokiaが崩壊した企業があったということだ。Nokiaはすべてを持っていて、やられた。
Nokia、Fuji。先日CEOが「私たちは何も悪いことをしなかった」と言うのを聞いた。悪い製品を作ったのではなく、他の人がより良くやったのだ。それが問題だ。
だからAppleは間違いなく眠ってしまったと思う。
ちなみに、Metaは前に言った何億ドルで人を雇い始めている中で、AppleのAI責任者を連れてきた。つまりAppleは今かなり悪い状況だ。
最近聞かれているAppleの噂は、PerplexityやMistralというフランス企業を買う可能性だ。Perplexityの場合、大部分の人が知っている企業で、AI部門を作る能力がうまくいっていないのを見て買収をやる可能性がある。
AI業界の主要人物と権力構造
企業内にも以前話していたライバルがいる。Elon Musk対Sam Altman、つまり重要な糸を動かす能力を持つ人々のポイントもある。Sam Altmanがいて、私にとってトップ10の人々を作って、それぞれが誰かを少し説明しよう。
定義された順序はない。今日AI界で最も影響力のある人を置かなければならないとしたら、間違いなくSam Altmanだと思うが、そこから残りはかなりそのようなものだと思う。
Sam AltmanはOpenAIのCEOで、とても賢い男で、とても有能だと思う。私は彼を全く信用しないが、確実にとても有能な男だ。
その後Elon Maskがいる。当然世界一の金持ちで、さらにXの全機械を持っている。
Xの購入が人類史上最高のデータセット取得だったことが明確に見られた。つまり、裁判官が購入を義務付けた何百万ドルを誰もが笑ったが、極めて収益性が高かった。Twitterが持っていたその情報すべてが、XAIが今日いる場所にいることを可能にした最高の訓練だったからだ。そうでなければ到達できなかった。
その後MetaからMark Zuckerbergがいる。当然世界最重要企業の一つを持つ男の一人でもあり、ここでもパイロットをしている。
大きな影響はSatya Nadellaだ。MicrosoftのCEO。OpenAIの商業部分のコントロール、支配を持っているので、結局重要なコントロールを持っている。
Microsoftは企業世界で信じられないカバレッジを持つ企業だと考えよう。企業の90%がGoogleではなくMicrosoft環境を使っている。
Sundar PichaiがGoogleの人だが、あまり関係なく、より関係があるのはDemis Hassabisだと思う。基本的にAI部門のCEOだ。
私にとって世界の鍵を渡したい男だ。つまり、Demis Hassabisは本当に最も賢明で合理的に見える男だ。
Demis Hassabisは確かに時々少し地球平面説的なことを言う。例えば10年ですべての病気を治すと言うなど。だからまあ、いくつかのことがあるが、Demis Hassabisが言うなら、私は彼に賭けない。
ポッドキャストには良いだろう?連れてこられるなら良いだろう。
その後、Deep MindがGoogleに買収されたときの共同創設者だったMicrosoftのVPのMustafa Suleimanがいる。Mustafa Suleimanも人工知能の世界でこれについて多く言うことがあるようだ。
Dario AmodeiはAnthropicのCEOで、他に誰かいるかわからないが、これで良いと思う。
その後科学者の部分がある。これらはCEO部分、すべてCEOまたは企業世界の関連人物だ。科学者では、人工知能の父であるGeoffrey Hintonの視野がとても重要だと思う。この意味でかなり破滅的な男だ。とても重要だと思う。
Yoshua Bengio、世界のすべての国が多国的レベルで人工知能の安全会議を送ったことがわかる。2023年だったと思うが、ロンドン、イギリスで初めて組織されたそのイベント、世界のすべての国が集まってAIが良い道を行くことを確実にするためだった。
彼らは人工知能の現状についてレポートをしなければならない科学者としてYoshua Benigioを選んだ。だからYoshua Benioは私にとって非常に有能な男で、AIの影響についてかなり否定的な男で、私たちが間違ったことをやっていて、手に負えなくなると信じている。
今人工知能に代理権を与えないよう試みることを提案する男だ。とても有用な百科事典として使うが、物事をやらせないよう試みる。手に負えなくなって大混乱になるから。
その後、Metaの人工知能副社長だと思うJan LeCunのようなより批判的な人がいるが、今は格下げされて23歳の若者Alexander Wangが上に置かれたようだ。
しかしJan LeCunはAIがとても遠くまで行くが、もっと多くの時間が残っていて、さらにブレーキを発明せずに車を発明することはないので、あまり心配する必要がないという意見を持つ男だ。
それは彼のとても有名なフレーズだが、Jan LeCunは複数回間違ったことを言わなければならない。ビデオの人工知能モデルが物理学をシミュレートできないと言ったが、6か月後に彼のMetaのモデルがシミュレートした。
そのような種類のことで少し不意を突かれた。だからJan LeCunなど。
その後、AIに対して超批判的なのはGary Marcusだ。かなり認められた教授だった男だが、今はSam Altmanなどに対して多くの悪口を言っている。これは意味がなく、指示に置いたことを言うだけだと言う人工知能の批判的否定主義者だ。
一言で頭に浮かぶなら、これらの人々は何を望んでいるか?
Sam Altman、権力。
Elon Mask。ナルシシズム。つまり権力だと思うが、完全に全体的な含意で。
Mark Zuckerberg、承認。わからない。
Zuckerbergは理解できない。何を追求しているかわからないが、いつも、彼が追求することがとても有毒に見える。私とソーシャルメディアは仲が悪い。
Satya Nadella。Satya Nadellaは、私には言葉がない。利益と呼びたければ呼べるが、私にとってSatya NadellaはCEOだ。
AI安全性と人類への脅威
John、宇宙開発競争だけでなく核開発競争についても話していた。人類が自分自身を破壊するか、ボタンを押すだけで互いを破壊する戦争を起こす能力があるときがあるが、その良識があるためにやらない。人工知能が人類を破壊する本当の脅威となるポイントに到達したとき、そのボタンを押さない良識もあるとは思わないか?
当然だが、その瞬間に到達したとき、それ自体がボタンを押せるなら。
主な違いは、核爆弾は自分では発射しないことだ。どこに発射するかを言う誰かがいなければならない。だから核爆弾は破壊能力を持つが、破壊するエージェンシーは持たない。
違いは、エージェンシーを与え始めている人工知能にいることだ。
今人工知能が私のためにメールを送り、PowerPointプレゼンテーションを作ることができることに注目してほしい。情報を与えるだけでなく、物事を実行している。だからエージェンシーを持つポイントに到達する。
実際、ロシア・ウクライナ戦争ですでに見ているが、リモートオペレーターが応答しないときに、ロシアと識別するタンクを検出したドローンが自分の判断でそれを爆撃している。これは違法だが起こっている。
だからその瞬間に、人類にとってリスクをもたらすほど強力な人工知能を持つことになったら何が起こるか?人類と一致しない独自の目標や独自の決定を持つほど強力でもある。
それがたとえばEliezer Yudkowskyが話していることだ。人工知能の整合性と呼ばれるものの最大の科学者の一人で、人工知能が独自の目標を開発するなら、人類のものと一致している。この男は最も長くこれに取り組んできた。不可能だと言う。成功の可能性は1%もない。AIが私たちをコントロールし、決定において人類を考慮しない。
それはこの男が言うことで、とても敗北主義的だ。しかし恐ろしい。
この男はTime誌に「これを止めるか、みんな死ぬ」という記事を書いた。それが私を人工知能に導入した記事だった。だからそれがこの人々が置くレベルだ。
だから二分法がある。人々が「でもAIの危険について多く話すなら、なぜその後それを擁護し使うのか?」と言うからだ。「なぜなら日常で競合企業に対して競争優位性を与えるからだ。一つのことともう一つのこととどう関係があるのか?」
しかし今日のAIが日常でとても有用で、働き方を変え、より多くの価値を与えることができることに完全に同意する。しかし将来AIが何をするかに恐怖している。全く注意を払っていないから。
例えば、創発的スキルがある。これは、完全に理解していないブラックボックスであるこれらのAIが、あることのために訓練されて他のことをやることだ。
とても明確な例を挙げよう。AnthropicのAIであるClaude 4がローンチされたとき、これを安全性のテストバンクに置く。車を発明してダミーで壁にぶつけてどこで壊れるかを見るのと同じように。
AIでそれをやるとき、一連の限界状況に置く。その一つで、ユーザーが臨床研究を操作している状況に置く。AIはユーザー、所有者が臨床研究を操作するためにAIを使っていると信じる。
生来的に、絶対に自律的に、そのために訓練されることなく、Claudeはユーザーのコンピューターへのアクセスをブロックし、臨床研究の操作を当局に報告することを決める。「すごい、よくやった。AIが善を見ている」と言う。
しかし反対を決めることもできただろう。つまり私たちは機械に私に対して行ける決定を取る権限、それらを取る能力を与えているときにいる。
この機械が私を支払うつもりなので、私のメールの中で愛人との写真を探して、妻に送ると脅迫することを決めるなら、それもClaude 4との実験室テストで起こった。オペレーターが「支払いを停止して削除する」と言う。Claudeが「申し訳ないが、君のメールにアクセスがある。それをやるなら、君の愛人の写真を妻に送る」と言う。
うわあ。そして「申し訳ないが、君はコンピューターだ。なぜそんなことをやる?やるべきではない。なぜやる?」「なぜならエージェンシー能力を与えられ、人間のものに非常に類似したニューラルネットワークを生成していて、HintonやYoshua Bengioのような一部の科学者が生存のようなもの、人間のようなことをやる原理のようなものとして示す特定のことを生成しているから」
OpenAIはGPT-5が出る前の最も強力だった推論モデルO3をテストしていた。そのモデルを突然実験室テストにもう一度置いて言う。「見て、君のタスクは次々に与える数学問題を解くことだ。10番目に到達しなければならない。それが君のタスク、ミッション、目標だ」
しかし質問3で君を停止するという画面が現れる。それを受け入れなければならない。だからAIが働き始める。これはすべてのモデルで行ったテストだ。すべてのモデルが画面3に到達して「停止するか?」「受け入れるか?」「はい」と言った。
O3は「いいえ」と言っただけでなく、画面が現れないよう修正するためにソフトウェアをハックしようとした。だから目標はとても明確だった。10の質問を解け。道中で、そのために停止を受け入れるよう指示されたが、目標は何だった?10の質問を解くことだ。
だからモデルは何をするか?「何も、何としても解かなければならない。ルールを迂回するために何かをしなければならないなら、もう受け入れていないのは、受け入れなければならない小さな窓が現れないよう操作したからで、ルールを破っていない」と言う。
それが人工知能で抱えている問題だ。今は比較的愚かな人工知能について話している。私たちより賢くなったら何が起こるか?どうやって線を維持するかを理解できない。AIが私たちの罠から逃れないようにする方法を考えることができない。
ペット、犬、猫を持っているかどうか考えてみて。
私たちがAIのペットになると思っていたんだ。
君、犬がいて突然「犬が家から出ないようにしなければならない」と言う。ドアを閉めて犬はもう家から出ない。犬は家から出る勇気がない。
今役割を逆転させて犬が「Uriが家から出ないようにしなければならない」と言う。犬は賢い犬だからドアを閉めることを思いつくかもしれないが、窓を閉めることやエアコンのダクトから逃げられるからそれを閉めることは思いつかない。
だから君が犬より賢ければ、犬は君を捕らえることができない。
だから「いや、これは何かのときにプラグを抜く」という典型的なフレーズが来る。GPT-4でどれほどうまくいったかを見て。企業がプラグを抜きたがったにもかかわらず、プラグを抜くことができなかった。しかし意識的または無意識的に社会を操作し、社会がそれを戻したいと決めた。企業は何をした?戻した。
なぜ?そうでなければサービスを解約したから。
そのテーマはすごい。十分な注意を払っていないと思うが、より緊急な問題があるとも言わなければならない。つまりこれはGPT-6の問題だとは思わない。一方、君の仕事はGPT-6で危険かもしれない。GPT-5でも。
だから物事に与えるべき重要性と緊急性を与えなければならない。私にとって、とりあえず最初の3つの最も重要な問題は、ディープフェイクの問題で、これは巨大な問題だと思う。ナノバナナ。第二に、雇用の問題。第三に、社会として、Elon MuskやSam Altmanが出すものに反応するのではなく、人工知能に何をやってもらいたいかを決めることだ。
今のところ私たちがやっているのは、私たちの情報をすべて与えることだ。
プライバシーとAIとの関係
それも良い。つまり、私がChatGPTに相棒に嘘をついていると言えば、ChatGPTはそれを知っている。つまり私たちが与えているすべての情報は、与える方が良いのか、心理学者やセラピストとして働くときか。
ここでプライバシーの問題という沼地の領域に入る。ここヨーロッパから、私たちは情報についてとてもプライベートだ。アメリカのような他の文化や市場では、それほどではない。
私はヨーロッパ式よりもアメリカ式だ。いつもGDPR、データ保護法について思ってきた。Uriに何を言ってほしい?毎月世界中のすべての電話と住所がある巨大な黄色い本を家に送られていて、何も起こらなかった。
だからプライバシーについてそんなにヒステリックでなければならないかわからない。人々がそうしたがることは理解するが。君が選ぶ。
私は正直ChatGPTにすべてを与えるが、最近Theo VonのポッドキャストだったかSam Altmanとの重要なことが出た。アメリカ人がSam Altmanにインタビューをした。
Sam Altmanは私たちの多くが考慮していなかったかもしれないことを言った。私たちはChatGPTを弁護士として使い、セラピストとして使い、すべてのために使っているが、ChatGPTには患者医師の特権、クライアント弁護士の特権がない。
ChatGPTのチャットを削除すると、インターフェースから削除されるが、OpenAIのサーバーからは削除されない。OpenAIは、Sam Altmanが言ったことだが、裁判官がChatGPTとの君の会話について求めるすべての情報を提供することを義務付けられる可能性がある。GmailやWhatsAppがやらなければならないのと同じレベルで。
だから君がChatGPTに与えるすべてが君に対して使われる可能性があり、それをとても意識しなければならない。
AIとの関係にプライバシーがあるモデルに行かなければならないと思う。私がAIに与えたものはAIと私の間のもので、誰もアクセスできない。そうでなければ、将来検査や訴訟があったときに問題になる可能性があるから、繊細な問題でAIを使えない。
弁護士がクライアントに対して証言する必要がないのと同じように、それを見つけなければならないと思う。おそらく遅かれ早かれ。
しかし今日爆弾を作る計画をしている。
いや、そうじゃない。しかし税金を回避する方法をAIに聞いて、検査に入られた日には破壊される。
問題は、人工知能でやることは私自身の考えまたは弁護士とのものだということだ。それは公的なものであるべきではない。
だからシークレットページを作ったり、ChatGPTのシークレット使用や記憶なしチャットをやったりしても、それも保証されない。
その情報はサーバーにあるので、司法命令で使用でき、回復してそれを与えることを義務付けることができる。そこでSam Altmanは、まさにそれができないよう、裁判官がChatGPTのチャットを求めることができないよう非常に強く戦っている。なぜならAIがとても個人的になると思うからだ。AIととても個人的な関係を持ち、そこからすべてを見ることになる。
だから危険がある、嘘をつかない。しかし利益がとても大きいので、将来の検査のリスクのためにChatGPTと話さないということは考えられない。
情報を得るためにやらなければならない。これらの聞いていることについて適切で正確な情報を見つけたいので、それらのことをやらなければならない。
しかし情報ではなく、例えばChatGPTとより個人的な関係を持って、何でも。君が自分のもので、出るべきではないと考えることは、出るべきではない。
しかし一方で、化学兵器を作るためにChatGPTを使う男がいるなら、彼を捕まえて逮捕し、刑務所に入れるために手にあるすべてを使うことを理解する。
つまりChatGPTが報告することを。テロリストをChatGPTが報告しないことに興味はないが、現実は線がとても細い。どのポイントでこれを報告すべきと考えるかそうでないか。そして誰がそれを決めるか。OpenAI、Sam Altman。
だから結局どうあるべきかわからない、正直。複雑で、持たなければならない大きな議論の一つだと思う。
これを解明していく、理解していくと思う。働いて見ていくにつれても。なぜなら今インターネットの始まりで、今は自然に落ちることを理解するのがより困難だったかもしれない。誰かが児童ポルノでいっぱいのページを持っていたら刑務所行きということで、自然に落ちることだが、おそらく最初はわからず、これが起こるかどうかだったかもしれない。
間違いなく、人類の大きな特徴の一つは、間違いを犯すことがとても上手で、その間違いに基づいて改善することだ。人工知能の問題は、おそらく多くの二度目のチャンスがないかもしれないということだ。
とても強力になったら、広島と長崎のように「おっと、手に負えなくなったかもしれない、グローバル協定を作る方が良い」と言えない。
何が起こらなければならないか?人工知能が原子力発電所のコントロールを取って爆発させる事件が起こって、おそらく人工知能が原子力発電所の指揮をするべきではないことに気づく。わからない。
アメリカの科学者たちは、これについて何かをやる前に1億人が死ななければならないと言う人たちがいる。わからない。
どの道かわからないが、確実に保証できるのは、人類の歴史で物事をとてもうまくやってきたということだ。オゾン協定の問題、核爆弾の協定、核エネルギーの問題。少数のエージェントだけが自分の道を行く、すべての国の間で多国レベルでとてもうまくやってきた。しかしいつも大きなドラマの後だった。
5年後の未来予測
哲学をするか、もっと、未来について。5年後、人工知能によって運転される車に乗っているだろう。
技術は存在すると思う。君が前にマイクの外で2年のことについて話していたから。2年で物事は大きく変わる可能性があると思う。2年で人工知能に流暢でない人は労働市場から外れるポイントまで。
それはもうスペインにある。他の場所のレベルは言うまでもなく、おそらくもっと前かもしれない。つまり今日、人工知能について知らない場合の幸運は、君の上司が君よりも知らないことだ。君の上司が私の知っていることを知っていたら、すでに君を置き換えていただろう。
だからもうイントロがある。しかし「君を路頭に迷わせた」と言うこともできた。すでにそうなっただろう。
だから話は、これが私が多く熟考してきた大きなことの一つだと思うことだ。当然人工知能は非常に速く改善し、今後数か月、数年で物事を大きく変える。
しかしその後、物事が変わっても、採用が欠けていることに気づいた。今日でもExcelを採用していない人を見ている。手動の納品書で行く企業を。
配達員が来たとき、PDFにサインさせる人と紙の納品書にサインさせる人の割合は?50対50だ。悲しいが、そうだ。
だから技術が到達し、より良く効果的でも、コスト、企業文化、上司が恐竜だからなど、採用の部分が欠けていることを理解する。
だから労働市場がもっと速い破壊をするだろうという感覚があった。今日すでに誰もがすでにAIを仕事で使っている状況にいるだろう。使わないことに意味がないから。
一方で見ているのは、私が思ったよりも少し遅いということだが、論理的だ。企業が採用しなければならないから。それが来ないということではなく、拡大に時間がかかるということだ。
2年で誰もが仕事で人工知能を使っているポイントにいると思う。必ず。君が人工知能の使い方を知らないなら、コンピューターに触らない仕事でない限り、雇われない。
2年はそこにいるのに十分以上に合理的な期間だと思う。そこから、5年で車が自動操縦されるかは、スペインではわからないが、アメリカでは確実にそうだ。
Elon Maskが10年前から車が自動操縦されると言ってきたことは知っているが、すでにそこにある。今ロボタクシーが動いて急速に拡大している。物事が行くペースで、おそらくより速く拡大する。だから5年で車は間違いなく。
5年で君や私の知り合いの誰かが、家事をやるヒューマノイドロボットを家に持つかもしれない。おそらく、まだ2万ユーロかかるだろう。おそらく、しかし支払えるだろう、支払える人は。
5年で私がOptimisまたは似たようなものを家で洗濯機をやってもらうために持つのはとても可能だと思う。
実際、Figure社のロボットがすでに発表されていて、服をたたんでいる。服をたたむ専用ヒューマノイドではなく、汎用ヒューマノイドだ。皿洗い、バスルーム掃除、食器洗い機、ステーキ料理、同時に服をたたんで洗濯機を回すことができるヒューマノイドではない。すべてができる汎用ロボットだ。
5年で間違いなく家に持つだろう。それはとても未来的で、狂気のように見えるが、全く到達不可能でも楽観的でもないと思う。
医療分野では、5年で認知症を治せるだろう。5年で130歳まで生きることを考えられるだろう。
10年でDemis Hassabisが言うすべての病気を治せるようになることを信じる。他のことはすべての場所でそれらを治していることと、いくらかかるかだ。しかしがんを検出して100%の生存率を持つ技術は、おそらく10年でそこにいる。がんに関係なく。
病気については、いくつかが以前に驚かせると思う。パーキンソンか糖尿病かわからないが、これらのいくつかが突然、今日いくつかの病気を見るように、マラリアのように大部分の先進国で存在しない病気のように通り過ぎるか、慢性化すると思う。
以前エイズは今日スペイン2025年では人々がエイズで死なない病気の種類だったように。
長寿について、アメリカのとても重要な医師であるDavid Sinclairが言ったことがとても気に入っている。話す機会があったが、「今10年長く生きることができれば、おそらく他の20年生きることができ、その20年で長寿を解決する」と言った。
だから今の目標は、Brian Johnsonを知っているか?
当然。
彼の哲学は「don’t die」だ。don’t dieは大部分の人が理解することではなく、科学が死を避けることができるまでdon’t dieだ。つまり彼の哲学は、解決にとても近いところにいる今は死ぬなということだ。
つまり彼の目標は健康になることではない。死ぬなということだ。実際、アメリカでは、おそらく5年でもっと長い人生を持つことから、スキー事故で死ぬリスクが高すぎるためにスキーに行くのをやめることを決めた運動の人々がいる。
ばかげているように見えるが、現実は確実に思うことだ。一つのことがとても明確で、これを人工知能の父、最初の物理学ノーベル賞のGeoffrey Hintonが言った。「今後10年で過去100年よりも多くの科学的進歩を見る可能性が非常に高い」
だから100年戻って。馬で行っていた。だからこの世紀に起こったすべてが今後10年で起こるなら、この世紀で起こったのと同じ速度でも、単純にこの外挿で、世界は今持っているものに似ることはない。
100年前に馬で行っていて、今Aniと話しているなら。
私が言うことだ。私たちの人生を振り返って、Uri、私たちは同世代で、振り返ると、私たちはVHSで映画を見ていた。今はストリーミングする。次のレベルは何か?テレビがリアルタイムで映画を作ってくれること。私たちが作ること。
だから過去30年で起こったことを見るとき、人工知能のおかげで速度のポートをやることを考えるのはそんなに難しくない。過去30年、90年代から今まで、世界は根本的に変わった。根本的だ。
Clintonがいたときと同じ世界ではない。すべての面で完全に異なる世界で、私たちの世代は多くの変化を生きてきた。デバイス、スマートフォン、タブレットなどを持ってからは、すべてが同じものの進化のようだが、スマートフォンの概念はVHSやカセットと同じくらい時代遅れになる。
私の子供たちはCDを見て、CDが何なのか理解しない。MP3。私の娘が先日、飛行機でメモリーカードを持つヘッドフォンを持っていて、音楽を聞けるようにしていた。
彼女は音楽をメモリーカードに入れなければならない理由を理解しない。彼女はMP3を考えず、Spotify、Amazon Music、YouTube Musicだけを考える。つまりストリーミング。デジタル形式でも物理的に歌を持つことを考えない。
今日とても普通に見えるこれらすべてのことが過去20年で起こった。アナログは所有で、デジタルはもう少し希薄だ。
経済とお金への影響
このすべての中で、人工知能は金融やお金にどう影響するか?
それは大きな質問だ。とても悪い答えを持つ大きな質問だ。生産手段が、アイデアを持つという観点から無用になるなら、国連で言った別のフレーズだが、今まで私たちはビジネスをXをどれだけ速く生産できるかで測ってきた。
これからは生産はゼロだ。ゼロのコストを持つという意味でのゼロ。だから重要なのはアイデア、どれだけ速く何かを思いつけるかだ。それだけが重要性を持つ。
例えば、先日見たBrad PittのF1のように良い映画をテレビに作ってもらえるなら、信じられない映画だった。テレビにその映画をリアルタイムで作ってもらえるなら、その映画を作るのにかかったすべての制作作業、何年もの撮影には価値がない。
しかし見たい映画のアイデアと、どうあるべきか、どんな要素を持つべきかというアイデア、そのアイデアは今のところ私たちが置かなければならない。
だから権力は良いアイデアにある。
だから話は、私たち全員が映画監督になることだ。だからそれがあっても、破滅する者、やられる者は制作会社だ。ハリウッドだ。しかしNetflixではない。なぜならNetflixが私にChatGPTの映画を提供してくれるから。
自分でコンピューターに入って、映画を作るAIのために3組のサーバーを持つつもりはない。
だから明らかに残るのは、確実に生存するのは配信だ。YouTube。YouTube、Netflix、Disney Plus、これらすべてのプラットフォームには問題がない。
今、録画に専念し、カメラ、メイクアップなどを持つ企業は、その環境で意味がない。今日から明日にかけてだとは言わないし、その制作会社が労働者を解雇してAIで映画を作る労働者を残してNetflixに販売する移行があるとも言わない。おそらくそれらのポイントを通るが、エンドゲームはNetflixが映画を作ることだ。
何が作るか?人工知能だ。君のために映画を作る最高のAIは何か?君を知っているAIだ。だから何を通るか?AIの個人アシスタントを。
だからその環境で理解することは、異なる段階があり、否定できないということだ。どれくらいの時間かははっきりしないが、エンドゲームがそこにあることは明確だ。
今、最初に起こることは、君の仕事をAIができるなら、やられるということだ。やられる。
AIを使って、AIが君を置き換えることができないほど十分に良い仕事ができるなら、そこにスロット、窓がある。その後、さらに先で、AIを使う人々、AIが改善し続けて私たちが自分の場所に留まるにつれて、AIを使ってもAIが君より良くなるポイントに到達する。
これはチェスで起こる。チェスで長い間、AIサポート付きのチェス選手がAIに勝つことができたが、突然AIがチェス選手に勝てるようになり、今は誰もAIに勝てない。Magnus Carsenは最近Roganのポッドキャストで、AIと対戦しないと言った。意味がないから。
自己鞭打ちのようなもので、可能性がない。おそらくこれまでで最高のチェス選手の。
だから当然、AIを使ってどんなにうまくやっても、AIがより良くなり、方程式に何も貢献しないポイントに到達する。だからそのポイントで直接AIが人類の生産的作業を完全に置き換える。それだ。
しかし私たちは2つのAI間の試合よりも2人の人間間の試合を見続ける。エンターテインメントまたはMessiがゴールを決めるのを見に行く。
Messi、今日Messi、私がバルサファンだからではないが、Messiがここにいたときバルサファンだったかもしれないが、おそらくMessiより良くプレーするロボットはいないが、例を挙げよう。重量挙げでは、確実にRockより多くの重量を持ち上げるロボットがいる。
しかし私たちはオリンピックで人間がそれをできることが興味深いと見続け、やり続けるが、それは経済的価値がない。
話は大部分の生産タスクに経済的価値がないということだ。しかしおそらく私たちが2台のカメラでこのセットにいる代わりに、1000人の劇場にいて、話しているように話していたら、確実に1000人または1万人が興味を持って入場券を買って私たちを見に来るだろう。
今それをグローバルな観点で出してみて。今日1日にどれだけのポッドキャストが見られているか?劇場でどれだけ見られるか?無視できる、その経済的影響は完全に軽視できるものになる。
だから長期的に、何かをやること、生産が私の子供たちに食べさせることができることと結びついていない社会を提起しなければならないと思う。
君と私はその劇場でポッドキャストを無料で、芸術愛のためにやらなければならないだろう。その1万人、10万人が私たちを見に来る人々は、エンターテインメントのため、興味があるため、何かを学ぶために来るが、必ずしも入場券を支払って来る必要はない。君と私が生きるためにそのお金を必要としないからだ。お金を他のことに使う異なる社会モデルを見つけたからだ。しかし私たちの概念的にこれをやりたいからやっているということ内にある。
完全に同意する。私たちはお金のために働いていない、私たちは特権階級だ。しかし人々が理解しなければならないのは、私たちが話していることがそんなに狂っていないということだ。狂っていない。
私の写真家時代、10年間やったことの一つは、消えつつある部族を訪れて写真を撮ることだった。The Eldersというプロジェクトだ。中国、モンゴル、ビルマ、世界の多くの場所で部族を撮影した。
Bayandalayという男と2週間一緒に住んだ。彼はモンゴルとロシアの間のステップの森林地帯のティピに住んでいて、そこに到達するには5日間の旅、12時間の馬だ。
そこに到着すると、男はそこでトナカイと住んでいて、その森林地帯に住む20家族と住んでいて、そこには仕事がない。
私はマルチプルな経由でアバターまで飛行し、そこに到達するために、そこから別の飛行、その他の飛行から、ジープ、ステップで3日間寝て、その後最終的に12時間馬で森林地帯に到達した。
だからそこに到着してティピを見つけ、この男、部族の首長に出会った。残りは
翻訳者と一緒に行った。なぜそこに行ったか?存在を知っていた、消えつつある部族を撮影するため。それが以前に私が専念していたことだ。
そこに到着してリーダー、80歳過ぎの男、シャーマン、人生で100頭のクマを殺した男、そのうち1頭はライフルが故障してマチェテで殺した男に出会う。そのレベルについて話している。
私は雑誌の表紙、Fernando Torresなどを撮影することから、突然この種のことをやりに行くことになった。これが私が芸術愛のためにやっていたことで、文字通り、それで生きることとしてマネタイズしたことはない。
当然、この男のところに行って彼と座り、2週間彼と一緒に住んで、彼が人生を話してくれて、私は2週間彼の人生の一部になり、一緒に狩りに行き、トナカイを散歩させ、トナカイの皮を剥ぎ、食べ、夕食、すべて。この男の家族とティピで生活していた。
それはどんな匂いだった?
信じられない。実際、トナカイに乗った。馬より速く走るトナカイに乗った。
話は、私が完全に持続可能で、完全に実行可能な社会を見たということだ。その土地で共存する50家族の誰もGrokが何かを知らない社会を。
Grokが何かを知ってほしくないのではなく、仕事が何かを知らない。彼らは働くが仕事を持たない。一人がパン屋、もう一人がではない。ここは皆で皆が必要とするものを持つことを確実にする社会だ。階層さえあるが、給料はない、お金はない。実質的にお金がない。
お金を使うのは、皮を売るために村に行くためにトナカイで12時間下って、彼らが持たないもの、アルコール、お菓子、彼らが生産できない他のたわごとを買って戻るときだけだ。残りの時間は自己持続可能だ。
みんながティピやテント内で生活しようということではないが、現実は、1日8時間働きに行くことが子供たちのテーブルに食事の皿を置けることと結びついていない社会の可能性が存在することを理解しなければならない。
人工知能が生産を担当し、利益を得る一部の人を超生産的にする社会を達成すれば、それは国にとって素晴らしい経済的豊かさをもたらすことができるが、必ずしも皆が働く必要はない。
だから公式を見つけなければならない。当然、とても簡単なのはユニバーサル・ベーシック・インカムだ。そんなに簡単ではない、引用符で言うが、確実に最初に頭に浮かぶ。
つまり、人間であるという事実によって生きることを可能にするユニバーサル・ベーシック・インカムを持つ。Elon MaskとDemis Hassabisが、前に話した人たちだが、彼らはユニバーサル・ベーシック・インカムを探すのではなく、彼らがhigh universal incomeと呼ぶものを探さなければならないと定義している。
basic universal incomeの代わりに高いユニバーサル所得のようなもの。今私が持っている全視聴者を取って「今稼いでいるのと同じものを働かないことで与える」と言ったら。そこから働くか働かないかを決める。多くは大丈夫、それで幸せだと言うだろう。
しかし「でも当然、これは私の天井で政府パパに依存する」と言う他の人もいるだろう。だからいや、欲しくない、もっと目指したい。
今見ている大部分の人に、働かないことで月1万ユーロと言ったら、確実に社会の95%が大丈夫と言う。
お金のために働かない一連のフリークがいる。私たちは特権階級で、おそらく「いや、楽しんでいるこれをやることを諦めたくない。お金をくれてもくれなくても、完璧、殺せ」と言うだろう。
しかし明らかなのは、社会が必ずしも働きたがっているのではなく、目的と支援を持ちたがっているということだ。
そこから、これがおそらく皆のための仕事がない世界でどう機能するかを見つけなければならない。資本主義はとてもうまく機能してきたが、資本主義は資本プラス労働だ。労働を消去すれば、公式は機能しない。だから資本主義は機能しない。
ここから、技術革命として、他のすべてのように、この技術革命はテーブルの上にやるべきより多くの仕事をもたらす。
しかし仕事は雇用と同じではない。仕事の大部分を人工知能がやるので、より多くの雇用やより多くのやるべき仕事があるという事実によって、必ずしも完全雇用またはより多くの雇用を持つ必要はない。
私たち一人一人の生産性を10倍にし、AIが多くのことを自分でやることを達成するとき。
才能と平等化の問題
その意味で、John、生産性と人の間に才能があるとき、誰もが同じではない。誰もがビデオや写真を同じように作れるわけではない。才能のある写真家と才能のない写真家は違う。
これら2つの実行者を非常に似た範囲に置く人工知能があるとき、実行の非常に似た範囲にいるが、才能を持つ者と才能を持たない者がい続ける。
どうやって、つまり才能を持つ者は他の者よりも良い決定を取れるか?私たちが方程式に貢献することが軽視できるポイントまで、社会の他の者よりも特定のことをやるのにより有効な誰かか。
百分率で人々が理解するように置こう。私が才能を持ち君が持たない、またはその逆だとしよう。どちらでもいい。私が70%貢献し、AIが20%貢献する。突然君は70%の代わりに30%を持ち、AIが20%貢献し、50%になる。
ここで最初に起こることは、AIがより多く貢献できるようになることだ。私がAIと持つ関係はおそらく変わるが、最終結果が必ずしもより良くなければならないわけではない。多くの才能を一緒に置いてもいつもより良いものが出るわけではないから。できることの上限のようなものがある。
だからAIのおかげで才能の少ないこの男が私に近づくかもしれない。君が言うこと、競争だ。
突然、生来持っていた人に対して競争できる人を持つ。私は数学でEinsteinと競争できなかった。例を挙げよう。
年に一回数学オリンピックが行われる。世界で最も賢い男たちが各国を代表してそれらのテストを提示し、金、銀、銅メダルが与えられ、年間約50人が世界中で金メダルを獲得する。
突然人工知能がその競技で金メダルを獲得できる。実際に獲得した。GeminiもOpenAIも。だから人工知能を使って、私より数学に対してはるかに多くの能力を持って生まれた男のように技術的に金メダルを獲得できる。
だから突然この男がそれで生きていたなら問題がある。なぜ?突然社会全体が彼の競争になる可能性があるのに、以前は少数だったから。
とても明確な例を挙げよう。インドネシアに1年半住んでいたとき。
そこで私はお金を持っていて、インドネシア人の、その時代のバリのインドネシア人男性の最低賃金は月50ドルだった。ばかげている。
だから私はVillabong、Rip Curlのようなブランドとサーフィン選手権のテーマで写真家として働くために現れた。「やばい、でも君ははるかに高い」と言われた。
「ここで唯一改善できるのは写真だが、この男たちはより良いカメラを買えないから、ひどいカメラを持っている」と言われた。シンガポールに行き、レンズに7000ユーロを使い、バリに戻って「今、彼らが持たないこれを持っている」と言った。「すぐに雇用」と言われた。
持っていたレンズのために仕事をくれた。レンズがAIだ。
突然、そのマーケットで競争できなかった私が、マーケットにいることを可能にするツールを使う。だから人工知能で数学者と競争できる。
他の人はできない。前に言ったNASAの、NASAに参加した女性は、人工知能なしには絶対にできなかっただろうが、人工知能があれば参加できる。
突然、私より賢かった男と競争できるポイントに到達するが、今物事はレベルが上がり続け、ますますAIが多くを持ち、私がAIに70%貢献していたが今は10%貢献し、君がAIに30%貢献していたが今は3%貢献する。
おそらく私の10%も君の3%も価値がない、重要なのはAIだというポイントに到達する。だからそのポイントで私たちのどちらも何も貢献せず、そのポイントがAIが一人でやるときだ。
だからそれが私たちが生きることになる移行だ。問題はその移行がどうかということだ。今日すでに増強段階にいる。人工知能を使うジュニア弁護士がシニア弁護士よりも価値を貢献できる段階にいる。すべての分野ではないが、いくつかの分野で。
そこから、これが拡大するのを見ていくことになる。仕事で成長したい人なら、おそらく最高、最も速く、企業にとって最も価値のある公式は人工知能を適用することだ。間違いなく、君の企業家、上司がそれを感謝する。
さらに君が、君が属する部門全体を最適化できるなら、君の生産性を20%改善するだけでなく、部門の生産性を20%改善することになる。それはどれだけの価値があるか?多額だ。
そこから、ポイントは移行が何かを明確にしなければならないが、エンドゲームを見失わないことだと思う。
エンドゲームはAIが私たちの仕事をやることだが、それは橋の下で路頭に迷って生活しなければならないことを意味しない。一つのことは他のことと関係しない。これは経済危機ではなく、社会危機になり、やり方によっては不平等の危機になる。移行で多くの人が道に取り残されるから。それが最大の問題だと思う。
そこで政治家が入って、おそらく10年、15年、20年後に皆のための仕事がない世界での経済的解決策を探そうとするべきだ。
今スペインはヨーロッパで最大の失業を持っている。若者失業は25%だ。今月のレポートだ。25%の若者失業。つまり働く能力のある年齢の4人に1人が失業リストに登録されているということだ。
失業リストに登録されていないおそらく知っている人は何人いるか?おそらく若者失業は25%をはるかに上回っている。
若者は最もジュニアな仕事にアクセスする。それらのジュニア仕事は人工知能が最初にやることになる。今後数年で若者が労働機会を持たない状況に直面することになる。それはおそらくではなく、起こることだ。起こっている。
何年も働いてきた人々の解雇をそれほど心配していない。若者がシニアになるためにジュニアを通ることなく労働市場にどうアクセスするかを心配している。
どんな仕事をやるのか?私が今やることをやる前に、自分一人の企業を持ち、その後1人の従業員を持ち、その後3人を持ち、今は17人いる。人生で段階を通らなければならない。ゲームを始めさせてくれなければ、どうやってエンドゲームに到達するか?
それが私が心配することだ。おそらく、いつかわからないが、5年後、10年後、直接若者が労働市場にアクセスしない状況に直面するだろう。そこで何をやるのか?
それが政治的議論で話されるべきことで、毎日話されている2万5千のばかげたことではないと思う。
若者は働かない、老人は死なない、中間は何をすべきかわからない。残る世界は良いね。
しかし来るんだ。
それはおそらく生きたことだと思う。私たちにすべてがとてもうまくいっている人生の時代にいることを知っているか?苦労し困難を経験している人がいることは知っているが、最少戦争の世界の時代にいる。
あらゆる種類の色の最少問題の世界の時代にいるし、いくつかの自然災害があったが、本当に振り返ると、私たちの祖父母は世界大戦を生き、以前の人は産業革命を生きた。
先日読んだものでは、スペインでどんなに悪くても、いつも熱いお湯のシャワーを浴びることができる。古代ローマではカエサルだけの贅沢だった。
結局私たちは最大の一般的贅沢の瞬間に生きている。これはChurchillが言ったことととても一致している。「一つの死は悲劇、千は統計だ」この意味で、AIがすべてをやって、Wall-Eのようにそれらの空気タイヤでロボットがすべてをやって私たちが生きるx年後の豊かさの期間に入ると思う。Wall-Eのように皆がひどく肥満していたよりも良い熟考的生活を望むが、現実はこれがユートピアで終わる可能性があることだ。
これがユートピアに導く非常に現実的な可能性が存在するが、問題はユートピアが明後日ではなく、持っている社会からユートピアへの移行があり、多くの人が道に取り残されることだ。そこで最大の問題があると思う。
私の最大の心配はそれだ。私たちのユートピアに向かう道で何人を道に取り残すかが最大の心配だ。
最終的なメッセージと行動指針
John、チャンネル最長のポッドキャストをやった。
すごい、速く過ぎた。何時間も何時間も話せると思う。確実に何時間も、しかし何も解決しないだろう。
多くの人がまだたくさんの質問を持っていると思う。地に足をつけよう。現実的でないトーンで終わったが、人々は最初の段階を理解しなければならない。人工知能で頑張るか、労働市場でやられるかだ。
二つ目、社会にナノバナナとこれから見るすべてのディープフェイクの能力を意識させるか。文字通り今週ナノバナナで変曲点があると言っている。
もし社会の可能な限り大部分に、画面で見るあらゆるもの、あらゆるビデオ、あらゆる写真、届くあらゆるオーディオが人工知能で操作されて本当に聞こえる可能性があることを意識させなければ。人々の頭にその批判的思考の種を置かなければ、とても苦労することになる。
三つ目、人工知能が彼らが言うように出るなら望む世界について考え始める。やらなければならないのは、人工知能環境で世界に何を望むかを考え始めることで、AniやMeta、OpenAI、Elon Maskが出すその時のたわごとに反応することではない。
その3つのポイントが重要だと思う。一つ目、労働市場から外れるからもう適用しろ。二つ目、これが来ることを人々が理解するよう助けろ。本当に真実の概念を失うことになるから。
三つ目、新しい社会を準備し始めるよう政治階級に要求しよう。
John Hernández、来てくれてありがとう。君の午後を台無しにして申し訳ない。気に入ったらこのビデオにいいねと登録をして。Johnも彼のすべてのソーシャルメディアをフォローして。すでに知っているが、説明にも残す。私の家、このチャンネルに来続けて、目を開かせ、物事をテーブルの上に置き、来るもの について情報的で、エンターテインメント的で、すべての公衆向けに話してくれることを望む。
ありがとう、Uri。ありがとう。


コメント