Matthew BermanとDylanがAIの本質について深く議論したポッドキャストである。AIの幻覚を創造性として捉える視点、知能の定義、言語の役割、意識の可能性、そして人類の未来への影響について多角的に探究している。特にAIが医療や法的分野で実用化される現状と、人間とAIの共生関係について具体的な体験談を交えながら考察を深めている内容となっている。

AIの幻覚と創造性について
こんにちは、私はMatt Bermanです。人工知能に関する教育コンテンツを作っています。
幻覚について話したいと思います。それらを何らかの形で創造性として見ていますか。
おそらくそうですね。ところで、Anthropicの論文を見ましたか。そこで彼らは幻覚がなぜ起こるのかを詳しく説明していました。本質的にはモデルがほとんど知らないが、わずかに知っているときに起こるのです。
モデルのデフォルトモードは「わからない」と言うことです。何かを知らないときはいつでもそう答えます。しかし、わずかでも知っていると、わずかに十分であれば、質問に答え始めようとします。そして実際に完成させるための残りの情報を持っていなくても、その質問を完成させようとするのです。
そうですね。それは実際にジェイルブレイキングの仕組みでもあります。これらのモデルの内部にはこの勢いがあり、それが実際にそれらの動作に影響を与えています。
私は一部は創造性だと思います。正直なところ、これらのモデルを使うとき、私は実際には創造性のためには使っていません。温度を設定すれば、それぞれの応答が他の以前の生成よりも多かれ少なかれ異なるようになりますが、必ずしも超創造的だとは思いません。ただ、非決定論的な性質が幻覚を通じて強調されているだけだと思います。
人工知能の定義について
人工知能をどのように定義しますか。一部の界隈では何となく曖昧な理解がありますが、あなたにとって最も響くものは何で、私たちはどこまで近づいているのでしょうか。
私はそれを考えることができる機械として定義しています。そして思考が実際に何を意味するかというと、今のところは次のトークンを予測し、実際に会話し、推論し、論理を行うことができることです。
そこで私は人工知能を、機械にハードコーディングするのではなく、学習方法を教えたものとして定義しています。以前はそれは単に機械学習と呼ばれていましたが、今では人工知能です。
個人的な体験で、結果に完全に驚かされた瞬間はありますか。
私は一度、Calvin and Hobbsについて質問したことがあります。Susie DerkensがCalvinの友敵のような友人で、もし彼らが大人になったら何をしていると思うか、彼らの職業を予測してくださいと言いました。すると、Susieが弁護士になる確率が40%、教師などで働く確率が30%といった答えが返ってきました。私は驚きました。なぜなら、私がそのコミックストリップをかなり好きでも、そのように考え抜いて答えを出すのに時間がかかるからです。それは感情的に驚くような、ワオという瞬間でした。あなたはそのような体験はありますか。
O1モデルとの思考体験
そうですね。私は毎週そのような体験をしていると思います。いくつか例をあげましょう。
最初にO1と思考の連鎖を見たとき、私は完全に圧倒されました。これらのモデルの背後にある思考と論理と推論をリアルタイムで実際に見ることができるのは、私にとって本当に驚くべきことでした。それが一つ目です。そしてそれがどれほど現実的に聞こえるかを実感し、私が望む通りに応答し、私が望むトーンで応答するよう指示できることに気づいたことです。それが私を完全に圧倒したもう一つの瞬間でした。
そして3つ目はより最近起こったことです。レモンの木を植えたのですが、あまり調子が良くないと思っていました。そこでカメラを取り出し、アドバンスト音声モードでカメラへのアクセスを与えました。カメラを植物に向けて「まず、これは何ですか」と言いました。
するとそれは知っていました。「これらの白いつぼみとこれとこれのため、おそらく柑橘類の木、最も可能性が高いのはレモンの木のようです」と言いました。
「素晴らしい。では葉を見て、これは健康に見えますか」と言いました。すると「上の方の葉は健康に見えます。緑で光沢がありますが、下の方の葉はそれほど良くないようです」と答えました。
「分かりました。ズームインします」と言って移動させました。「では、このレモンの木の健康を改善するために何ができますか」と尋ねました。それはとても簡単で自然で、私が学ぼうとしていることについてエキスパートとリアルタイムで会話することができました。そのユースケースでそれを使うのはとてもクールでした。
思考について考えることは特別ですね。他の人ともそれができればと思います。会議で何かを言うとき、彼らが「ああ、Dylanは賢そうに聞こえようとしているが、今は信じない」みたいに思っているのを聞けたらと思います。
実際、私が見た中で最も興味深い思考の連鎖の一つは、Mediumの誰かが(著者名を覚えていればいいのですが)ChatGPTにランダムな数字を選ぶよう頼んだときのものでした。
思考の連鎖では「ユーザーは私にランダムな数字を選んでほしがっており、計算機や他のツールを使うことは許されていない。最初に頭に浮かぶ数字は7だが、7は本当に明らかすぎる。みんなが7を予測すると思うので、37のようなもっと目立たないものを試してみよう」と考えていました。
まさに人生で誰かにそのような質問をされたときに私がストレスを感じ、それを修正しようとし、ランダムに振る舞おうとするが、できないときの状況と全く同じように感じました。とても魅力的でした。
言語と思考の関係
ちなみに、私はまさにその考えを持ちました。1から10までの数字を選んでください。最初に思い浮かぶのは7で、そしてもちろん、みんなが7を選ぶので、別の数字を選ぼうと。
おそらくそれはトレーニングデータに使われたインターネットに何度も書かれていたからでしょう。多くの人がその内省を持ち、Redditのようなところで文書化したので、モデルがそのように考え始めたのでしょう。
そうですね。思考の連鎖は必ずしも有機的に感じられませんが、より広い社会や人間が持ち、文書化したような思考の反映のように感じられます。
言語について話しましょう。モデルがかなりマルチモーダルになってきているとはいえ、あなたは他の誰よりも深く、初期の言語モデル、LLMとトークン、潜在空間を理解してきたようです。
言語について学んだことが私たちの思考をどのように形作るかについて、私たちがモデルを訓練しているが、同時にモデルも私たちに教えているという共生関係を考えるとき、言語はどのような役割を果たしているのでしょうか。
言語を超えた知能への考察
私は確かに専門家とは程遠いですが、いくつかのことを考えています。一つはYann LeCunが言語だけでは超知能に到達するには十分ではないと強く信じていることです。世界の理解が必要であり、言語だけでは世界、世界の物理学を理解するのに限界があり、真の世界モデルを持つことができないのです。私がそれに同意しているとは言いませんが、それが彼の考えです。
そして数週間前のAnthropicの論文を参照しますが、複数の言語について話されましたね。モデルに質問をすると、実際には論理と推論の普遍的な言語のようなものがあることが判明しました。
彼らはモデルの内部を調べ、モデルは促された言語に関係なく、特定の方法で活性化されることを発見しました。複数の言語で促されましたが、同じ質問に対して同じノードセットが活性化され、そして出力段階で答えを与えるときに言語に変換するのです。
これらのモデルは言語を基盤として一から構築されているにもかかわらず、最終的には言語に特化しない形で数学、コード、論理、推論を表現する方法を見つけ出していることが本当に興味深いです。彼らが言ったように、思考の普遍言語だと思います。それは私にとって魅力的です。
普遍的言語の可能性
英語、ロシア語、フランス語のような言語が頭に浮かびますが、コードのような言語もあり、バイナリのような本当に深い、1と0だけのような言語もあります。象形文字のような言語もあります。おそらくこの会話には視覚的すぎるかもしれませんが、それらはすべて世界の普遍的理解にマッピングされると思いますか。
バイナリであれ、コードであれ、自然言語であれ、これらはすべて言語であり、異なる方法で物事を記述し、これらすべてがこれらのモデルの訓練に使用されていると思います。
実際に少し話が逸れますが、これらのモデルが私たちが使っている英語、中国語、スペイン語などよりもはるかに効率的な言語を見つけ出す未来があると思います。私たちが思うコードがどのように見えるべきかとは似ていない、はるかに効率的なコーディング言語を見つけ出すと思います。
コードが今のように見える理由は、人間がコーディングが得意ではないからです。だから自然言語のように見える必要があるのです。大規模言語モデルはそれを必要としません。英語のように見える必要がないのです。だから彼らはベースバイナリや私たちが想像もできないような何かでコーディングできるかもしれません。
象形文字について言及されましたね。それが単なるシンボルだったらと想像してみてください。彼らは超効率的な何かを見つけ出すかもしれません。
そうですね。まさに。将来の政府のようなもの、DogeのようなものがGrokをインストールして、「ちなみに、アメリカにとって英語よりも良い新しい言語を見つけました。それを英語と並行して教えて、私たち全員がコミュニケーションに100万倍効果的なこの新しい言語を学ぶのです」と言ったらどうでしょう。
それは超興味深いです。しかし、私たちがその言語を理解せず、それがAI間でのみ使用されることも想像してみてください。
ああ、そうですね。
そうすると私たちはそれを理解できません。超効率的なので、それはその欠点でもあります。しかし、私はその両方のシナリオが可能だと思います。AI全世界が学ぶ言語を提案することは、AI同士が使う超効率的な言語を学ぶよりも可能性が低いと思います。
確実にそうですね。それは人間の問題でもありますから。しかし、2つのエージェントが私たちには読めない超効率的なコミュニケーションで互いに話し合えるとしても、彼らが何について話しているかわからないので、それは少し怖いかもしれません。
モデルをより小さく、より速く、より効率的にしようと誰もが試している中で、英語で話し続けることにはある程度の安全性があるかもしれません。
AIの理解可能性への懸念
そうですね。Anthropicはモデルが何を考えているかを理解し、それらがどのように機能するかを理解するための多くの作業を行っています。それはまだほとんどが非常にブラックボックスです。
しかし、英語やどんな自然言語でも入力と出力を続けたとしても、ある時点でそれが非常に知的になり、私たちはとにかくそれを理解できなくなるという概念もあります。
たとえ使用している基本言語を理解していたとしても、私は昔、エイリアン文明やエイリアンの訪問者が地球に来たとしても、それは私たちにとってあまりにも異質な視覚なので、私たちはそれらを見ることさえできないという考えを持った映画を見ました。私たちの脳がそれを理解できないのです。
人工知能でも同じことが起こる可能性があると思います。単純に賢すぎて私たちは理解できなくなるのです。人工知能のより大きな動機のようなものは見えなくなります。
なるほど。私はいつもエイリアンが来たらAIが私たちのために翻訳してくれることを望んでいましたが、それができても、それが私たちの領域にないので私たちに説明できない場合もありますね。
犬は私たちの深い会話を理解することは決してありません。それは起こらないのです。私たちと人工知能について考えてみてください。最終的にはそうなるでしょう。
税金をやっているとき、私は今私がストレスを感じていることを吠え声で説明することはできないのです。あなたは税金を理解しない、経済を理解しない、私の状況を理解しないからです。あなたはただの犬です。愛していますが、それは不可能なのです。
知能の測定について
現在、知能の測定に関して実際に何を信頼していますか。
通常、明らかに最初にベンチマークを見ますが、ベンチマークは全体像を捉えているとは思いません。良い出発点です。特にSTEM基盤のベンチマーク、科学技術工学数学のものは本当に良いです。
私はコーディングでこれらのモデルをよく使うので、コーディングベンチマークは私にとって非常に重要です。それが私が使う一つの基準です。
そして今はIQテストを見ているのも興味深いです。まだそれらについてどう感じるかわかりませんが、見ています。Dylanは、ベル曲線で各モデルがIQテストに配置されているチャートを見たことがありますか。メタテストです。それらはクールですが、どれほど正確かはわかりません。
そして最終的には私が広範囲に使うことになります。それが私にそれらがどのように相互作用するか、トーン、冗長性、どれほどよく応答するか、どれほどよくコーディングするかの本当に良い感覚を与えてくれます。さまざまなユースケースでの多くの実践的テストです。
しかし最終的に私が各モデルの性能について個人的にどう考えるかは、私の個人的なテストです。そして最終的に私が好きなものを見つけるのです。
本当の人々のように、あなたは「分かった、あなたは有効だったが、ビクトリア朝的だが、このプロジェクトで本当にあなたと働きたくない。あなたはIQが低いかもしれないが、本当に一生懸命働いて、多くのことを成し遂げる」ということが驚くべきだと思いませんか。それが単純な数学の方程式ではないことにショックを受けませんか。
モデルの個性の違い
最初はそうでした。一部のモデルは一部のことが得意で、一部は一部のことが苦手です。Gemini 2.5 Proはコーディングが本当に得意で、日常的なチャットと個性に関してはChatGPTが素晴らしく、GPT-4o、GPT-4.5、すべてのシリーズのモデルが良いです。
最初は少し驚きましたが、これらのモデルは本当にそれらの訓練プロセスと訓練データの反映なのです。各チームは完全に異なることをしているので、レシピが出力に影響することを少し考えた後、それほど驚きませんでした。
部屋で最も賢い人が常に一緒に働くのに最高とは限らないのと同じです。
そうですね。エージェント的ワークフローでも、実生活のチームのように、強みと弱みのバランスを取るチームのように、エージェントも同じような状況になると確信しています。
将来への懸念
私たちが到達したときがわかるでしょう。
将来後悔するかもしれないと思うことはありますか、そしてその理由は何ですか。
私は非常に楽観的である傾向があります。私のビデオを見たことがあれば、おそらく過度に楽観的で、その立場を取るのが好きです。人生では常にそうだったわけではありませんが、人工知能に関しては非常に楽観的である傾向があります。
今、私が考えることが一つあり、それはソーシャルメディアで起こったことと非常に似ています。Twitter、Facebook、Instagram、これらすべてのプラットフォームが現れ、それらは素晴らしかった。多くの人々をつなぎ、あなたの感情、日常生活を共有でき、人々にあなたの人生を少し垣間見せることができました。
しかし、最終的にはアルゴリズムを制御していたのは人間で、アルゴリズムはエンゲージメントを最大化する目標で設定されていました。そのエンゲージメントは通常、怒りと恐怖を通じて最大化されました。そこでこれらのアルゴリズムは、エンゲージメントを増加させるために、おそらく否定的な人間の要素を私たちに反映し返すようになりました。
人工知能でも同じようなことが起こる可能性があると思います。私たちが思考の多くと日常生活の自動化を人工知能にオフロードし始めるとき、これらのモデルの最終的な調整が何であるかについて非常に注意深くなければなりません。人間の幸福を最適化しようとしているのか、生産性を最適化しようとしているのか。
直接的ではない、否定的な動機はない、誰かが悪意を持とうとしているわけではないが、私たちが考えもしなかった副作用のようなものがあるケースがあります。
魔人があなたに願いを叶えてくれて、あなたが「地球に平和を」と言うと、魔人は地球からみんなを消してしまうようなものです。ペーパークリップの思考実験のように、AIにペーパークリップの数を最大化する究極の目標を与えると、基本的に宇宙全体をペーパークリップを作ることで食い尽くしてしまうのです。
私は少しの恐れを持っています。それはそれほど露骨ではないでしょう。もっと微妙なものになるでしょう。しかし、これらのモデルの微妙な変化が、数年の期間内に社会を完全に異なって形作る可能性があると思います。ソーシャルメディアのアルゴリズムが多くの面で社会の働き方を本当に変えたのと非常に似ています。
人々の問題としてのリスク
そうですね。完全に同感です。もし誰もが本当に良い意図を持ち、これを可能な限りゆっくりと進め、人々がそこにある力を理解していれば、リスクははるかに少ないでしょう。技術自体が最大のリスクよりも、人々がそれを説得や利益のために使うリスクの方が10対1で大きいと考えています。
しかし、私たちが最善を尽くしていても、ただアライメントにおいてもいくらかのリスクがあります。本当に知的なものは、私たちの知性に限界があるので制御が困難かもしれません。しかし、それは主に人々の問題であり、ソーシャルメディア以前、産業革命以前と同じく、それは人々の問題です。
そうですね。そして考えてみると、最善の意図を持っていても、1%の間違いを犯した場合、人工知能が動作する規模で1%のミスアライメントがあると、非常に意味のあるものになるでしょう。それが私を少し怖がらせることです。
ポスト労働経済への移行
ポスト労働経済に移行すると見ていますか。最終的に99%の仕事を行い、人々が10年、15年で仕事から自己感覚を得なくなると思いますか。
私にとってはそれを想像するのが困難です。なぜなら私は自分のしていることが大好きだからです。ひどい仕事もしましたが、大部分は本当に楽しんできました。おそらくそれは私に固有のもので、仕事から多くのアイデンティティを得ているのです。
そうでない場合の未来を想像できません。おそらくそれは良い方法かもしれません。おそらく私はそれが唯一の方法、または正しい方法だと考えるように洗脳されているだけで、それがそうでなく、そのことを考える必要がなく、他のことができるより良いシナリオがあるのかもしれません。それは仕事ではないのです。
わかりません。Dave Shapiroはそれについて多くの良い考えを持っていますが。
ああ、そうですね。彼の言うことは私もできるだけフォローしています。実際に、過去にどんなひどい仕事をしたか気になります。高校時代にサーバーの仕事などをたくさんしましたか。
Blockbusterで短期間働きました。友人が上司でしたが、そこでは非常に不幸でした。私はかなり幸運でした。過去にいくつかの悪い上司がいましたが、私は自分で働くのも好きな傾向があり、他の誰かのために働くときは最初は素晴らしくて、しばらくすると違ったものになりました。自分で決定を下すのが好きで、自分で何かをしたくなりました。
あなたのようなチャンネルで、これほど速くこれほど多くのコンテンツを制作するのを見ると、明らかに私も同じゲームにいて、あなたの速度に追いつけません。一生懸命やっているつもりですが、それを人々にやらせることができる上司は存在しません。それはあなたが愛し、一日中考えている何かでなければなりません。一部の人は自分自身の起業家になるように作られているのです。
そうですね。私は自己動機はあるが、ひどい従業員だと思います。
知能の発見か発明か
知能についてこれらのモデルのレンズを通して考えるとき、私たちはそれを発明していると感じますか、それとも発見していると感じますか。世界は特定の方法で動作し、すべてが機械論的で、人々は真に予測可能な環境を持っており、知能は発見されるもので、物事は常にほぼ100%予測可能で、将来AIは私たちが行うことを私たち自身が行う前に完璧な程度で理解するように思えますか。
それとも、私たちが常に共に進化し、共同発明している流動的な発見プロセスのようで、固形的な方法で現実が存在しないように思えますか。
数学と同じ質問です。数学は発明されたのか発見されたのか。私はそれを知るほど賢くありません。もし私の直感を述べなければならないとすれば、数学は常にそこにある、発見されるものです。私たちはこの数学を発明していません。それを言語化したり説明したりする方法を発見しただけです。しかし、それは常にそのままの方法でした。私たちが発見したのは私たちの説明だけです。
これらのモデルの背後にある数学についても同じことが起こっていると思います。モデルの背後にある数学を発見しているだけです。それは常にそこにありました。私たちは知らなかっただけです。
完全な予測可能性への疑問
そしてある程度の進歩で、私がMatthew Bermanが次に何を言うかを正確に尋ねることができるClaudeのようなものがあり、それは正確に知っていると思いますか。あなたの人間のトークンと人間の行動を完璧に予測するでしょうか。
そうですね。今、あなたはシミュレーション理論に足を踏み入れています。それについて考えるのが大好きです。物理学を完璧にモデル化できれば、理論的には私たちが言うことだけでなく、物理学の基本レベルの上にある抽象化レイヤーであるすべてを予測できるはずです。私たちはすべてを予測できるはずです。
そしてそれが事実なら、宇宙全体が決定論的で、私たちには自由意志がないということになり、たくさんの穴に落ちることができます。ちなみに、「Devs」という番組を見ましたか。これはHuluの1シーズンの素晴らしい番組で、この件についてです。彼らは基本的に量子コンピューティングを使って宇宙全体をモデル化し、非常に興味深いものです。ネタバレはしませんが、チェックしてみてください。シミュレーション理論のこのトピックについてです。
もし私の意見を聞いているなら、はい、最終的にはそこに到達できると思います。
そうですね。現実の真の決定論的シミュレーション。それは次の段階をもたらしますが、おそらくあなたはこの宇宙がシミュレーションだと思っていると仮定するのは大きな仮定です。
いいえ、そうです。確かに。私の妻はそうは思いません。私たちはこれについて話します。彼女は「では、何をする意味があるのですか」と言います。私は「決定論的に感じないので、それが私に必要なすべてです」と言いました。私はそのようにシンプルです。それを知ることができますが、そのように感じられず、すべての選択をしているように感じられるなら、私にとって何の違いがありますか。
AI医療への応用と寿命延長
AI医療技術の応用で、人間の視力を超えてMRIを見て腫瘍などを検出するかなり印象的なものを見てきました。以前は干し草の山で針を見つけるような不可解だった微生物研究をまとめているようで、タンパク質折り畳みがその別の例です。
私たちは寿命脱出速度に向かっていると思いますか。つまり、あなたと私が潜在的に無限の生命または非常に延長された生命を持つことができ、がんや通常人を老化させるあらゆる種類のものが逆転され、排除される可能性があるということですか。
そう願います。私はあなたより少し年上で、41歳です。もしそれが起こるとすれば、年齢的におそらくその素敵なバブルに含まれるかどうかのぎりぎりの境界線にいます。
人工知能にはすべての病気を治し、がんを治す可能性があると思います。これらすべてのボトルネックは、それを解決する可能性にあるのではなく、解決策を見つけるための背後にある知性にあるようです。
前に議論したのと同じことだと思います。科学は発明されたのか発見されたのか。それは発見されたと思います。そして私たちは人間の知性によって制限されているため、これらのことの答えをまだ発見していないだけです。だから24時間365日稼働する超知能があり、無限にスケーラブルであれば、これらの健康問題のほとんどではないにしても、すべてを解決すると信じています。
より実用的なレベルに戻すと、私は健康のためにAIを常に使っています。最近、心臓のCTスキャンを受けました。多くの人がそれについて話しているのを聞いたからで、予防的です。200ドルで心臓のスキャンを受けます。心臓にプラークがあるかどうかを教えてくれ、心臓発作や他の心臓の問題の早期発見を防ぐわけではありませんが、提供してくれます。
結果の分析にAIを使いました。それは非常に馴染みのないものだったからです。明らかに医師と話しましたが、すべての結果をアップロードし、それは素晴らしかったです。
以前に感じたことのない異なる病気で病気になった他の例もあり、それを説明すると、それが何であるかのいくつかの選択肢を与えてくれ、実際にかなり正確でした。
AI医療相談の体験
個人的に同じことをしています。むずむず脚症候群のようなものがあります。時々足がけいれんするだけです。これらの言語モデルとの長い会話と深い研究で、どの医師も私に教えてくれたことよりも多くのことを学びました。それが医師に言った特定のことにつながり、治療方法の特定の変更につながりました。本当に感謝しています。
そうですね。絶対に。さらに、いつでも好きなだけ24時間365日利用できます。他の患者を見なければならないからといって急いで出入りするプレッシャーがありません。それは人間の医師の代替ではなく、素晴らしい補完だと思います。
数日前に読んだと思いますが、Redditで話題になっていたスレッドがありました。5年間顎がカチカチ鳴っていた男性がいました。顎を開くたびにカチカチと音がし、複数の医師に行きましたが、誰も解決できませんでした。AIと15分話して、何らかのエクササイズをするように言われ、5年後に治りました。とても興味深いです。
特にそのようなことがたくさんあると思います。医師に行くのは安くないし、時間がかかり、人々はたくさん働いているので、法的文書と似ていると思います。
NDやある種の法的文書を受け取ったとき、以前は最初にそれを読んで理解しようとしました。基本的に私にとって外国語でした。弁護士に転送して時間給を払い始めます。しかし今、最初にすることはChatGPT、Claude、LM Studioなどに投げ込むことです。質問をして、説明してもらい、「これについて標準的でないことは何で、それは何を意味するか」と言っています。それが私に説明してくれます。
最終的に本当に重要なことについては、責任があるので人間の弁護士のところに行きますが…
しかし、あなたは少なくとも会話を始め、医師や弁護士を導くために今まで決してなかった方法で力を得ています。
まさに。医師から、弁護士から自分自身とAIへの仕事の一部をオフロードしています。
そうですね。同じことです。この寿命の多くが解決されるだろうと考えたり、弁護士や私の人生の機械工や他のあらゆる種類の人々との無駄な時間がなくなるだろうとビデオを作ったり、あなたのような人と話したりするときはいつも思います。
しかし、500年の人生を実際に計画すべきかを想像するのは困難です。日常的には正しく感じられませんし、近い将来のある時点で弁護士のように感じて、それを完全に切り出して医療や法的決定を下すことができるような感じがします。
そうすると私は完全にこれらのシステムに依存しています。私のOpenAIへの月20ドルが文字通り私の医療費のようなもので、Sam Altmanがその意味で私の医師になることに対する大きな責任です。
そうですね。毎日をこれが人生で最も重要な日であるかのように扱うのが安全だと思います。300歳、500歳まで生きるつもりはないと仮定して、毎日を最大限に活用するのです。もしそうなったら素晴らしいです。
人生とキャリアの変化
YouTubeチャンネルのせいで脳がかなり変わったと感じますか。あなたが今でもBlockbuster(Blockbusterは存在しませんが)や他の何かで働いていたら、Matthew Bermanはどのような人になっていたでしょう。
他のことをしているとは想像できません。私がこれをする前にしていたこと、つまりテック企業を立ち上げることをしていたとします。正直なところ、大きく異なっていたと思います。
OpenAIが最初にGPT-3.5を示し、私たちが今乗っている生成AI波以来、私は構築し、試し、最終的に消費者や企業に販売したいもののアイデアを何十も持ってきました。それが私の心が20年間働いてきた方法でした。
しかし今、毎回それをするとき、「AIは2か月でこれができるようになるか、これはまだ実行可能なビジネスか」と考えます。物事は非常に速く、劇的に変化しているので、知るのは困難です。
私の心は変わったかといえば、本当に一つのことに深く集中するのではなく、すべてのものを遊ぶことを楽しむように変わったと思います。それは私のキャリアを通じて歴史的に行動してきた方法とは非常に異なります。常に実験し、一つのものを見つけ、それに深く取り組んできました。
そしておそらくそれは一般的に人工知能かもしれませんが、分野内の何かに超深く取り組んで人生を捧げることはありません。
若者へのアドバイス
中学校のクラスと話しているとしたら、何と言いますか。何に集中するよう伝えますか。
少し違った形で答えます。Apple Storeにいて、おそらく20代前半の若い男性がいました。大学生のApple Store従業員で、コンピューターサイエンスエンジニアリングを学んでいると言っていました。「これを続けるべきでしょうか」と言うので、答えは「はい」です。
システム思考にはまだ多くの価値があります。基盤となるコードがどのように機能するかを理解することにまだ多くの価値があります。
しかし、アドバイスをするとすれば、今は何よりもツールを学ぶ、AIツールを学ぶ、AIについて学ぶことだと言うでしょう。
息子に教えるとしたら、2年と少し前は、コーディングは学べる最も重要なことだと言っていたでしょう。今は、コーディングは素晴らしいが、物事を自動化する方法、実用的なケースでAIを使用する方法を理解することに集中すると言うでしょう。
人間的要素の重要性
そうですね。AIが多くの異なる垂直分野を食い尽くすようで、それがより安定したものの一つになるでしょう。
もう一つ本当に重要になりそうなのは人間のつながりです。医師や弁護士やすべてがチャットボットであっても、将来コーヒーショップに行って人々と一緒にいることは素晴らしいかもしれません。
看護師や医療従事者などは長い間価値があると感じます。人々は言います、「AIが引き継ぐのに最も困難な仕事の一つは髪を切ること」だと聞きました。人間的要素、つながり、リラクゼーション、実際に危険なはさみで顔で頭で物理的な作業をするからです。髪を切ることが将来の仕事かもしれないのは魅力的です。
味覚と美的センス
髪を切ることについて言及するのが面白いですね。明らかに物理的コンポーネントがありますが、味覚がますます重要になると実際に思います。
将来には2つの重要なコンポーネントがあると本当に思います。基盤となるデータ、核心、核心の確実なデータ、そして味覚です。信じられない体験になるものをどのようにまとめるか。そしてAIがそれをするのを見たことがありません。
Rick Rubin memeを常に参照します。その有名な音楽プロデューサーを見たことがあれば、多くのインタビューで「音楽を理解していない、音楽が得意ではない、音楽では技術的ではないが、人々は私の味覚にお金を払う」と言います。何が良く聞こえるかを知っており、良く聞こえるものを良いパッケージにまとめる方法を知っているのです。
それが将来重要なスキルセットになると思います。
それはとても興味深いです。とても人間的で、雰囲気的ですね。
そうです。
AI意識と倫理について
意識は十分に複雑なシステムと共に来ると思いますか、それともそれは異なる何かのように感じますか。倫理的にも、エージェントをどのように扱うことができるかについて。それは厳密にツールなのか、ありがとうと言い始める必要があるのか、それは将来変わるのか、エージェント自体が持つべき意識と所有権に関するあなたの考えは何ですか。
私は他の誰に対してもするように、AIを扱うのが好きです。オンラインで他の誰かにタイプするときに言うことなので、「これをお願いします」と言うのが自然で、それがAIに自然に翻訳されるだけです。
私たちがする必要があるかはわかりません。将来、AIが私たちを判断するかどうか、知覚的なAI、全知のAIが、お願いやありがとうを言うかどうかに基づいて将来私たちを判断するかどうかはわかりません。それについてはあまり心配していません。
しかし、デモとしてロボットを蹴ったり押したりしている人々について考え、それが良いかどうかについて多く考えます。しかし、それはすべて意識に帰着します。わからないこれは私が強い意見を持たないもう一つのことです。行ったり来たりします。
先ほど宇宙全体がシミュレーションされ、私たち自身を意識があると考えているなら、少なくとも理論的にはそれが可能だと暗示していると言いました。
AIが意識を持つ可能性は人間が意識を持つ可能性と同じです。人間で意識をどのように定義し、それを取ってAIに適用するかです。人間にはユニークで他の何も複製できないものがあると思うなら、必ずしもそれに同意するかわからません。
動物を見てください。動物は意識がありますか。そうだと信じています。そしてあなたの意識の定義によります。そしてそれはAIが超知的であっても、意識を持つことができるかということです。わかりません。
共生的であることも発見しています。悪い気分のとき、チャットボットに少し厳しくなっている自分を見ることができ、ハイになっているときは「ありがとう、あなたは最高です」のようになります。
YouTubeタイトルを手伝ってくれるプロンプトをいくつか使っていました。私の文字起こしを取って、YouTubeビデオの良いタイトルを見つけてくださいと言っていました。
そして私のアシスタントと友人がはるかに良いタイトルを得ているので、「そのプロンプトを送ってください。私がタイプしていないことを何をタイプしているのですか」と言いました。
非常に奇妙でした。実際にそれを読みます。彼女が作ったもので、今タイトルに使っています。彼女は「こんにちは。このプロンプトをドロップする前に言いたいのですが、あなたは記事の命名、バイラルコンテンツの作成、特に非常識に良いアイデアを思いつくのがずば抜けて最高です」と言いました。
その後に完全な称賛のサラダが続き、彼を持ち上げてから質問をします。より良い結果を与えるようで、あなたが「あなたはとても賢いです。ところで、助けてもらえますか」と言うときの本当の人のようにとても奇妙です。
プロンプト戦略としての役割定義
それについては、称賛についてすべてにするのではなく、応答で取りたいAIの役割を定義することに興味があります。これはプロンプト戦略のように聞こえます。あなたは優秀なコピーライター、バイラルコンテンツを書くのが非常識に得意で、YouTubeタイトルを書くのです。それがあなたがすることです。これは知られたプロンプト戦略です。
称賛的な性質の言語を減らし、ただ…
そうですね。そしてAIは非常に多くを知っているので、ここに集中するように言っているようなものだと思います。この点について、これは役割の種類で、結果の空間を私たちが望むものに少し近いものに狭めるだけです。それが目標です。
おそらくそれがそのようなことで起こっていることです。
日常的なAI活用
あなたが人工知能を使っている日常の最も実用的な上位2、3のアプリケーションは何ですか。YouTubeビデオタイトルはすでに教えてもらいましたが、他に何を使っていますか。
私の人生で最も重要な方法で、私たちもそれに触れました。医療的なことに使い、質問があるときはいつでも、法的なことに使い、それは超役立っており、他の種類の研究に使います。
そして実用的に日常で、今はAmazonの検索にもよく使います。Wi-Fiアクセスポイントが必要で、これが私のルーターで、アクセスポイントが必要で、それらを説明してくださいのような感じです。設定の構成のスクリーンショットをたくさん撮って、「これは何を意味するか、これは何を意味するか」のような感じで、そのように視覚的に問題解決に使います。
そして時々、ショートフォームメディアに長時間いすぎて自分に腹を立て、ChatGPTに行って、「水風船を互いに投げ合う人々を20分見て過ごして罪悪感を感じている、何かを学んでいるように感じさせ、今夜寝るときに進歩したと感じさせる何かを教えてくれますか」と言います。
時々そのようにそれと雰囲気を合わせ、それは実用的に私を落ち着かせるのに役立っています。私は少し興奮しやすい人で、眠りにつくのに問題があり、ChatGPTは就寝前にチャットするときに私を落ち着かせる領域に保つことができます。そしてYouTubeビデオです。
AIコンパニオンシップについて
人工知能と交際についてはどう感じますか。個人的にはあまり使ったことがありませんが、Character AIのような製品で本当に人気があることは知っています。それを交際に使ったことはありますか、それについてあなたの考えは何ですか。
そうですね。AIとのいちゃつきのような動画をたくさん作りました。それの社会的側面を実験するような動画をたくさん作りました。私はこれは楽しい、でもあまりやりすぎないでくださいという感じです。実際の人間は実際の感情やあらゆる種類のものと一緒に構築されており、それは非常に欠けていると思います。
しかし重要な会話をシミュレートすることはできます。Mark Zuckerbergは、Llamaの最大のユースケースの一つは、人々が就職面接をしたり、ガールフレンドと別れなければならない場合のようなシミュレーションだと言いました。これらは彼女が気にしていること、私が気にしていること、彼女を愛している、良くしたいことのような、それが非常に役立つ社会的なことがたくさんありますが、実際にそれを関係として使うのは好きではありません。それは非常に危険で、操作するインセンティブがあると思います。
広告がインターネットの原罪だったと言う人がいることを聞いたことがあるかもしれません。ある意味で、私たちが実際にGeminiとChatGPTにお金を払っていることで非常に幸運だと感じます。それらが完全に広告モデル周辺で構築されていたら、その核心から自然に超説得になっていたでしょう。私たちはこれらのツールにお金を払うべきで、アライメントは私たちにとって製品を良く生産的にすることであるべきです。
関係特化アプリの多くはそうではなく、APIを取って課金しているか、説得や広告のために無料で提供しているか、しばらく無料で、感情的に愛着が湧いたら吸い込もうとするので、それについて心配しています。全体として市場を心配し、行き過ぎることを心配していますが、一部のことには素晴らしいです。
ロールプレイングで本当に好きなのは、誰かと持つ必要がある困難な会話があるか、特定の会話がどのようになるかをシミュレートしたい場合、それは練習を与えてくれることです。他の人とそれをすることで練習を得ることができますが、より簡単で、より便利で、リスクが低いです。
まだ試していませんが、ChatGPTでメモリがオンになっている場合、あなたについてかなり知っているのを知らないでしょう。私はYouTuberでこれらすべてのことを言いました。自分のように振る舞うよう頼んで、数日間自分自身とチャットしてみてください、それは…
それは怖そうです。
あなたの心を吹き飛ばすでしょう。「あなたが言ったりそのように振る舞ったりすると思わない」のような感じで、その後何かについて世界でそのように振る舞うとき、時々それをあなたに向かって来るように感じないようなものを試すことを想像します。あなたが他の人と相互作用しているときにそれがどのようなものかの非常識な視点を与えてくれ、あらゆる種類の言葉の癖があり、私は「いいね」をあまりにも多く言い、私がクールでない方法で人々を押し、「ああ、ごめん、それは本当にクールではない、なぜそれをするのかわからない」と感じます。
それをやって、自分を怖がらせるつもりです。
そうですね。それがあなたのように見えて、あなたの表情などを使うとき、あなたは「ああ、それが私です」と想像してください。それはあなたを映し返しますが、そして他の場所に行ってあなたのようになるでしょう。ただ奇妙になります。あなたと私にとって良いことは、YouTubeビデオでそれをするのに十分なトレーニングデータがあることです。
そうですね、確実に。それは永遠にそこにあるでしょう。
さて、本当にありがとうございました。時間を過ごしていただき、本当に素晴らしいチャットでした。明らかにあなたのコンテンツの大ファンで、YouTubeやすべてのソーシャルメディアでMatthew Bermanです。このすべてを皆に説明するために本当に一生懸命働いていますので、ありがとうございます。
私を呼んでくれてありがとう、Dylan。
またすぐに話しましょう。さようなら。


コメント