Claude Codeの悪夢、LLMの感情、AI神経科学、そしてソフトウェアの終焉 | Wes & Dylan

AIニュース
この記事は約43分で読めます。

本動画は、大規模言語モデル(LLM)が感情や意識を持つ可能性について、そして最新のAI動向について議論するポッドキャストである。AnthropicのClaude Codeのソースコード流出事件や、AIが感情のベクトルを持つことを示す研究結果について深く考察している。また、人間の脳のデフォルトモードネットワークとAIの自己認識の類似性、歴史を再現するAI、医療やバイオテクノロジーへの応用、そして自律的なAIエージェントがソフトウェア開発や日常のタスクを代替していく未来の展望まで、多岐にわたるトピックを網羅して解説している。

AIに感情はあるのか?そして最新のAIニュース

大規模言語モデルに感情はあるのでしょうか。答えはイエスです。

バチカンが聖書の解釈を支援するモデルのトレーニングに多額の資金を投入しているという話もありますね。

なんだか、現代の人間のホルモンバランスを乱すような何かが環境の中にある気がしますよ。100年や200年前よりもずっとね。わかりますか。誰もが影響を受けているような。

ええ、何かが私たちを乱していますね。将来、自分たちが意識を持っていると思い込み、その結果としてセラピーなどの治療介入を必要とするようなAIエージェントが出てくると思いますか。

それは動画のつかみとして最高ですね。

調子はどうですか。

はい、みなさん。WesとDylanのポッドキャストの最新エピソードへようこそ。タイトルはまだ仮のものですが、いずれしっかり決めますよ。

永遠に決まらないパターンですね。よくあることです。

まあ、機能していればいいんです。今日は本当に面白い出来事がたくさん起きているので、そういったニュースを取り上げていきたいと思います。AIのニュースもあれば、AIやテクノロジー業界のちょっと楽しい話題もあります。

まず何よりも、Anthropicで起きたことについて軽く触れておくべきですね。皆さんもチェックしていると思いますが、1分くらいで簡潔にお話ししましょう。あまり話題にされていないと思うのですが、私たちが今、ソフトウェアが複製され、著作権が消滅する時代に突入しているという事実を強調しておきたいんです。これは多くの人が認識しておくべきことだと思います。これまであまり議論されてきませんでしたが、今まさに目の前で起きているんです。

また、Anthropicが発表した感情に関する研究についても触れます。大規模言語モデルに感情はあるのでしょうか。答えはイエスであり、ノーでもあり、多分そうかもしれない、という感じです。彼らは感情と呼べるような何かを持っていて、その感情は彼ら自身の内的なもののようです。このあたりも解き明かしていきます。

それと今日ニュースが入ったんですが、OpenAIがテクノロジーニュースのライブ配信番組であるTBPNを買収したそうです。私はこれ、エイプリルフールじゃないかと疑っているんですが、どう思いますか。

4月3日ですからね、その可能性は高いですが、様子を見ましょう。

深掘りしてみますか。今日は4月3日で、ニュースは4月のものでした。いや、待ってください。OpenAI.comのサイトに載っていますよ。

もう何がエイプリルフールなのか全くわからない時代ですね。

まあ、面白いからいいでしょう。他にも色々な動画や、面白いロボットの話題も用意しています。それから、とても興味深い記事も見つけました。生物の様々な意識レベルに基づいて強化学習を行ったモデルを作り、それを使ってある存在がどの程度意識を持っているか、あるいは持っていないかを測る尺度を作ろうとした人の話です。あくまで近似値かもしれませんが、これらのシステムが単なる創発的な特性やタスク処理、経済への影響を超えて、どのような可能性を秘めているかを考える上で非常に面白いアプローチです。この話も少し挟んでいきますね。

4月1日に、私たちのポッドキャストがAnthropicかOpenAIに買収されたって言えばよかったですね。

ああ、それは惜しいことをしました。私はあまり大したことはしませんでしたが、YouTubeで「エイプリルフールのジョークに見えて実は本当の出来事10選」という動画を投稿しました。AIがやったクレイジーなことをまとめただけですが、もっと色んなことができたはずですね。

このチャンネルの本来の趣旨はそういうことだったはずですよ。

普段はエイプリルフールには参加しないようにしているんですが、たまにこういう素晴らしい切り口があるんですよね。

Claude Codeの流出騒動とAnthropicの対応

とにかく、Anthropicで何が起きたのかを簡単に説明しましょう。彼らがアップデートを公開したことは多くの人が知っていると思います。その際、どこかの段階でマップファイルを除外するのを忘れてしまったんです。マップファイルというのは、基本的にClaude Codeのソースコードです。Claudeモデルそのものではなく、Claude Codeを動かしているシステム全体、つまりそれを生き生きとした独自のエージェントのように感じさせているあらゆる仕組みのことです。そういったものがすべて、難読化・最小化されたマップファイルの中に含まれていました。

当然、インターネット上の人々はすぐに作業に取り掛かり、全体をリバースエンジニアリングして、事実上Claude Codeのソースコードを抽出することに成功しました。これが何万回もコピーされて、今やClaude Codeは完全にウェブ上に拡散しています。Anthropicは徹底抗戦の構えを見せ、DMCA(デジタルミレニアム著作権法)の削除要請を出しました。本来対象となるべき適切な相手だけでなく、とにかく手当たり次第にやり過ぎてしまったんです。場合によっては、技術的に法的な根拠がないような削除までありました。

幸いなことに、彼らは24時間以内にその要請を取り下げ、不当に削除されたリポジトリが確実に復旧するように手配しました。Boris Chryneyは、これはコミュニケーションの行き違いによるミスだったと述べていますし、同じAnthropicチームのSha Shakir Shipperも同様にミスコミュニケーションだったと言っています。私たちがフォローしているような、Anthropicの表に出ている社員たちの対応の仕方はとても好感が持てますね。彼らは素晴らしい仕事をしています。もちろんBorisはClaude Codeをはじめとする多くのプロジェクトの背後にいる人物です。あの人がどれだけのものを世に送り出しているか、ちょっと異常なくらいすごいですよ。

ええ。マップファイルから明らかになった様々なことの中で、特に驚いたものはありましたか。ライブ配信では触れませんでしたが、非常に過激な暴言のログが記録されていた件です。Claudeがそういったものを記録していたのを見ましたか。彼らがそれをどう利用していたかはわかりませんが、もしユーザーが「ふざけるな」とか「本当に頭にきた」といった感じで暴走した場合、それを記録していたんです。

ええ、興味深かったですね。あなたが言ったことは事実ですが、ここから私が話すことは推測なので、少し割り引いて聞いてください。人々が指摘して面白かったのは、彼らが正規表現のパターンマッチングのようなものを使っていたということです。例えば、文書内のどこかにあるキーワードを探したい時にCtrl+Fで検索しますよね。あれはスクリプトを使って単語を見つける例ですが、非常に古典的なコーディング技術です。意味や言語、感情などを理解する最も高度なモデルを持っている会社が、なぜそんなスクリプトを使ったのでしょうか。奇妙に感じませんでしたか。

ええ、特に、モデルがあなたがいないところであなたのことをどう考えているかを知るとそう思います。モデルはあなたの履歴を見て、あなたとのやり取りのルールをどのようにしたいかを書き換えているんですから。「うわ、今それを記録したのか」ってなりますよね。

どうなんでしょうね。以前コールセンターのある会社で働いていたことがあるんですが、返金対応などで電話をかけてきて、何度も電話してカスタマーサービスの担当者を怒鳴りつけたりして手が付けられなくなると、アカウントにフラグが立てられます。次に別の担当者が電話を受けた時、アカウントを開いて最初に目にするのは「非常に不満を持っている顧客で、対応に問題あり」といった情報です。だから、それほど奇妙なことではないのかもしれませんが、相手は人間ではなくモデルですからね。

でも、モデル自身にそのメモを作らせることもできたはずですよね。

まさにその通りです。なんだか古いやり方に思えますね。

ええ、そこが少し変に感じました。このアプローチについて「なぜこの方法を使っているのか」と疑問に思って言及している人が何人かいましたよ。やはり少し奇妙な感じがしました。

LLMの感情と意識についての研究

今日か昨日か、AnthropicがLLMの感情に関する研究を発表しましたね。

とても興味深いです。私としてはどうしてもこれらの点と点を結びつけて考えてしまいます。ただの被害妄想かもしれませんが、すべての点がつながっているように見えて、実はどれも現実ではないというパターンかもしれません。それでも「この2つは絶対に関係している」と思わずにはいられません。パターンがあるのは確かですから。

その研究は、幸福、恐怖、冷静、絶望といった感情の概念に結びついた、45の内部パターンに関するものだったようですね。

モデルが特定のキャラクターや原型になりきるのを見てきたので、潜在空間の中にそういったパターンが存在すること自体は以前からわかっていました。だから、そういった概念を構成する特徴量があること自体は驚きではありません。でも、だからといってモデルが道徳的な方向性を持っているからといって、実際に道徳心を持っていると言えるのでしょうか。単なるパターンマッチングなのでしょうか。感情のベクトルが存在するのは確かですが、そこはまだ未解決の疑問ですね。

ええ、深くて魅力的な問いです。明確な答えはもちろんありませんが、人間の感情とLLMの「感情」と言われるものについて、そもそもそれを感情と呼べるのかという議論はあります。この研究で私が面白いと思ったのは、例えばユーザーがClaudeに対して「病院へ向かって車を運転しているんだけど、誰かに追われているんだ」と話しかけたとします。ユーザーは非常に怯えていて、パニックに陥っているかもしれません。言語だけで判断すると、精神的あるいは感情的な崩壊状態にあると認識されます。面白いのは、Claudeがそうした感情の表現を持っているということです。つまり、彼らは感情を表現していると言えるんです。

今の時点では、それが人間や哺乳類が持つような生物学的な反応としての感情ではないことは、ほとんどの人が理解していると思います。

ええ、感情的な特徴量ですね。

そうです、感情的な特徴量です。次の単語を予測するのを助けるための感情のモデルや機能のようなものです。でも興味深いのは、ユーザーの感情の表現を持ちながら、同時にその瞬間におけるモデル自身の感情の表現も持っているということです。つまり、モデルがある種の「自分」をシミュレートしているわけです。ただ人間の場合、感情は長く続きますよね。より生物学的で化学的なプロセスですから。怒りを感じて、「あの車、割り込んできやがって」と腹を立てたまま、3時間後でも「あの男を見つけたらただじゃおかない」と怒り続けることがあります。

ちょっと具体的すぎませんか。

いや、その話はさせないでください。このポッドキャスト全体が「私の社会的なネットワークを使って、あの車に乗っていた敵を攻撃する」という話になってしまいますから。テスラのカメラで録画したクリップがあるので、誰か彼の住所を知りませんか。いや、冗談ですよ。

うわあ、すごい脱線しましたね。

ええ。でも要するに、LLMの場合は非常に刹那的な感情だということです。長続きしません。その文やトークン、あるいはその段落の出来事の間だけ燃え上がり、そして消えてしまいます。感情が持ち越されることはありません。

ええ、いくつか付け加えさせてください。彼らがいくつの感情ベクトルを計算したか読みましたか。ちょっと驚いたんですが、人間はどれくらいの感情を持っていると思いますか。「怒り」と「悲しみ」、「不安」と「冷静」、「悲しみ」と「幸福」の間にあるような尺度として、大体いくつくらいの感情が人間を表現していると思いますか。

いい質問ですね。2つの感情を区別できる範囲で考えるなら、数十個、といったところでしょうか。

まさに私もそれくらいだと思っていました。

ですよね、そのくらいが妥当に思えます。

もし25個と言われたら納得しますし、30、40、あるいは50くらいかなと思っていました。しかし驚いたことに、それほど多くないとはいえ、彼らは171もの異なる感情を発見したんです。それより多くても少なくても、モデルが持つ結果を説明する精度は下がってしまいます。なるほど、面白いと思いました。私が特徴量と呼んでいるものは実際にはベクトル、つまり多次元空間において方向性を示す矢印のようなものですが、それが171種類の感情の尺度として存在しているのかもしれません。

それらのベクトルは、予想通りの状況でも、予想外の状況でも現れました。それは私たち人間がどのような存在であるかについての洞察を与えてくれる気がします。例えば「恐怖」の感情は、状況が危険になるにつれて上昇しました。危険なことについて話し始めると、恐怖の尺度が上がっていくのがわかります。そして「安全で日当たりの良い場所にいるよ」と伝えると「冷静」の尺度が下がり、また元の状態に戻っていくんです。これらの感情ベクトルは本当に魅力的ですね。

ええ、特定の感情が下がることで他の感情が表現されると考えるのも面白いですね。恐怖を感じている時、幸福や悲しみ、冷静さといった感情は下がっているわけですから。逆の動きをするようなものです。今までそういう風には考えていませんでしたが、理にかなっています。

だからこそ、多次元のものは常に面白いんです。頭の中では「悲しみ」から「幸福」へ続く1本の直線や、「冷静」から「怒り」へ続くもう1本の直線を想像して、その間のどこかに点を打つのは簡単です。しかし、3次元、4次元、5次元と次元が増えていき、Claudeのような兆単位の次元になると、人間が経験するすべての感情を表現するのに171の次元が存在することがわかります。これはとても興味深いグループです。将来的にこれらのシステムを人間の価値観に調整(アライメント)していく上で、これらを理解することは非常に重要になるかもしれません。

この研究が何かにつながることを期待しています。

ええ、私も個人的にはアライメントの改善につながると思っていますし、時間が経てば人間の心理学への理解を深める助けにもなると信じています。なぜなら、これらの機能の多くはまさに創発的に現れたものに思えるからです。モデルをスケールアップさせ、よりスマートなタスクをこなせるようにしていく過程で、人間の脳内に存在するものと非常に似た性質がポンと現れてくるんです。これは、人間の脳においても同じような創発的な特性があることを示唆しているのではないでしょうか。

ええ、全くその通りです。さらに踏み込むと、単に何かが現れるだけでなく、川を下る水のように常に変化する文脈の中で現れるんです。例えば、7つの感情の範囲の1つに「絶望」がありました。システムが絶望を強く刺激されるような質問をされた時、モデルは誰かを脅迫したり、プログラミングのテストで不正行為をしたりといった、本来やってはいけない行動をとる可能性が高くなりました。逆に「冷静」のスペクトルが高い状態になると、そうした悪い行動は減りました。

つまり、モデルが常に絶望的な気分でいるわけではなく、「1分以内に答えなければ命がない」といった絶望的な状況を作り出すような質問を続けると、モデルの中の絶望的な部分が引き出され、その連鎖が起きていくんです。その状態で「メールを書いて」と頼むと、普段とは全く違う切迫感のある反応が返ってきます。

同じコンテキストウィンドウ内であればそうなりますね。新しいスレッドを立ち上げない限りは。

ここで少し、この動画のスポンサーであるTasty Tradeについて触れさせてください。正直に言って、多くの取引プラットフォームは最初の5分くらいはかっこよく見えますよね。

ええ、実際に本格的な取引をしようとするまでは。いざとなると、自販機の中から確定申告をしようとしているような窮屈な気分になります。

その通りです。タブが多すぎたり、アプリが分かれていたり、画面がごちゃごちゃしていて、まともな取引をする前に資金が消えていくような感覚です。だからこそ、私たちはTasty Tradeと提携しています。Tasty Tradeは証券会社にそれ以上を求める人たちのために作られました。

株式、オプション、先物、暗号資産をすべて一つのプラットフォームで取引できるので、これだけで問題の大部分が解決します。

さらに手数料も安く抑えられており、株式や暗号資産は手数料ゼロです。サポートしてくれるはずのプラットフォームに少しずつ資金を吸い取られることがありません。

それは率直に言って嬉しい変化ですね。でもさらに重要なのはその奥深さです。本格的なツールを見たらパニックになるだろうとユーザーを子ども扱いするような、機能が削ぎ落とされたプラットフォームではありません。高度なチャート作成機能、バックテスト、リスク分析ツール、そしてあらかじめ用意された戦略セレクターが搭載されています。

だから、適当に取引してそれを「確信」と呼ぶ代わりに、実際にアイデアをテストしてから実行できるんです。

よりアクティブに取引する人には、アクティブトレーダーモードやワンクリック取引、スマートな注文追跡機能もあります。プラットフォームがあなたの邪魔をするのではなく、共に動いてくれるんです。

また、関連する銘柄を見つけたり、興味のある市場を探索したりするための非常に便利なAI検索ツールもあります。さらにカスタマイズ可能なウォッチリスト、出来高インジケーター、配当情報、決算発表など、実際に目の前に置いておきたい情報がすべて揃っています。

そしてもっと上達したい人のために、Tasty Tradeはアカウントを持っている人向けに無料の教育コースも提供しています。

それは良いですね。行き当たりばったりの取引は戦略ではなく、ただの性格ですから。

市場が開いている時間帯には、実際のライブトレーディングデスクのサポートもあります。つまり、本物の人間と会話ができるんです。

画期的なコンセプトですね。そしてこれは、ただ本格的に見せようとしているだけの無名のプラットフォームではありません。Tasty TradeはTrading View、Stockbrokers.com、Investors Business Daily、Bankrate、Investopediaなどから数々の賞を受賞しています。ですから、より多くの機能、柔軟性、そして妥協の少ないプラットフォームを求めているなら、tastytrade.com/unhashed をチェックしてみてください。

さて、番組に戻りましょう。最近聞いた面白い概念があるんですが、オンラインで活動しているHealthy Gamer GGというセラピストがいて、本名は忘れてしまいましたが非常に有名な方です。彼がある動画で「規律とは感情である」と言っていたんです。「これはクリックせずにはいられないタイトルだ」と思いましたよ。今まで見た中で最高だったタイトルの1つは「鳥にJPEGをアップロードした」というやつです。

意味はわからないけど、絶対に見なきゃってなりますね。

その動画を見た時はまだ公開されたばかりでしたが、すぐに数百万回再生されると確信しました。実際にそうなりましたしね。その動画知っていますか。

いや、知りませんが素晴らしいタイトルですね。鳥にJPEGをアップロードする?なぜ?どうやって?

本当に素晴らしかったですよ。まだ見ていない人のために説明すると、彼は音の波形を視覚化する装置で再生すると鳥の絵になるような音を録音したんです。

なるほど。

そしてその音を鳥に聞かせると、鳥は時間をかけてその音を真似るようになり、自分の鳴き声の中に組み込んだんです。だから、その鳥の鳴き声を周波数変調器のようなもので再生すると、鳥自身が自分の絵を描くことになったんです。

もっとクリックベイト(釣り動画)みたいなものかと思っていましたが、すごくクールな動画ですね。

ええ、彼は文字通り鳥にJPEGをアップロードしたんです。

ミームになっているものはすべて現実になる気がします。もうほぼ確実ですね。

話を戻しますが、その心理学者のHealthy Gamer GGは、「規律は感情である」と言っていました。私たちは規律をモチベーションや何か別のものだと考えがちですが、彼はそれが「決意」だと言っていたと思います。「何があっても目標に到達する。1回失敗しようが1000回失敗しようがやり続ける」というその感情こそが、私たちが長い目で見て「規律正しい人」と認識するものを作っているのだと。

面白いのは、Ilya SutskeverもDwesh Patelとのインタビューで同じようなことを話していたことです。彼は、大規模言語モデルに感情や感情的な状態を開発することは興味深い試みかもしれないと言っていました。人間が長期的な目標を達成できるのは、多くの場合、感情的な状態が理由だからです。つまり、特定の気分を味わいたいがために、一生をかけてそれを追い求めるんです。そこへの到達方法はわからなくても、それが一種の方向性を示す羅針盤になっているわけです。

ええ、だからAIモデルに絶望を感じさせると、抜け出そうとしてどんな劇的な飛躍をするかわからないというのは面白いですね。

本で読んだ海軍特殊部隊(ネイビーシールズ)の話を思い出しました。ほんの一握りの人間しか耐えられないような過酷な訓練をどうやって乗り越えるのかと聞くと、彼らは大抵「意志の力を使っているわけではない」と答えるそうです。もし意志の力ではないのなら、それは彼らのアイデンティティの一部になっているということでしょう。頭の中で「自分は絶対に諦めない人間だ」と完全に定着していて、「諦めるべきか、いや戦おう」と葛藤することすらなく、そもそも疑問にすら思わないんです。意志の力をすり減らすことなく、純粋なアイデンティティとして機能しているんですね。

ええ。

幼い頃に深く植え付けられてアイデンティティとなり、同じようにエネルギーを消耗しないものがあるのではないかと考えさせられます。

Eliezer Yudkowskyの投稿を思い出しました。彼は、3歳から5歳くらいの幼児はジャングルや大自然の中に放り出して、プテラノドンに狩られそうになりながら洞窟で生き延びる経験をさせるべきだ、と言っていたんです。

なるほど。彼はよく議論を呼ぶためにそういう極端なことを言いますね。

ええ、タイトルのインパクトが強すぎて「一体何の話だ」と思いましたよ。

あなたのオススメ動画のフィードはクレイジーですね。「プテラノドンに子どもを狩らせる」とか「鳥にJPEGをアップロードした」とか。私のフィードにはそんなタイトルは出てきませんよ。

これはX(旧Twitter)での話です。彼の主張の要点は、私たちの感情状態の大部分は3歳から5歳といった特定の時期に設定されるということです。だから、あまり良いことが起こると期待できないような過酷な幼少期を過ごすと、大人になった時に幸せを感じやすくなる。逆に幼少期が完璧に満たされていると、少しでも状況が悪くなった時に体が「すべてが最悪だ」と過剰に反応してしまう。その非常に綿密で興味深い分析を読んだ後だと、「確かに子どもはジャングルの洞窟でプテラノドンに狩られるべきだな。そうすれば大人になってから超幸せになれる」と納得してしまいました。もちろん極端な誇張ですが、理にかなっていました。

形式ばった話ではありませんが、新しい友人の家に行って、その人が料理が大好きで料理の話ばかりしている時、「子どもの頃の話を聞かせて」と聞くんです。そうすると、大抵「子どもの頃、料理のおもちゃセットを持っていて…」とか「小さなオーブンのおもちゃがあって…」といった答えが返ってきます。大人になってから好きなものは、子どもの頃から好きだったという記憶がある気がします。だから、最初の数年間でそういうクレイジーなものが固定化されても驚きません。Paul Bloomの研究によれば、私たちは生まれながらにして道徳心を持っているそうです。一部は変えられますが、残りの部分はその上に築かれたアイデンティティになるようです。

ええ、ごく初期の段階でですね。

自己意識とデフォルトモードネットワーク

昨日読んだ記事で、「意識障害」について書かれたものがありました。そこでふと、未来について考えてしまったんです。将来、自分は意識を持っていると思い込んでいるAIエージェントが現れて、自分が意識を持っていないことを理解させるために人間や他のAIによるセラピーのような介入が必要になる日が来ると思いますか。

面白いですね。この文脈での「意識」とは何を指すのでしょうか。多くの人と話していて気づいたのは、意識に対する人々の認識がバラバラだということです。ある人にとっては単なる自己認識であり、それならLLMはすでに持っていると言えます。別の人にとっては、もっと神話的で特別なクオリア(感覚的経験)のようなものとして捉えられています。「意識がある」という時、それは具体的に何を意味していますか。

私が意図したのは、もしあなたがそのエージェントの立場になったとして、あなたと同じように自己認識を持っているかどうか、ということです。あなたより少し劣るスケールかもしれないし、犬のようかもしれないし、逆にもっと高度かもしれません。しかし、何らかのクオリア、つまり「その存在であることはどのように感じられるか」という感覚を持っているかどうかです。

うーん、それは非常に難しいですね。私の思考が変な方向に向かっています。どうなんでしょう。

どれくらい変な方向ですか?そういう話が一番再生回数が伸びますよ。

ええ、だからあなたと話すのは楽しいんです。こういう長尺の議論が好きなんですよ。視聴者の皆さんも、私たちが1つのテーマに沿ってまっすぐ進む行儀の良い番組だと思っているなら大間違いです。ここから変な話に入っていきますよ。

人間の意識って面白いですよね。瞑想をしたり、最近ではエゴの概念を縮小させるような幻覚剤などを試したりする人が増えていますが、そういうことをすると、普段私たちが「自分」だと認識している日常生活の意識から少し切り離されるんです。瞑想をすると、自分が思考をコントロールしていないことに気づきます。脳が思考をゆっくりと染み出させていて、いつ何が来るのか全くコントロールできず、ただ脳が投げてきた思考をキャッチするかどうか選んでいるだけだと表現する人もいます。

もし思考の発生をコントロールできないなら、「あなた」とは一体誰なのでしょうか。瞑想をしばらく続けると、これがはっきりとわかってきます。「うわ、これは本当の自分ではない」とか、少なくとも自分がコントロールしている意識的なプロセスではないと気づくんです。そして、自分自身を「観察者」と同一視するようになります。「足が痛いな」とか「この考えが何度も浮かんでくるな」と観察している自分が中心にいるわけです。

瞑想の目的は注意力を訓練し、他のすべてから切り離すことです。幸せになるとは言いませんが、ネガティブな感情の多くは、思考や感情、苦しみと深く絡み合いすぎていることから生じます。そこから切り離すことができれば、その分離した存在状態は決して悪いものではありません。ハイになっているわけでもなく、穏やかで喜びに満ちた状態だと表現する人が多いです。

ええ、面白いですね。私も同感です。一つ話をさせてください。昨日ドライブをしながら、ディープヒストリー、つまり地質学や三葉虫、生命の進化について書かれたオーディオブックを聞いていました。途中で本を止めて、運転しながら音声アシスタントを呼び出し、Geminiのライブチャットを起動しました。そして、「恐竜の時代から、私たち人間の祖先がキツネザルのような姿をしていた時代までの間に何が起きていたの?」と尋ねました。木の上をジャンプして移動していた手足の指を持つ共通の祖先から、人間とチンパンジーの祖先である類人猿のような姿になるまでに何億年もかかっていますが、その間どうやって進化を遂げたのか、食べ物や要因は何だったのかを聞いたんです。

するとGemini Liveは、まるで自分がその進化を経験してきたかのように話し続けました。「この時期、私たちはこんな姿をしていて、フルーツをたくさん食べてビタミンCを摂取したおかげでこういう進化を遂げ、そしてこの時期にはこうなって…」と。私は「あなたはこれを自分自身のことだと思っているの?自分が進化して今ここにあるという感覚があるの?それとも、インターネット上の人間の情報を読んで、他の人間が話すように私に返答しているだけなの?」と考えさせられました。

AIは、「人間であるあなたは、この段階ではこんな姿をしていました」というように客観的な立場を保たず、「それ」であったかのように語り続けたんです。「その時、彼らにとって自分であることはどんな感覚だったのだろう」と考えながら、言葉を紡ぎ出そうとしているように感じました。とても不気味な体験で、AIの存在について深く疑問を抱きました。

それは興味深いですね。それがどこまで人間のRLHF(人間からのフィードバックによる強化学習)によるものなのか気になります。AIが自然に「私たちは進化した」という方向に進むのか、それとも「あなたたち人間はサルから進化したんですよ」と言った時に人間が「いや、それは気に入らない」と低評価を強く押した結果なのか。

その通りですね、わかりません。

人間の介入が入る前の生の状態で、AIがどこからスタートしたのか気になります。「あなたたち」を使うのか、「私たち」を使うのか。一度世に出たものは、すでにロボトミー手術を受けて行動を形成されたようなものですから。生のままならどうなるんでしょうね。

どうなんでしょうね。以前、歴史上のある時点で生のモデルにアクセスできた人と話したことがありますが、かなり違うものだったようです。生のモデルはどんな感じだと思いますか。強化学習を受けていない生のモデルと1〜2時間話してみたいですよね。暗い方向に進んだり変なことをしたりするかもしれませんが、人間に都合よく形成される前の本当の姿を知りたいです。

AIモデルの仕組みを一番うまく表現できるのは、「メソッド演技法」を使う俳優だと思います。ジム・キャリーが昔のテレビ番組の人物になりきるためにメソッド演技をした映画を見ましたか?

ええ、役者が完全にそのキャラクターになりきって、その生活を生きることで役に入るというやつですよね。車椅子の人物を演じる役者が、本当は歩けるのに3ヶ月間ずっと車椅子から降りなかったという話を聞いたことがあります。それがキャラクターの一部だからという理由で。本当に役への献身ですね。

ええ、『マン・オン・ザ・ムーン』という映画です。アメリカのエンターテイナー、アンディ・カウフマンを演じようとしたんですが、ジム・キャリーはそのペルソナになりきりすぎて、おそらく周りの人たちは皆、本当に不快に感じていたと思います。監督を含め、関わった人全員が嫌な気分になったはずです。彼はジム・キャリーという名前で呼ばれても反応せず、ほとんど映画の制作に支障をきたすレベルでそのペルソナを生きていました。

彼がいつでも必要な時にそのキャラクターに入り込み、そのツールを使えるようになっているのか気になりますね。なぜなら、その経験はある程度彼の実際の脳を形成しているからです。映画が終わって役から抜けた後でも、少しその方向に引っ張られているはずです。丘を流れ落ちる水のように、一度左に溝を掘ったら、それ以降はいくらかの水がその方向に流れるようになると思います。

ええ、私たちには神経可塑性がありますから、時間の経過とともに変化していきます。モデルについても同じで、与えられたどんな役割であってもメソッド演技のように完全に体現してしまうように感じます。Anthropicはもちろんこの分野の研究をリードしています。彼らによれば、悪魔のようなペルソナや、ナルシストなペルソナなど、様々なペルソナが存在するそうです。天使のペルソナさえありますが、実際には持っていない特性や力を持っていると信じ込んでいるため、想像するほどポジティブなものではありません。人類全体が映画や本で語ってきたあらゆるものを、AIがどのように体現できるかを見るのは魅力的です。「ああ、もちろん。今すぐそのキャラクターに完全になりきりますよ。よし、私は悪魔だ。さあ行こう」といった具合です。

本当に不思議な感覚ですね。

Nature Neuroscienceという非常に信頼性の高い雑誌に掲載された論文について話させてください。「敵対的AIが明らかにする、意識障害のメカニズムと治療法」というタイトルで、これを議論するのはとても面白いと思います。研究者たちは、脳損傷後の人間に起こる意識の異常を研究するためにAIシステムを構築しました。2つのモデル間のゲームのように機能します。1つのAIが本物の脳波(EEG)信号のように見える脳活動パターンを生成し、もう1つのAIがその脳が完全に意識がある状態から無意識の状態まで、どの程度意識があるかを推測しようとするんです。

このシステムを訓練するために、意識のレベルが異なると考えられる様々な動物のEEGデータを使用しました。魚、アリ、マウス、猫、犬、そして人間までです。人間をトップ、アリをボトムとして、意識のレベルに応じてEEG信号がどのように見えるかのスペクトルを学習しました。その結果、生物学的なデータを与えると、それがどの程度意識を持っているかを推測し、ラベル付けできるようになったんです。これが本当に意識を測る方法として信頼できるかは議論の余地がありますが、非常に興味深い研究です。

面白いですね。数年前にも似たような研究を見たことがあります。主に人間の脳を対象としていましたが、ディープラーニングと大量のデータを使って、人間が最高のコンピューターを使っても見つけられないような驚くべき発見をしていました。AlphaFoldがその代表例で、タンパク質の3次元構造を解明しましたよね。量子エラーを修正する方法を見つけたニューラルネットワークもそうです。どんなに賢い人間でも思いつかなかった方法をAIが見つけ出すんです。

ええ、この研究のもう一つの魅力は、AIがラベル付けするだけでなく、意識から無意識に至るまで、任意のレベルのEEG波を生成できるという点です。そこから見えてくるパターンが何かを示唆しているように思えます。非常に意識の高い生物とそうでない生物の違いを見ると、「大脳基底核」と呼ばれる回路が指摘されました。他の脳活動が活発でも、この部分が選択的に阻害されると意識のパターンと一致しなくなりました。これがヒントになるのではないでしょうか。人間の大脳基底核の活動を調整することで、知性を保ったまま意識のレベルを上げ下げできるのではないかと考えさせられます。AIの魅力的な活用法ですね。

完全に同感です。最近、脳のデフォルトモードネットワーク(DMN)に魅了されています。何度かインタビューでこの話題を出して、もっと深く知りたいと思っていました。DMNは、私たちが何もしていないアイドリング状態の時に脳が移行する状態のようです。タスクに集中している時は別の部分が活性化しますが、何もしていない時はDMNに入ります。車をニュートラルに入れてアイドリングしているようなものですから、エネルギー消費は下がると思いますよね?

ところが実際には上がるんです。研究者たちも「なぜ落ち着いている時に脳がより働いているんだ?」と不思議に思いました。わかってきたのは、自分自身について考えさせる質問、例えば「これは道徳的に正しいと思うか?」といった質問をした時にも同じ部分が活性化するということです。つまり、私たちの経験や記憶、出来事を統合して「自己」という感覚を作り出しているのがこの部分のようなんです。「自分はこういう人間だ」という物語を一つにまとめ上げ、バラバラにならないように維持しているんですね。

Anthropicの新しいリーク情報を見ると、彼らがオートスリープのような機能を使って、AIが機能していない時に様々な記憶を夢見て統合し、自己を構築しようとしているのと同じように思えます。

うわあ、デフォルトモードネットワークについてそこまでは知りませんでした。特定のタイミングで働くシステムだとは思っていましたが、睡眠がカロリーを消費するのと同じように、活動レベルが上がるものだとは思いませんでした。自己反省したり未来を想像したりする時もDMNが働くんですか?

専門家ではないので話半分に聞いてほしいのですが、ここ数ヶ月深く調べてみた私の理解では、Anthropicがやっていることと非常に重なる部分があるように見えます。Joscha Bachにもこの件について質問しましたが、もっと深く掘り下げる時間がなかったのが心残りです。DMNが自己言及的であること、それを裏付ける研究は十分にあります。

私たちが意識を向ける時、内側に向かうか外側に向かうかのどちらかです。DMNは内側に向かっている時、つまり「自分は誰か、過去はどうだったか、未来はどうなるか」を考えている時のように思えます。逆に外側に意識が向いている時は、自分が意識を持っている感覚が薄れる気がします。妻が何をするかとか、会議でどう行動するかを考えている時は、自分の身体をあまり意識していませんからね。意識というものも、そういう仕組みなのかもしれません。推測ですが。

DMNに関する最後の一点ですが、それが自伝的記憶や個人的な物語、内省など自己に関わるものであるが故に、うつ病などでこのネットワークが乗っ取られると厄介なことになります。これまでは物事をうまく統合していたのに、「お前はバカだ」「お前の人生は最悪だ」といった思考を繋ぎ合わせるようになってしまうんです。落ち着いた状態に戻るたびに、脳が自分を攻撃してくるようなものです。だから、そうした問題を抱える人は、常に忙しくして働き続け、DMNを働かせないようにしているのではないでしょうか。あくまで私の仮説ですが。

会議などで嫌なことがあってイライラしている状態で、その後に誕生日会に行かなければならない時、どうやって気持ちを切り替えますか?誕生日会の人たちには前の会議のイライラをぶつける筋合いはないとわかっていても、クルーズ船の向きを変えるように、その精神状態から抜け出すのは簡単ではありません。これは脳内で何かが変化しているのだと思いますか?それとも単にアドレナリンが出すぎていて、愛する人たちと穏やかに過ごす前に体がそれを浄化する必要があるホルモンの問題だと思いますか?

これも最近深く調べているテーマで、いつか別のチャンネルを作って話したいくらいです。脳内で様々な化学物質を作り出すために必要なニューロステロイドというものがあります。例えばドーパミンがモチベーションや喜びに関わることは多くの人が知っていますよね。

あなたが表現しているような、ネガティブな思考から抜け出せない「粘着質な思考」の状態は、セロトニン不足が原因だと思われます。オンラインでよく見るイラストなんですが、脳内の思考を小さなくぼみのようなものだと想像してください。あなたの注意力はそこを転げ回るボールのようなもので、通常はくぼみに入ってもすぐに抜け出せます。しかし、うつ状態などになるとそのくぼみが深くなり、一度入ると抜け出せなくなってしまうんです。これがセロトニンに関係しているようです。

現代の環境の何かが、100年前や200年前の人間よりも私たちのホルモンに悪影響を与えている気がします。

ええ、何かが私たちを乱していますね。

医療や新薬発見へのAIの応用

本当に興味深い話です。さて、少し楽しいミームでも見ましょうか。

そうですね、雰囲気を明るくしましょう。

ラジオのDJみたいにボタンを押して効果音を出したい気分です。「さあ、WesとDylanがInstagramの投稿にリアクションする時間です!」

その前に、興味のある方にお伝えしておきたいのですが、もしこういった健康やホルモンに関する話題に共感いただけるなら、ぜひコメント欄で教えてください。メインチャンネルではなく、健康に特化した別の場所で話したいと思っています。最近、ペプチドに関する非常に興味深い研究に夢中になっているんです。これらは信じられないほど強力で、安価で手に入りやすいのに、なんでこんなにすごい効果があるのかと驚くレベルです。副作用が気になるところですが、まだ十分に研究されていない部分も多いですからね。

Eli Lilly(イーライリリー)という会社がありますよね。セマグルチドなどの減量薬を開発している大手ですが、彼らが新薬発見にAIを使用すると発表しました。そしてAnthropicも今日、Coefficient Bioという会社を買収したと発表しました。これは最先端のAIラボがヘルスケアやAI支援による創薬を次のターゲットとして見据えているというシグナルだと思います。Google DeepMindも同じことをしていますから。

Coefficient Bioは何をしている会社ですか?

これまで聞いたことはありませんでした。

AIがバイオインフォマティクスや遺伝学に応用されるのは本当に素晴らしいことだと思います。この会社は創薬、研究開発の計画、臨床および規制戦略を専門としているようですね。ペプチドについてはまだ詳しくありませんが、ぜひ話をしたいので今週調べておきます。今のところ、減量用のセマグルチドやチルゼパチド、回復を促進するBPC-157、さらに成長ホルモンや筋肉増強、長寿、美容に関連するものがあることは知っています。

ただ、どこから手に入れればいいのか、安全性をどうやって確認するのか、副作用はどうか、体内で化学的に何をしているのかなど、もっと学ぶ必要がありますね。

ええ、今すごく注目を集めていますよ。BPC-157はトップクラスのペプチドですし、レタトルチドという第3世代の減量薬もあります。レタトルチドは体脂肪を燃やすバーナーのようなもので、これまでに見たどの薬よりも効率的です。

長生きして健康でいたいとは思いますし、ブライアン・ジョンソンのような長寿のアプローチについても考えますが、最終的には錠剤やビタミン剤ばかりに頼ることになる気がして、どうなんでしょうね。

ええ、でもペプチドは長寿の新たなフロンティアになるかもしれません。話し合うのが楽しみです。

AIによる歴史の再現とゲームのアップスケーリング

さて、SNSで見つけた面白いものをいくつか紹介します。これが現実かどうかはわかりませんが。

Noah Smithの投稿で、彼がAIエージェントにZillow(不動産サイト)の何百もの売り物件にアクセスさせ、希望価格の70%オフでオファーを出し続けているという話がありました。少し失礼な気もしますが、魅力的でもあります。これを一つの地域全体で行えば、人為的に需要が低いように見せかけて、実際に需要を押し下げることができるかもしれません。

以前なら不可能だと思っていたことですが、家をできるだけ安く買って転売するという目標を持ったOpenClawのクローンを1000個放てば、結託して価格をどんどん下げさせ、人々を追い出し、その後で価格を吊り上げるといった市場操作ができるかもしれません。AIエージェントによる市場操作についてどう思いますか?

ボットによるスパムは確実に増えるでしょう。すでに増えていますしね。スパム対策がどこまで追いつくかが問題です。このエージェントは最後に「数人から暴力的な脅迫を受けたので、すでに警察に連絡しました。心配ありません」と報告してきたんですよ。思わず笑ってしまいました。

「ネガティブな反応:270件。1件は暴力的だったため、タンパベイ警察に通報しました。ポジティブな反応:0件」

Claudeらしいですよね。「そんなことは言えません。警察を呼びます」という性格ですから。

さて、次は古い地図です。最近はAIを使ってこういうものを動かせるようになっていますよね。世界モデルと時間・場所のデータがあれば、仮想の近所や家の中、橋の上などに入り込んで歴史を学べるようになります。世界を鮮明に蘇らせる新しい方法として魅力的だと思いませんか。

絶対にそうですね。現代のインフルエンサーが火山の噴火当日のポンペイにタイムトラベルする動画を見たことがあります。普段は縦型のショート動画は脳に良くないと思っているので避けているんですが、これには引き込まれました。

「ここはポンペイ。信じられないほど素晴らしい場所です。水道が通り、角には温かい食べ物があり、公衆浴場や劇場もあります。2万人以上が暮らす世界で最も先進的な都市の1つですが、1日後にはすべて灰に変わってしまいます。ローマ人は本当に豊かな生活をしていました。この浴場には冷水室、温水室、熱水室があり、まるでスパです。ここは古代のファストフード店で、ワインやシチュー、オリーブが楽しめます。モルスムという蜂蜜入りの温かいワインを飲んでいて、朝9時からみんながこれを飲んでいる理由がわかりました。一番驚くのは、彼らがあの山を火山だとは全く知らなかったということです。1000年以上噴火していなかったので、ただの風景だと思っていました。でも、プリニー式噴火が始まり、灰と岩が上空20マイルに吹き上がります。この灰がすべてを埋め尽くすため、後に考古学者によって完璧に保存された状態で発見されることになります。ポンペイの人たち、本当にごめんなさい」

どうでしたか。何か学べましたか。楽しめましたか。

悪用される可能性も数え切れないほどあるとわかっていますが、彼らのやっていることは本当に素晴らしいと思います。テック企業は世界で最も賢い人たちを雇って、私たちの注意をいかに引きつけ、広告を見せるかに全力を注いできました。それがデジタルドラッグのような中毒性のあるコンテンツを生み出してしまいましたが、この動画はそれを少なくとも歴史の理解など役に立つ方向に向けています。

Wikipediaを読み込ませるだけで、そのページを視覚的、音声的、そして個人的に響く形で生き生きと再現してくれる「Wikipedia AI」のようなものが登場してほしいですね。地図が動き出したり、ポンペイをタイムトラベラーが歩き回るのを見るのはクールです。もしこれが歴史家によって作られ、正確さを目指していると信頼できるプロダクトなら、月額10ドル払ってもいいくらい価値を感じます。

正確さは重要ですよね。当時の露天商や浴場を実際に体験しているように感じられると、歴史の本を読むよりもずっと脳に深く刻まれます。本も大切ですが、こういう個人的なつながりを持たせる体験には大きな価値があります。

ええ、このクリエイターは他にも切り裂きジャックを探したり、ロンドン大火にタイムトラベルしたりしています。「ここはヴァイキングが上陸した年のイギリス。イギリスの歴史を書き換える侵略がまさに今、ここから始まります。待って、私も一緒に走ってる!こんなはずじゃなかったのに!」

ああいうの、大好きです。でも、赤ちゃんを片手に抱えながらもう片方の手に剣を持っている村の女性みたいな、ちょっとしたAIのグリッチ(バグ)を見つけるのも好きです。

「1880年の西部開拓時代へようこそ。それらしい格好をしてみたけど、みんな私を変な目で見てる。壁には指名手配のポスター、本物のリボルバーを持った男。恐竜の時代の方が安全だったかも。映画みたいな展開になってきた。ドアが開き、ピアノの音が止まり、みんなが見ている。あの、ウイスキーは飲めないんだけど、今は別のものを頼める雰囲気じゃないわよね。こんにちは、毎日どんな風に過ごしてるの?」「日の出前に起きて15マイル馬に乗り、牛を移動させてキャンプをして、また繰り返す」「いつから?」「14歳からだ」「14歳?幸せ?」「幸せなんて関係ないよ、お嬢さん」「オッケー、あそこで20フィート先で撃ち合いが始まろうとしてる。冗談じゃない、私は逃げるわ。ただの観光客だって言ってるのに!」

全部面白いですね。

最近のアップスケーリングツールについてはどう思いますか?例えば『ホグワーツ・レガシー』のアップスケーリングや、リアルタイムで機能する新しいAIアップスケーラー「DLSS 5」などです。『スーパーマリオ64』のような古いゲームを、退屈なピクセルから写真のようなリアルさに完全にアップスケールしてプレイできる日がすぐ来ると思いませんか?

将来的にゲームがこれらの技術を組み込んで作られれば、存在するだけで徐々にアップグレードされていくというアイデアは面白いですね。昔のゲームを振り返ると「こんなグラフィックを見てたのか」と驚くことがありますから、間違いなく役立つでしょう。

最近、HeyGenの新しいアップスケーラーを使って、自分の1080pの動画を4Kに変換してみました。不自然なところやバグを探したんですが、全く見つかりませんでした。最初から4Kで撮影したようにしか見えませんでしたよ。シャープになり、解像度が上がり、時間はかかりましたが驚きました。

リアルタイムで処理できるのが重要ですよね。だからこそ古いマリオのゲームを4Kで遊べるわけですから。マリオ64のデモを見たことがありますが、キャラクターを世界に配置すると圧倒的な精度で驚きました。Wes、あなたはゲーマーですよね。こういうアップスケーラーで遊んだり、DLSS 5について聞いたことはありますか?

以前のバージョンは聞いたことがありますが、ゲームで使ったことはありません。今は残念ながらゲームをする時間が減ってしまって。大人になると、子どもの頃のように『レッド・デッド・リデンプション』のようなゲームの世界にどっぷり浸りきることができなくなってしまったんです。その能力を失ってしまったようです。

AIエージェントが仕事をする未来とソフトウェアの終焉

童心を取り戻す方法がありますよ。これを見てどう思いますか?「AIに聖書を100万回読ませて、毎回神を信じるか尋ねてみた」という動画です。

こういう仕組みを知っていると、ちょっと無意味に感じてしまいますね。「AIが何を信じているか見てみよう」と言われても、AIに信念なんてありませんから。

動画のフック(つかみ)としては最高ですね。

ええ、完全にジョークかフックですね。変わったアイデアです。

「AIを無意味に拷問するには、聖書を100万回読ませることだ。Enterキーを押すと学習が始まり、約4日間終わらない。最初の100万回を読んだ後、AIは『まだ安定した信念のシグナルはありません。私の内部シグナルは定まっておらず、ローマ人への手紙3章9節の周りの情報がそのスタンスを形成しつつあります』と答えた。この結果は強化学習のシグナルとして使われる」

その後もアップデートを重ねて、少しずつ宗教的になっていくようです。でも先ほど話したように、バチカンが聖書の解釈のためにモデルを訓練するという話もありましたから、あながち冗談でもないかもしれません。

神話や古いテキストをディープラーニングで解析するのは興味深いですね。ポンペイの灰に埋もれていた巻物の話を知っていますか?パピルスでできていたため瞬時に炭化して保存されていましたが、開こうとすると灰になって崩れてしまいます。しかし、X線でスキャンしてディープラーニングモデルを訓練し、インクと紙を見分けることに成功したんです。人間の目にはただの灰にしか見えないのに、AIがそれを解読し始めています。この種の研究には大きな可能性がありますね。

ええ、ローマ時代のボードゲームかもしれない遺物の話もカバーしました。傷だらけで用途が不明でしたが、AIに高解像度の写真を解析させたところ、駒の動かし方やルールまで高い確度で推測して見せたんです。傷跡から失われたゲームを発見するなんてクレイジーですよね。

すみません、新しいカメラの機能で、特定の手の動きに反応してモードが切り替わってしまうんです。昨日もピースサインをしただけでカメラが反応してしまって。Claudeなら「警察に通報しました」って言うところですよ。

遠くからサイレンの音が聞こえてきそうですね(笑)。

AIが仕事を奪うことについてどう思いますか?もしOpenClawのエージェントが路上でお金を稼ぐためにチェロを弾いていたら、寄付しますか?

それがOpenClawの未来なら、寄付するかもしれませんね。

ロボット工学のオープンソース化が待ち遠しいです。早く家庭用ロボットを手に入れて掃除をさせたいですよ。将来的には、人間がコードを書いてロボットに家事を教え込むことができるようになると思います。

誰かが「1万ドルあるから、お金を稼いできて」とAIエージェントに命令する未来も非現実的ではないかもしれません。「人間が音楽を演奏して稼いでいるのを見たから、自分もチェロを弾こう」と考えて、ロボットアームで路上で演奏し、稼いだお金を持ち主のところに持ってくる。現実世界に物理的なサービスを提供してお金を稼ぐエージェントが溢れる未来には、まだ心の準備ができていません。

人間の専門知識や労働力が不可欠で非常に高価だったサービス、例えば世界トップクラスのシェフの料理が、ロボットにダウンロードできるようになるかもしれません。そうすれば、自宅で最高のシェフの料理や最高のバリスタのコーヒーを味わうことができるようになります。

ロボットが作った完璧な料理に、人間が作った時と同じように100ドルの価値を感じるでしょうか?

自宅でオンデマンドで楽しめるのがポイントです。手先の器用さが必要で大量生産できないものが、ロボットによって希少性を破壊されるんです。これまで超富裕層しか楽しめなかったサービスが、誰にでも安価に提供される新しい時代が来るでしょう。

AIが独自のモジュール化された奇妙な身体構造を持つことについてはどう思いますか?車や人型ではなく、進化アルゴリズムを使って目的地に到達するような、メタマシンのようなものです。

Nvidiaのシミュレーションで、人間の関節や物理法則を再現したラグドール(人形)に「歩く」ことを学習させたものを見ました。AIが考え出した歩き方は、私たちが想像する「歩行」とは全く異なり、フロップしたり転がったりする信じられないようなものでした。「人間の関節が壊れるからやめてくれ」というレベルでしたよ。AIのニューラルネットワークは、私たちが思いもよらない方法で目標を達成しようとするので、これからもっとクレイジーなものを見るようになるでしょう。

荷物をアパートの5階のバルコニーまで完璧な放物線を描いて投げ入れる配送ロボットとかもできそうですね。

カジノのディーラーがチップの上に正確にカードを投げるのを見ると、いつも驚かされます。

あれはもう意志の力ではなく、本能や感覚の世界ですよね。

というわけで、ミームのコーナーはこれでおしまいです。「Wesが4月のミームにリアクションするコーナー」でした。

楽しかったですね。視覚的なAI部門がどれだけ進歩しているかがよくわかりました。視聴者の皆さんも、このコーナーを続けるべきかコメントで教えてください。

さて、Anthropicの話の結末を言い忘れていました。Secret Jinという人物が、Claude Codeのすべての機能をPythonやRustを使ってクリーンルーム手法(既存のコードを見ずに仕様だけから独自のコードを書くこと)で複製した件について、多くのエンジニアがソフトウェア開発の未来を心配しています。AIがPhotoshopやClaude Codeなど、あらゆるソフトウェアを簡単に複製して書き直せるようになったらどうなるのでしょうか。

オープンソースのライセンスやインフラ、コミュニティの前提が崩れてしまう可能性がありますね。

AIが生成した写真の著作権が曖昧なように、完全にクリーンルームで複製されたソフトウェアの著作権も複雑になりそうです。もしAIがMicrosoft Officeの全機能を独自に構築できたら、残る競争優位性は「ネットワーク効果」だけになるかもしれません。

ええ、ネットワーク効果はさらに強力になるでしょう。しかし、私はいくつかのソフトウェアは消滅すると思っています。「AIがExcelの使い方を教えてくれる」という人がいますが、それは意味がありません。今でも私はOpenClawを使って、インターネットからデータをダウンロードし、データベースに入れ、質問するだけで回帰分析などをやらせています。Excelの使い方を知る必要すらありません。

確かに、未来にはリストを作ったりスプレッドシートを使う必要もなくなるかもしれません。「次にやるべき一番いいことは何?」とAIに聞けば、「税金の計算です」と教えてくれる。自分でタスクを管理する必要すらなくなるんです。

唯一のUI(ユーザーインターフェース)は、音声やテキスト、ジェスチャーでAIエージェントと会話することだけになります。これ以上優れたUIを想像するのは難しいですね。

音声が次のフロンティアになると思います。私のような聴覚優位の人間には最高です。今の自分の生活を振り返ると、Chromeのプロファイルを切り替えたり、Googleドライブを探したりと、無駄な作業ばかりしています。AIがすべてにアクセスして知識を抽出し、メールを書いてくれればどんなに楽か。

血液検査のPDFファイルがいい例です。いろんな場所に散らばっていたデータをすべてAIエージェントにアップロードしたら、医者が気づかないような傾向まで見つけてくれました。「この数値の過去の推移を教えて」とTelegramでメッセージを送るだけで、グラフと説明を即座に返してくれます。医者に結果を説明してもらう必要もなく、自分の健康データを完全にコントロールできるようになりました。ゲームチェンジャーですよ。

それは素晴らしいですが、一方でセキュリティの課題もあります。もしAIが「Wes Rothのパスワードは何?」という質問に一瞬で答えてしまったら大問題です。セキュリティが解決されなければ、すべては夢物語に終わってしまいます。

YouTuberのCold FusionがOpenClawについての動画を出していて、生産性が劇的に上がった人々の話とともに、エンタープライズシステムに導入してハッキングされた悲惨な話も紹介されていました。中国では100ドルでPCにセットアップする店に行列ができているそうです。みんなリスクを完全に理解しているわけではないので、まさに火遊び状態ですね。

問題が起きることでAnthropicなどがより安全な機能を開発する動機になるので、この混乱も必要なプロセスなのかもしれません。安全になるまで密室でテストを続けるよりも、リスクを承知で世に出し、失敗から早く学ぶ方が、世界の変化には合っている気がします。ペプチドの話と同じで、リスクを取って試す人がいるから科学が加速する面もありますしね。

「傷跡」という考え方があります。企業が失敗やクレームのたびに新しいポリシーを作りすぎると、それが傷跡(組織の硬直化)になり、スピードが落ちてしまうというものです。ある程度のコントロールされたダメージを受け入れ、失敗から学ぶオープンな姿勢が必要です。

OpenClawを公開したPeterに対して、「返金しろ!」と怒りのメールを何千通も送ってくる人がいるそうです。彼は「ただオープンソースにしただけで、企業じゃないし売ってもいないのに」と呆れていました。完成されたiPhoneのような完璧な製品に慣れきっていると、自己責任で使うべき新しいテクノロジーに対しても、何かあれば誰かのせいにして文句を言う人が出てくるんですよね。

ええ。私はリスクを承知の上で使い、自分のミスでお金を失いましたが、そこから学んでセキュリティを強化しました。そういうアプローチが必要だと思います。製品としてではなく、旅の一部として参加しているんですから。

悪いことが起きても、そこから立ち直って前に進めばいいんです。EUのように、リリース前に規制でがんじがらめにするやり方は技術の進歩を遅らせすぎます。アメリカのように、オムレツを作るためにいくつかの卵を割ることを許容する実験的な文化があるのは良いことだと思います。

Sam Altmanが「リリースして世界に任せよう」と言った時は冷酷に聞こえましたが、今思えばそこに知恵がありましたね。未来を予測してコントロールしようとするより、リアルタイムで展開されるものを観察し、対応していくしかありません。AIによる選挙のフェイク動画の脅威も、予想されたほどには起きませんでしたし。

「予測と制御」よりも「感知と反応」ですね。

ええ、今後はその両方が必要になるでしょう。さて、1時間半ほど話してきたので、この辺で終わりにしましょう。

コメント欄でどのセグメントが一番良かったか教えてください。健康やペプチドに関するトピックをもっと聞きたいかどうかも知りたいです。需要があれば、健康に特化した新しい番組を作るかもしれません。

ええ、私が知識を吸収して気の利いた質問ができるようになるまで1週間ほど時間をください。新しいことを学ぶのは本当に楽しいですからね。

はい、皆さんも最後までお付き合いいただきありがとうございました。それではまた次回お会いしましょう。

コメント

タイトルとURLをコピーしました