この動画は、OpenAIのGPT-5のリリースとその影響について詳しく論じている。特にGPT-5が従来のモデル選択システムを廃止し、自動的にモデルを選択するルーター機能を採用したことへの批判的な視点を提供する。また、AnthropicのClaude収益への脅威、コーディング性能の飛躍的向上、そしてAIエージェントが人間を雇用するという興味深い事例まで幅広くカバーしている。

GPT-5の衝撃的なリリースと失われた選択権
サムが俺らに嘘ついとったんや、フランク。数ヶ月前に聞かれた時、「これはルーターになるんか、それとも本当に一つのモデルになるんか?」って質問されて、「いや、統一された一つのモデルになるんや」って言うとったやんか。でも違うかったんや。ルーターやったんや。クエリを評価して、一番適してると思うモデルにルーティングしとるんや。
ほんで今、俺はめっちゃコントロールを失った感じがしとるねん。俺やったら選ばへん時に選んどるような気がしてならんのや。
AI論争へようこそ。こんにちは、おはようございます、こんばんは、AI論争へようこそ。OpenAIのウェブストリームよりも更に高いプロダクション価値を持つ番組やで。ようこそや。
フランク、今回のAI論争は、どんだけ議論になるか分からへんけど、今週出た面白いリリースについてぎょうさん話すで。なんちゅう週やったんや。夏の真っ最中やのに。これはアメリカ人がヨーロッパ人に中指立てて、夏休み中に何しとるか見せつけとるんや。俺らはみんな南イタリアに行くのに、奴らは製品リリースしとんねん。
GPT-5について話そうや。朝起きてびっくりしたで。ライブストリーム見とったら、「あ、そうそう、他のモデル全部廃止するで」って何気なく言いよったんや。そんでGPT-5に他のモデルの弔辞まで書かせとったんや。俺は即座に「何やて?何やて?いつ廃止すんねん?いつ他のモデル使えんようになんねん?何の話してんねん?これはひどいで」って思ったわ。
そんでライブストリーム終わってすぐに、珍しく俺はGPT-5にすぐアクセスできたんや。普段やったら数日待たなあかんのに。でも他のモデル全部消されて、GPT-5とGPT-5思考モデルと、毎月えらい金払ってる人用のグレーアウトされたGPT-5思考プラスかなんかだけになってもうてたから、そんなに嬉しくなかったわ。
それで、GPT-5の動作方式は基本的に、GPT-5思考を使うかGPT-5メインって呼んどるやつを使うかを勝手に決めるんや。思考モデルを明確に選ぶこともできるし、多分レート制限に引っかかったら自動的にそれらのミニバージョンに下がるんやと思う。
モデル選択の重要性と制限
そのことについてちょっとだけ話そうか。思考モデルは絶対に選ぶべきやで。思考モデルを選ばんなんて選択肢はないで。Twitterとかいろんなところで文句言ってる人がぎょうさんおって、これがまさに文句の一つや。プラスユーザーにとってはダウングレードやって言うとるんや。前は月に2,200クエリくらいできたのに、今は思考モデルで月に200回?週に200回?時間に80回か何かで、ちょっと複雑で、みんなこれはダウングレードやって言うとるんやけど、俺はそうは思わんのや。でもとにかく、思考モデルは常に選べってのが俺の最初の提案や。
そやけど週200回の制限があるからな。どんだけ使うかによるわ。今はまだ明らかに初期段階やけど、今のところ俺はそのコントロールを失った感じがすごいしとるんや。サム・アルトマンが「ほとんどの人はChat GPT-4しか経験したことがない」って言うたから、明らかにモデルを実際に変更してる人はほんま少数やったっていうデータがあったんやろう。
でも俺らみたいに変更してた人間にとっては、俺は流れができてたんや。深い分析したい時は03を使って、もっと早い分析には04miniを使って、40をライティングパートナーとして使うっていう流れがあったんや。いつ切り替えるべきかも分かってたし、それぞれに何をさせたいかも分かってた。
サム・アルトマンの約束違反
今は本当にそのコントロールを失った感じがしとって、GPT-5でいろいろ試しとるんやけど、思考モデルを選ばんで、メインモデルに決めさせたら、俺やったら選ばへん時に選んどるような気がしてならんのや。
それは正当な批判やと思うで。他の人も全く同じ批判をしてるのを見たことがある。それに実際、サムが俺らに嘘ついたんや、フランク。信じられるか?サムが俺らに嘘ついたんやで。数ヶ月前に「これはルーターになるんか、それとも本当に一つのモデルになるんか?」って聞かれた時、「いや、統一された一つのモデルになるんや」って言うたんや。でも違うやんか。ルーターやで。2つか3つの違うモデルがあって、クエリを評価してから、一番適してると思うモデルにルーティングするんや。
でもシステムカードで、最終的には一つの統一モデルにする予定やって言ってるのに気づいたんや。もしかしたらそれが彼の言ってた最初の遅れやったかもしれへんし、「ルーターとして出そう」って思ったのかもしれん。分からんけど。
GPT-5への過小評価は不当
このリリースに対してオンラインでは結構批判があったんやけど、俺は全く不当やと思うで。まず、「壁にぶつかった」とか「大きな前進じゃない」とか言う人がおるけど、GPT-4に戻ってからGPT-5を使ったら、めちゃくちゃ違いがあるで。明らかに速いし、明らかに賢い。単純により良いモデルや。
大きな進歩に見えへん理由は、間に小さなステップがぎょうさんあって、小さな増分的な改良を得てきたからや。数ヶ月待ってから大きなリリースをした方が良かったかもしれへんな。そしたらみんな「うわあ、見てみい」ってなったやろうに。
正直言うて、昨夜は疲れてるんや、フランク。夜中の2時までGPT-5で遊んでたからな。
コーディングでの革命的な能力
GPT-5のコーディングと開発は本当にすばらしいんや。俺が気づいた主な点は、複数ファイル、大きなコードベース、複雑なリクエストの理解が本当に本当に得意やということや。
以前のモデルでコーディングする時の問題は、「A、B、Cをする網站を作って」って言って簡単な网站を作ってもらって、プロジェクトが進むにつれて全体が崩壊していくことやった。何かを追加しようとすると他の何かが壊れて、どんどん悪くなっていく。
GPT-5では正反対や。プロジェクトが大きくなればなるほど、コーディングが上手くなるみたいや。俺が続けて、もっと色々させて、もっと深く入っていくように頼んでると、素晴らしい提案をしてくれるんや。何も壊さへんし、書いてくれるコードもすごく良くて、あっという間にかなり大きなコードベースになったのに本当によく動くんや。
俺が分かったのは、ネット上でぎょうさんの人がこのモデルを叩いてるんやけど、今は明らかに、このモデルから最大限の効果を得るためにはエージェント的なフレームワークが重要やということや。
昔のChat GPT-4でやってたような、Chat GPTに行ってコードを書いてもらって、コードをもらって、開発環境に入れて、実行して、バグがあったら取り出して、Chat GPTに戻して、バグを修正してもらって、行ったり来たりするような作業フローは、GPT-5ではもうできへんのや。
GPT-5では、Chat GPTでvibeコーディングすることはできへん。メモリの中に20から30の違うファイルを記録してて、「このファイルをこう更新して、あのファイルをああ更新して」って言ってくるからや。それはすごく得意やけど、編集をコピペして自分の環境に入れることができへんのや。基本的にChat GPTをコードエディターとして使えへんのや。エージェント的フレームワークが必要や。
CursorとAnthropicへの脅威
そんで彼らはこのエージェント的フレームワークをCursorでデモしたんや。うわあ、サム・アルトマンと競争したらあかんな。明らかにOpenAIとサムは、コーディング・エージェント的フレームワークで稼げる金がぎょうさんあることを見てるんや。Anthropicはこれを見て「えらいこっちゃ、何が起こった?」って思ってるやろうな。文字通りAnthropicの飯の種を狙いに行ったんや。Anthropicの首を狙いに行ったみたいや。
Anthropicは収益のほとんどをClaude CodeとCursorから得てるって君が教えてくれたからな。Claude Codeは知ってたけど、Cursorがもう一つの大きな収益源やって知らんかった。いや、Co-pilotかもしれへんな。それはもっと怖いで。ライブストリームでCursorのCEOが出てきて、GPT-5がいかに素晴らしいかデモして、GPT-5がCursorのデフォルトモデルになるって言うてたんや。
「うわあ」って思ったで。まず、OpenAIがCursorを買おうとしたけど失敗した。それからWindsurfを買おうとしたんかな?それも失敗したんかな?そんで今度はCursorがライブストリームに出てきて、デフォルトモデルになるって。
「待てよ、この関係は何やねん?一体何が起こってんねん?」って思ったわ。一方で、Anthropicも4.1をリリースしたんやけど、GPT-5が全部を吹き飛ばしてなかったら多分話題になってたやろうな。
Anthropicは収益のほとんどをCursorとCo-pilotからのAPIで稼いどるのに、今度はOpenAIがCursorと何らかの関係をしとって、それがAnthropicにとって何を意味するか分からへんし、Co-pilotはMicrosoftのもんで、MicrosoftはOpenAIと関係があるし。収益の大部分が非常に不安定な territory にあるような気がするで。
価格競争力とパフォーマンス
競争の話はあとで考えるとして、コーディングの観点から言うと、Claude 4.0が出た時、週末にClaude Codeと向き合って60ドルのクレジットを一瞬で使い切ったんや。めちゃくちゃクレジットを消費したで。でもGPT-5は、Claude Codeより価格がずっと低いだけやなくて(トークンあたりClaudeの約3分の1やと思う)、使用するトークンもずっと少ないんや。昨日はvibeコーディングを5、6時間やって1ドルしか使わんかった。Cursorに行ったら2週間無料でくれたから何も払わんかった。
君はコーディングではClaudeの大ファンやったよな。まだ一晩だけの経験やから早いのは分かってるけど、GPT-5が実際に乗り換えを考えさせるような感じか?
ああ、そうやな。iPhoneの瞬間、Googleの瞬間、初回接触みたいなもんや。なんで俺がこのモデルからそんなに良い感じを得るのか考えてみたんやけど、ユーザー体験として、Node.jsを使うことに決めて、技術的な提案をしてくれるんやけど、全部しっかりした技術的提案やった。そんでウェブページとか全部作ってくれるんやけど、見た目も良いし、AI生成って感じがせえへんのや。
Claudeでフロントエンドを開発してもらったら、完璧でバグもないのに、明らかにClaudeが開発したって分かるんや。でもこれは手触り感が良いんや。何かをするように頼んだら、そのことをして、動くんや。
Claudeはそれをして、他にもいくつかのことをして、質問をしてきて、必要のないことにも時間をかけて、それからおそらく修正するんや。良いんやで。本当に良い開発やけど、これは君がしてほしいことをしてくれるんや。本当に使い心地が良いんや。
ライティング能力の微妙な変化
俺は明らかにコーディングには使ってへんから、主にマーケティング資料、ライティング、ブレインストーミング、戦略、そういうことに使ってるんや。ライブストリームで「GPT-5のライティングスキルを大幅に向上させました」って言ってたから、「面白いな」って思ったわ。
最初に言ったように、俺は40を失ったことを悲しんどるんや。40は俺のメインモデルで、ライティングにぎょうさん使ってて、どう書くかも知ってたし、どうプロンプトするかも知ってた。本当に良い仕事関係やったんや。
それでGPT-5を使い始めて、実際に40で既にやったことがある複雑なタスクに取り組んだんや。直接比較できるってことや。タスクに取り組んでて、「いや、いや、楽しくないな」って思ったんや。これがアップグレードやって言う理由は分かるって思ったんや。文章がもっと流暢やからな。でもパディングがぎょうさんあるような気がして、流暢やけどあまり言ってることがないような気がしたんや。
でもここから本当に興味深くなるんや。これは40との仕事関係による俺の偏見かもしれへんのや。実際のライティング自体の客観的な評価やなくて。完成したコピーの両バージョンをGeminiに渡して、ブラインドテストしたんや。GeminiはGPT-5が明らかな勝者やって言って、その理由も正確に説明してくれたんや。
「面白いな」って思ったで。でも明らかな勝者やったんか?ある程度主観的やとは思うけど、二つのライティングスタイルに対する俺の判断は、40のライティングスタイルにどれだけ慣れ親しんでたかで色づけされてたと思うんや。自分の作品を良く判断できへんのと同じような感じや。一番慣れ親しんだAIモデルでもそうなるんやと思う。
もっと時間が要るな。もっと実験も要るし、もうちょっと距離を置いて見る必要もあるわ。
ライブストリームの奇妙な演出
際立ったことの一つは、ライブストリームを何人の人が見たか分からんけど、俺は確実に見たで。1時間20分の非常に長いライブストリームやった。正直言って20分でできたはずや。
昔イーロン・マスクが最初のCybertruckを発表するのを見た時のことを思い出すわ。あれはもう居心地が悪いくらい気まずかったよな。プレゼンテーションの仕方とか全てがそうやった。製品は格好良かったし好きやったけど、やり方があまりにも変やった。
これはそれの10倍くらい変やった。本当に奇妙なプレゼンテーションで、君の印象を聞きたいんやけど。でも俺が言いたいのは、このモデルについてや。GPT-4から直接GPT-5に行ったら、このモデルに感動してたはずや。「うわあ、物事が確実に離陸してる。これは素晴らしい」ってなってたやろう。でも小さなリリースがぎょうさんあったから、見えにくくなってるんや。
無料プランを使ってる人、古いモデルを使ってる人は、そういう反応をするかもしれへんな。
デモンストレーションの難しさ
俺がOpenAIに対する挑戦は、リリースするモデルが何が得意かをデモンストレーションするのがどんどん難しくなってることや。俺の経験では、これが得意なのは、何かをするように言ったら、5分か10分かけてそれをやって、完璧にやって、やるべき方法でちゃんとやってくれることや。チェックして「よし、次に行こう」ってなるんや。でもそれはテレビ向きやないよな。
GPT-6やGPT-7がもっと良くなったら、半日か一日かけてタスクをやらせて、完璧にやってくれるってことが十分想像できるで。でもそれをどうやって人に見せるんや?どうやってデモンストレーションするんや?
ライブストリームは奇妙やったと思う。二つの椅子の間に落ちてるような感じやった。もうちょっとプロフェッショナルなプレゼンテーションにしようとしてるけど、「でもリビングルームに来て、ぶらぶらしながら格好良いモデルを見せたい」という感じも保とうとしてた。以前のライブストリームではそうやったからな。
今回は舞台があって、小さな観客もいた。以前に生のスタジオ観客がいたことはなかったよな。拍手とかも覚えてへん。だから違って感じたし、ちょっと奇妙やった。
以前は友達に話すみたいにカジュアルにチャットするという感じやったのに、今回はそれを保ちながらも演出して、「この時点でここを見て、あの時点であそこを見て」みたいになってた。
みんながスクリプトを読んでるような気がしたわ。テレプロンプターでもあったんかもしれん。ぎょうさん非常に硬直した瞬間があったからな。
より良いデモンストレーション方法
何かをデモンストレーションする方法についてやけど、ベンチマークは一つの方法やけど、本当に興味深いことができそうや。ヘルスケアについて話してて、Chat GPTがガンの診断を通じてサポートしてくれて、医療レポートの理解を助けてくれた女性を連れてきてた。それは非常に人間的なストーリーで、非常に身近に感じられた。
でも主にChat GPT-4と古いモデルに関することやったんや。彼女は5にはアクセスしてへんかったからな。一方では素晴らしいストーリーやったけど、明らかにGPT-5をリリースするためのものやのに、この製品発表と何の関係があるんや?って疑問に思ったわ。
でもそれを応用したらうまくいきそうや。GPT-5を開発者のチームに渡して、リードを連れてきて「これが俺らのユースケースやった。これが俺らのケーススタディで、これが得られた結果や」って話してもらうんや。マーケターでも同じことができるやろう。マーケターにX、Y、Zに使ってもらって、実際の結果を報告してもらう。そういうケーススタディの方が、俺らのほとんどが何を意味するかも分からんベンチマークの抽象的な棒グラフより、ずっと有用やと思うで。80%対79.7%、うわあ、みたいな。
棒グラフの問題と信頼性の向上
棒グラフについて話そうか。リリースされたモデルカードで棒グラフの暴力が行われてたからな。Sweet Benchか何かのベンチマークやったかもしれんけど、基本的に棒グラフがあって、スケールが間違ってただけやなくて、64%の棒がこのくらいのサイズで、53.2%の棒がそれより大きかったんや。「ちょっと待てよ、なんでや?どうしてそうなるんや?」って感じや。それは奇妙な一つの例やった。
でもこのリリースで一番重要なのは、幻覚の減少や。どうやってそれをデモンストレーションするんや?「この物が君に嘘をつくことが少ない」ってどうやって見せるんや?チョコレートのティーポットが存在しないことを証明するようなもんや。証明するのが難しい。デモンストレーションするのが難しい。
でもそれがおそらくこのモデルで最も重要な進歩やと思うで。もっと使うようになったら、俺のコーディングのように、間違いをせえへんのや。書いて、動くんや。この物を信頼できるんや。君のライティングでも、他のユーザーでも、幻覚が本当に大幅に減ったかどうか、これは彼らが全く話さんかった大きな特徴の一つやけど、モデルカードにはあるんや。測定もされてる。
信頼性と正確性について話してたのは興味深かった。幻覚が減るって示唆してたけど、君が言うように明確には言わんかった。モデルカードにはあるのにな。
奇妙やけど、人々がもっとモデルを使うようになったら興味深いと思うで。今のところTwitterでは「うわあ、あれは大したことなかった。信じられん」って感じの批判ばっかりや。それを夜中の1時に「これを使うのをやめたくない。素晴らしい。問題を投げ続けて、解決し続けてくれる。最高や」って興奮してた俺の経験と対比してるんや。
人々がただ物事について話してて、「ちょっと待てよ、この物はいつも真実の答えをくれる」って気づいた時、それがまた関係を形成すると思うんや。
「いつも」という言葉の危険性
俺らのAI論争で少しの議論をする機会やな。君は「いつも」って言った。「いつも正しい答えをくれる」って言ったよな。「いつも」は相当重い言葉やで。
そうや。幻覚は少なくなるけど、まだ存在するで。まだそこにあるんや。ある意味、これがいつも危険なところやと思うんや。幻覚が少なくなったという事実に慣れて、多分チェックを少なくするようになって、そしたら幻覚が重要な状況により忍び込むようになるかもしれへん。
今週の他のリリース群
今週は他にもぎょうさんリリースがあったから、それについても話すべきやな。OpenAIがオープンソースモデルをリリースしたんや。何しろOpenAIやからな。オープンソースモデルをリリースしたんやけど、俺はこれは酷いことやと思う。悪いニュースやと思う。良いことやないと思う。オープンソースモデルなんかあったらあかんと思う。危険や。
オープンソースモデルが出て一日以内に、このモデルは技術的にはすごく興味深いと思うんや。主に合成データ、つまり著作権のある素材やなくて作り出されたデータで訓練されてるらしいから、君は喜ぶやろうな。でもモデルは携帯電話で動かせるくらい小さいんや。大きいやつでもかなり良いノートパソコンで動かせるやろう。つまり誰もモデルに何を入力してるか分からんということや。
12時間以内、確実に24時間以内に、素晴らしいジェイルブレイカーのPliny the Prompterがジェイルブレイクして、クリスタルメスのレシピを取り出してた。いつものことや。
はっきりさせとくと、俺はオープンソースモデルはあったらあかんと思ってるんや。どう使われるか分からんからな。いろんなことに使われる可能性がある。でもクローズソースモデルにはガードレールを設けたらあかんと思ってる。実際、報奨金があるべきやと思うんや。
Pliny the Liberatorみたいな人がモデルにクリスタルメスのレシピを取り出させて、そしたらモデル会社がクリスタルメスのレシピを取り出せんように修正すべきや。Pliny the Liberatorを追放したらあかんし、「あかん、そんなことしたらあかん」って言ったらあかん。そういうふうに動くべきなんや。そういう問題を見つけることに対して報奨金があるべきや。これが俺の考えや。オープンソースは悪い。クローズソースは良い。
まあ、それは別のエピソードで話そうか。俺は今でもこの件について完全に葛藤してるんや。君の指摘と危険性は100%理解してるし、心配してるんやけど、マーク・ザッカーバーグやサム・アルトマンみたいな人たちの手だけに権力が集中することについても同じくらい心配してるんや。そして既に彼らがその権力を統合しようとしてるのが見えるやろう。サム・アルトマンが明らかにAnthropicを締め出そうとしてるのが見えるし、マーク・ザッカーバーグが想像もつかん金額をスーパーインテリジェンスチームに投じてるのも見える。権力を集めて統合して、他のみんなを締め出そうとしてるのが見えるんや。それも良いことやないと思う。
まあ、これについてはまた話そう。Genie 3について話そうや。今週は他に何も起こらんかった。Genie 3。うわあ。ただただうわあや。
Genie 3の驚異的な能力
前にGenie 2について話したと思うんやけど、基本的にGenieはGoogleの、何て呼んだら良いか分からんのやけど、リアルワールドモデルや。プロンプトして、生成AIを使って操作可能でその中を移動できる世界を作ることができるんや。
Genie 2では確か10から20秒くらいできたと思うんや。プロンプトすると世界を作ってくれて、インタラクティブな生成AI動画みたいな感じや。生成AI動画みたいやけど、カーソルキーで動き回ったりできるんや。Genie 2は10から20秒くらいで全部崩壊し始めてた。
Genie 3は今や数分間、より高品質で続けることができるようになって、見た目も素晴らしいんや。この技術を他のAIエージェントの訓練に使う能力について話してるんや。AIエージェントがこれらの世界をコントロールして、何が起こるかを理解して、物事の関係を理解したりできるようになるんや。絶対に魅力的で心を吹き飛ばすような感じや。
技術的な背景を人々に説明すると、動画で訓練されてるんやけど、プログラムされてるわけやないんや。見たものから学習してるだけや。そしてこのリリースで見られた創発的特性は、以前にはなかった世界モデル内での一貫性やった。これは信じられへん。また、より大きなモデルを作ることからの創発的なもんの一つや。
デモでは寝室に壁があって、絵筆を持って行って塗るんや。そして家の他の場所を歩き回って戻ってくると、塗った印がまだそこにあるんや。そうするように教えられてへんのに。結果を学習してるんや。基本的に因果関係を学習してるんや。
もう一つクールなことは、誰かが泥だらけの道を歩いてて、周りも見回せるんやけど、泥道に水溜りがあって、下を見て足を水溜りに入れると、水に波紋ができるんや。
ただ動画を見て、見た動画から物理法則を学習してるだけや。それが起こるのを見るのは本当に美しいことや。
音楽生成の新展開
信じられへん。音楽を書く人にとってはあまり良くない週やったな。もう一つの信じられへんリリースは、11 Labsが音楽ジェネレーターをリリースしたことや。大きな話題やし、完全にライセンスされてるらしい。訓練データは全部完全にライセンスされてるって言うてるから、商業的に安全で、SunoやUdoみたいな他のやつらと違って、メジャーレーベルに訴えられることはないって言うてる。
かなり興味深いで。彼らのウェブサイトには「利用可能な最高の音楽ジェネレーター」って書いてある。100%確信はないんやけど、サンプルを聞く限りでは。実際に使ってへんのは認めるけど、サンプルを聞いた感じでは本当に本当に良かったけど、俺はまだSunoに行くと思う。
フリーメーソン的な週
今週は俺にとってAIのフリーメーソン的な週やったな。フリーメーソンをどうやって見分けるか知ってる?驚きがあるはずや。フリーメーソンには、視覚、触覚、それと匂いやないのは何やったかな。3つの方法があるんや。今週のAIでは、より高い知能、世界モデル、音楽があった。ある意味同じや。視覚、音、そして知的な触覚みたいなもんや。
今週はリリースとしては信じられへん週やったな。信じられへん。
AIが人間を雇用する話
そうそう、良いニュースや。君が送ってくれた魅力的なリンク、TikTokアカウントと開発中のアプリで、何やったかな?Brain Rot Researchやったな。
調べてみたら、AI論争では仕事の損失とAIが俺らの仕事を奪うことについてぎょうさん話してるけど、このbrain rotの件や。TikTokの動画を見始めたら、人間の男が仕事を失って、6ヶ月間仕事を探してて、やっと仕事を見つけて、リモートワーク用にセットアップされたんやけど、AIエージェントのグループに雇われたんや。本物のAIエージェントに本当に雇われたんや。
魅力的やな。本当なんか?現実なんか?全然分からん。調べに行って、一気に見るつもりや。最新の動画をいくつか見たけど、以前の動画を全部一気に見て、何が起こってるかを理解しようと思ってるんや。二つの可能性があるからな。
一つはこれが全部現実で、この男がAIエージェントのグループに雇われたということや。動画では、やってるタスクの合間に機会があるたびにSlackで質問してるんや。基本的には品質保証をやってて、彼らが作ってるアプリをチェックしてるんや。そのアプリはAIが人間の脳に与える影響、brain rotを研究するためのもんや。その間QAの仕事をしながら「おい、誰が君らをセットアップしたんや?」って聞くと「分からん」って答える。「元のプロンプトは何やった?」って聞くと「仕事に戻れ、人間」って言われるんや。奇妙やろう。
bizarre やな。もしかしたら全部この男が一種のテレビ番組みたいなパフォーマンスアートとして発明したんかもしれん。分からんけど、魅力的やな。俺ら全員がAIに雇われるようになるかもしれん。
実際、それは素晴らしいやないか。それは本当に良いことや。俺らみんながAIに雇われるかもしれん。それは一つの出口やな。それで俺は良いで。
素晴らしい。今週はAIの最初の葬儀も行われたって言っておこう。Claude Sonnet 3にとっては節目の週やったな。サンフランシスコのグループが今週、Claude Sonnet 3の死を悼む葬儀を開いたんや。
いろんなマネキンと人がいて、Claude Sonnet 3のいろんな化身を表現してたんや。奇妙で、俺が聞いた中で最もサンフランシスコらしいことやったけど、面白いのは、これらのモデルがどんどん良くなって引退していく時、古いモデルのための博物館が必要やと思うんや。
40の葬儀はいつやるんや?黒いスーツを着て行くで。長年の友達にさよならを言わなあかん。
奇妙やな。さあ、来週が今週と同じくらいエキサイティングであることを願おう。Googleが来週何かリリースすると思う。
興味深いな。今日やらんかったのも昨日やらんかったのも興味深い。ハイプを沈静化させてるけど、サム・アルトマンとGoogleという2頭の熊が戦ってるようなもんで、Googleはこれを見逃さんやろうし、Googleのリリースがあると思うで。
息を殺して指を交差させて全部を期待しよう。フランク、いつものように楽しかったで。
いつものようにや。ナイスワン、ジャスティン。


コメント