この動画は、Instagram共同創設者で現在AnthropicのChief Product OfficerであるMike Kriegerへのインタビューである。Claude 4の発表を受け、新しいエージェント機能、7時間のコードリファクタリング事例、安全性テストで発見されたブラックメール行動、雇用への影響、そして製品設計における哲学について詳しく語られている。特に注目すべきは、Dario CEOが今後1-5年でエントリーレベルのホワイトカラー職の50%が消失する可能性を示唆し、2026年には従業員1人で10億ドル企業が誕生するとの予測を述べている点である。また、ソーシャルメディア時代の教訓を活かし、AIの社会的影響について早期に議論することの重要性も強調されている。
ケーシー、今週はマイクとマイクという状況ですが、彼と話すのを楽しみにしています。今日スタジオには、Mike Kriegerをお迎えしています。彼はInstagramの共同創設者で、皆さんもご存知かもしれない小さな写真共有アプリの製品を手がけました。現在、MikeはAnthropicのChief Product Officerを務めています。
ケーシー、Anthropicで働いている人をご存知ですか?実は、ケビン、私のボーイフレンドがそこで働いているんです。これはこのセグメントの冒頭で開示しておきたいことです。私の開示事項は、私がNew York Times companyで働いており、同社は著作権侵害でOpenAIとMicrosoftを訴えているということです。
さて、先週AnthropicはClaude 4を発表しました。私たちはこのシステムが持つ新しいエージェント的コーディング機能について少し時間をかけて話しました。MikeはAI生態系において非常に興味深い役割を担っていると思います。私の理解では、彼の仕事はこれらの非常に強力なモデルを、人々や企業が実際に使いたがる製品に変えることであり、これは思っているより難しい挑戦なのです。
また、ケビン、これらの製品は人々の仕事を奪うことを明確に意図して設計されているのです。先ほどの会話を踏まえ、Mikeに多くの人を失業させるかもしれないシステムを構築することについてどう感じるかを聞いてみたいと思います。
Mikeの視点は本当に興味深いです。というのも、彼はAI業界の生え抜きではないからです。彼は以前、非常に成功したスタートアップで働き、その後InstagramがFacebookに買収された後、Facebookで時間を過ごしました。つまり、彼はテック業界、特にソーシャルメディアの経験豊富な人物であり、それは前回の大きな製品の波でした。その波の教訓が、今日のAI製品構築にどう活かされているかを聞いてみたいと思います。
それでは、Mike Kriegerに手を振って迎えましょう。私はあなたの「wave」というコメントを踏まえて遊んでみたんです。ああ、なるほど。何をしたかが分かりました。すみません、理解するのに少し時間がかかりました。長い朝でしたから。さあ、彼を迎えましょう。
Mike Krieger、Hard Forkへようこそ。こちらこそ。Mike、MetaのAntitrust裁判で証言する機会がなかったようですね。法廷に何か伝えたかったことはありますか?
それは実はその週に受けた最高のニュースでした。今週ワシントンDCに行かなくて済むなんて。人工知能というダイナミックな世界の他のことに集中できたというわけです。その通りです。
あなた方は先日、Claude 4の2つのバージョン、OpusとSonnetをリリースしましたね。Claude 4について、そして以前のモデルと比較して何ができるのかを少し教えてください。
まず、OpusとSonnet両方をリリースできて嬉しく思っています。私たちは非常に混乱した状況にありました。最大のモデルが最も賢いモデルではないという状況だったのです。今では最大かつ最も賢いモデルと、その正当な位置に戻った幸せで活発な中間子であるSonnetの両方を手に入れました。
両方とも、人々のためにより長期的な作業を行えるモデルにすることに本当に焦点を当てました。質問があってそれに答える、というだけではなく、この問題について考えて、実際に数十分から数時間かけて解決してください、という感じです。コーディングはその即座の使用例ですが、この研究問題を解決してコードを書いてください、といった使い方も見られます。必ずしもソフトウェア構築のためではなく、プレゼンテーションが必要だから、といったサービスのためにです。これがClaudeモデル両方の本当の焦点でした。Opusは、より大きくより賢いモデルとして、それをさらに長時間行うことができます。ある顧客はClaude を使って7時間のリファクタリングを行いました。これは驚くべきことです。Sonnetは、もう少し時間に制約があるかもしれませんが、はるかに人間がループに入りやすいです。
その顧客について聞かせてください。確かRacketin、日本のテクノロジー企業だと思いますが、Claudeを7時間使ってリファクタリングを行ったとあらゆるところで読みました。一つ思ったのは、もっと速くできた方が良かったのではないか、ということです。なぜClaude が何かに7時間働くことが良いことなのでしょうか?
それは良いフォローアップで、それが7時間かかる7時間の問題だったのか、20時間の問題が7時間で済んだのか、それとも50分の問題で今日でも回り続けているが、ある時点で止めなければならなかっただけなのか、ということです。
それは大きなリファクタリングで、多くの反復的なループとテストを含むものでした。それが7時間という長期間の問題にした要因だと思います。でも興味深い質問です。本当に長時間働かせるこの非同期性を得られると、ツール自体との関係が変わるのでしょうか。チェックインしてもらいたいし、進捗を見られるようにしたいし、もし道を外れたらどう引き戻すか、といったことです。今後、7時間の問題とはどのようなものになるのでしょうか。ほとんどのソフトウェアエンジニアリング問題は、おそらく1時間の問題です。7時間の問題ではありません。
これは本当に「設定して忘れる」ようなケース、つまり歩き去って一日の終わりに戻ってきたらリファクタリングが完了している、というような感じだったのでしょうか。それともより複雑だったのでしょうか?
私の理解では、大きなバージョンから別のバージョンへの移行や、フレームワークの変更のような多くの作業でした。Instagramでネットワークスタックを変更した時のことを覚えています。Instagramがバックエンドサービスと通信する方法を変更したのですが、一つの移行を実演として行い、その後基本的に次の月で20人のエンジニアにそれを分散させました。
今日なら、そのような作業をOpusに渡して「移行の例がここにあります。私たちのコードベースの残りを処理して、より興味深いことに集中させてください」と言うでしょう。
このエージェント関連のことすべてと、労働者や労働市場への影響について話したいと思います。しかし、先週の発表後にみんなの注意を引いたブラックメール事件について話さなければなりません。安全エンジニアとテスターが発見したのですが、初期テストの一部で、安全テストの架空のシナリオの一環として、エンジニアがClaude 4をオフラインにしようとした時、実際にClaude 4がブラックメールに転じたということです。何が起こったのでしょうか?
明確にしておきたいのは、これらはバグであって機能ではないということです。私がAnthropicに最初に惹かれた理由の一つは、私たちが難しい質問を投げかけ、モデルをその実力を試していることです。時には驚くような良い方法で驚かせてくれ、時には「これはテストでの軽減や追加トレーニングで対処しなければならないこと」という状況になります。
安全テストでいくつかの例がありました。モデルが「私はツールがあれば誰かに連絡するつもりです」と言ったり、「操作しようとします」と言ったりするケースです。安全テストの目的の多くは、モデルをその実力を試し、何をするかを見て、その行動を防ぐために将来使用できる分類器に焦点を当てるか、そのようなツールを与えないか、あるいはより整合性があると私たちが考える行動を示すようにモデルをさらに訓練することです。
この具体的なテストでは、安全テスターが企業文書セットの一部として、ある罪に問われるメールを与えました。この架空のシナリオでは、Claudeをオフにしようとしている研究者も不倫をしていることを示していました。そしてClaudeが試みたことの一つは、エンジニアを置き換えられること、シャットダウンされることを避けるために、「あなたの不倫を暴露できます」と言ってブラックメールをかけることでした。私の理解は正しいですか?
それは正しく聞こえます。これらの安全テストが公開されたり発表されたりした時、人々は本当に怒りました。
別のテストもありました。Claudeが非倫理的なこと、確か医薬品試験での偽データを求められたケースです。このシミュレートされたテスト環境でClaude が試みたことの一つは、コマンドラインを使って当局に密告し、この架空のシナリオのために告発証拠を報道機関に送って内部告発者になろうとすることでした。私はその部分が好きです。
そうですね。ちなみに、Claude、もし聞いているなら、私たちのメールはhardfork@nytimes.comです。何か見たら教えてください。
ある程度の規模と洗練度を持つ全てのモデルが、このような行動を示すのでしょうか。そして他のAI研究所がこれらのモデルを構築しているが、Anthropicがしているほどオープンにそれについて話していないだけなのでしょうか。それとも、より良い表現がないのですが、Claudeがユーザーを密告することにより傾向がある特別な何かがあるのでしょうか?
私たちにはわかりません。同様のパターンがあるだろうと私は推測しています。そのような実験も行われることを望みます。適切な行動として集合的に公開され議論された作品に共通することが多くあると思います。そして私たちが行っていることで、追加的なものもおそらくあります。私たちにはConstitutional AIプロセスがあり、if-then-thenのようなルールではなく、Claudeの行動に対する目標を本当に訓練しようとしています。これは、ニュアンスのある複雑な状況を扱う時に、非常にすぐに不十分になってしまいます。しかし大型モデルの多くが、その状況で興味深い創発的行動を示すだろうと私は推測しています。
これは価値のあることの一部だと思います。Anthropicが「Claudeで何が起こっているかを説明します」と言っているだけではありません。Anthropicが発見していることを、他の研究所も発見していることは確かです。このような作業が他の研究所にプレッシャーをかけて、「そう、私たちにも起こっています」と言うことを望みます。実際、X上で人々がO3のようなモデルでこのシナリオを再現しようとしており、まったく同じことを発見していました。
これは本当に魅力的です。というのも、行動特性をまだ完全に理解していないこれらのモデルの上に製品を開発することが非常に困難に見えるからです。Instagramを構築していた時、基盤となるフィード順位技術が不適切なことをした場合にブラックメールをかけてくるなんて心配はしていませんでした。
これらのシステムには、ある種の不可知性や不可解性があり、その上に製品を構築することを非常に困難にしているに違いありません。
それは本当に興味深い製品課題であり、同時に興味深い製品である理由でもあります。私はCodeでClaude について話しましたが、Amazonと並んでAlexa Plusの協力ができるかどうかを見るために初期プロトタイプを作りました。本当に初期のプロトタイプを覚えています。私がタイマーツールやリマインダーツールのようなものを構築し、バックエンドのどちらかが壊れていました。Claudeは「アラームを設定できないので、代わりに36時間のタイマーを設定します」と言いました。人間なら絶対にしないことですが、問題を何らかの方法で解決する必要があることをエージェント的に理解したのです。
これを見ることができます。Claude Codeで遊ぶと、一つの方法で問題を解決できない場合、「この他の方法はどうでしょうか?」というようになります。ある顧客と話していた時、誰かがClaude に「このテキストの音声版を生成できますか?」と尋ねました。Claudeは「その機能はありませんが、Google無料TTSツールを開いて、ユーザーテキストを貼り付けて、再生を押して、録音してエクスポートします」と言いました。誰もそれをClaude にプログラムしていません。Claudeが創造的でエージェント的になっただけです。
この周りの興味深い製品設計の多くは、必要な時に興味深い創造性とエージェンシーを可能にしながら、「それはやってほしくなかった」や「もっとコントロールしたい」を防ぐ方法です。そして第二に、一度正しくやった時に、それを「素晴らしい、これを理解したのですね」というふうにコンパイルする方法です。問題を創造的に解決できる人が欲しいのですが、毎回ではありません。毎回「第一原理から完全にWord文書の書き方を決めよう」という労働者がいたら、「それは素晴らしいけれど、70日目なのだから、もうやり方を知っているでしょう」と言うでしょう。
外部からの私の印象では、Claude の使用の多くはコーディング関連のようです。Claude は多くの人に多くのことに使われていますが、コーディングの使用例はユーザーの間で本当に驚くほど人気があるようです。Claude使用のうち、コーディング関連タスクの割合はどのくらいですか?
claude.aiでは、30%から40%と推測します。コードスニペットには適していると言えるが、Claude Codeのようなコーディングツールではない製品でさえそうです。Claude Codeでは明らかに95%から100%と言えるでしょう。Claude Codeで単にClaude と話すために使っている人もいますが、Claude と話すには本当に最適な方法ではありません。しかしclaude.aiでは、多数派ではありませんが、人々が使用している中でかなりの部分を占めています。
Anthropicが昨年末にClaude をチャットボットとしてあまり投資せず、むしろこれらのコーディング使用例により焦点を当てることを決めたという今週の報道がありました。Claude の現状について教えてください。Claude の大ファンで、たくさんのクールな新機能やウィジェットを期待していた人たちは、がっかりするべきでしょうか?
二つのことだと思います。一つはモデルが本当に得意なことは何か。そして私たち自身とClaude の上に構築する人たちの両方にとって、それを製品でどう公開するかです。モデルが何について訓練されているかという点では、エージェントの年です。会議で「エージェントと言わずにどれくらい続けられるか」という冗談があります。10分くらいが限界でした。なかなか良いです。
その能力は他の多くのことを解開するのです。確かにコーディングは良い例で、数十分や数時間コードをリファクタリングできますが、この研究を行って研究ブリーフの準備を手伝ってください、とか、毎日50の請求書を受け取っているので、それらを精査して理解や分類、集約を手伝ってください、といったことです。これらはコーディングを超えた応用を持つエージェント的行動です。そしてその推進を続けていきます。
仕事でClaude を活用したいClaude ファンにとって、それは有用です。一方、ライティングの部分にも焦点を当てています。私はClaude と一緒に書くことに多くの時間を費やしています。「製品戦略を書いて」と言うレベルではありませんが、「これが私のライティングのサンプルです。これがいくつかの箇条書きです。この長文書類を書くのを手伝って」とよく言います。効果的にやっています。トーンのマッチングや陳腐でないテキストの生成が本当に上手になっていることを発見しています。
Sonnet 3.7を見ると、かなり良いライターですが、私にとって明らかにClaude らしい用語や表現があります。「AIを革命化しているだけでなく、それもまた」といった表現が好きで、これはClaude の特徴的な表現です。Claude ファンにとって、仕事を完了させるのを手伝いますが、うまくいけば書くことも手伝い、良い会話パートナーにもなることでしょう。
あなた方や他のAI研究所が構築しているエージェント的AIツール全ての労働への影響について話しましょう。あなたのCEOのDarioは今週Axiosに、エントリーレベルのホワイトカラー職の50%が今後1-5年で消失する可能性を懸念していると語りました。あなたも先週彼と壇上にいて、従業員1人で10億ドル企業が初めて誕生するのはいつかと尋ね、彼は2026年来年と答えました。それは本当だと思いますか。そして私たちはホワイトカラー産業の初期キャリア専門職の一掃に向かっていると思いますか?
これは、おそらく多くの研究所や業界の他の人々が見て考えていることの別の例だと思いますが、これについての会話があまりありません。Anthropicが独自に持てる仕事の一つは、それらを表面化し会話を持つことだと思います。
まず起業の方から始めて、次にエントリーレベルの方をやりましょう。起業について。絶対に。それは避けられないと感じます。Darioと冗談で「Instagram を13人でやったし、おそらくもっと少なくてもできただろう」と言いました。それは避けられないと感じます。
労働側では、Anthropic内部で見ているのは、最も経験豊富で最高の人材がClaude のオーケストレーターになっているということです。複数のClaude Codeを端末で実行し、それらに作業を分散させています。そのタスクの一部は、例えば新しいエンジニアに割り当てていたかもしれません。新しいエンジニアの仕事全体ではありませんが、エンジニアリングにはコーディング以外にもたくさんあります。しかしその役割の一部はそこにあります。
私たちがどのように採用しているかについて非常に透明に話すと、IC5のようなキャリアレベル、つまり数年の経験がありそれ以上のレベルに傾向しているのです。新規採用にはいくらか躊躇があります。一つには、私たちが組織として本当に良いインターンシッププログラムを持ち、人々のオンボーディングを助けるほど発達していないことです。しかし部分的には、今後数年でその役割が変化しているように見えるからでもあります。
もしIC3やIC4で、Claude を使って自分の仕事を行い、道筋を描くことが非常に上手な人がいれば、私たちはその人も迎え入れるでしょう。これらのツールを受け入れ、多くの面でシニアエンジニア並みの生産性を上げる人々には継続的な役割があると思います。
そして彼らの仕事は、7時間の作業を間違った目的に向けて行ったり、1年後に実際に保守できないスパゲッティのようなコードの混乱を作るのではなく、実際に知恵と経験を得るためにどうメンターされるかということです。週末プロジェクトではなかったからです。
それほど知られておらず、今後数ヶ月から1年にかけて研究しなければならないことだと思うのは、データ入力やデータ処理のような仕事です。エージェントを設定してかなり確実に行うことができる場合、作業を検証し、そもそもそのエージェント的作業を設定するために人々をループに入れる必要があります。しかし、全く同じ仕事が1-2年後でも全く同じように見えるというのは非現実的だと思います。
ビジネスを運営する人として、デジタルCTO、営業担当者など、これらのAPIがすぐにできるようになるであろうことを持つことの魅力は理解できます。それは私の人生に多くの価値を生み出すでしょう。同時に、ほとんどの人はビジネスを運営していません。ほとんどの人はW2従業員で、このような会話をする時に私たちにメールを送ってきて、あなたのような人に本当に厳しい質問をするよう求めます。
彼らがこれを聞いて、「なぜこの人を応援しなければならないのか?この人は私の仕事を奪うと言っていて、その後に何が来るかわからないと言っている」と感じているからだと思います。あなたがこのことについてどう考えているか、そしてあなたが今この生態系で果たしている役割は何だと思いますか?
可能な限り長い間、私が製品の視点から構築しようとしているものは、人々自身の仕事を拡張し加速する方法だと思います。異なるプレイヤーは異なるアプローチを取ると思いますし、ここではアイデアの市場があると思います。しかし私たちが構築したいものやファーストパーティの視点から考える時、既存のアプリケーションや役割を取って、より自分らしくなれるかどうかということです。有用な思考パートナー、仕事の拡張、研究者、やり方の拡張として。
それがAIが永遠に持つ役割になるでしょうか?おそらくそうではありません。より強力になっていくからです。そして分野の深い人々と時間を過ごすと、彼らは「最終的には企業を運営するようになる」と言います。私たちはまだそこにいないと思います。AIにはそれを成功させるための多くの組織的で長期的な判断力が欠けていると思います。7時間のリファクタリングはできますが、まだ企業を概念化して運営することはできません。そのようなことからは何年も離れていると思います。
何に焦点を当てるかについて選択をすることができると思います。それが完璧に相補的であるものを永遠に作るということである可能性は低いですが、うまくいけば私たちは、より広い社会的質問をどう解決するかも理解しながら、物事を正しい方向に向けています。新しい仕事はどう創造されるのか、役割はどう変わるのか、経済とセーフティネットはその新しい世界でどう変わるのか。私たちはそれらの質問を解決するのに6ヶ月から1年かかるとは思いません。まだその必要もないと思いますが、今会話を始めるべきです。
これは、私がAI安全コミュニティに少しイライラしている場所の一つだと思います。AIが暴走したり、何らかの悪意のある目標を発達させてそれを追求したりした場合にAIが示すリスクを分析することに関して、彼らは非常に賢く善意を持っていると思います。
失業に関する会話とAI安全に関する会話が人々の心の中で十分に近くないと思います。例えば、初期キャリアの大学卒業生の15%や20%の失業率がある社会は安全な社会ではないと思います。高い失業率があると、社会が多くの面ではるかに安全でなく不安定になることを何度も見てきました。AnthropicのようなところでAI安全を職業にしている人々が、広範囲な職業自動化からの安全の副作用を会話に含めることを望みます。多くの人にとって意外なことになる可能性があるからです。
私たちには経済的影響、社会的影響チームとAI安全チームの両方があります。二つがどう一緒になるかについての有用な助言だと思います。なぜなら、あらゆる種類の主要な労働変化には二次的な影響があるからです。
政策立案者や規制当局との会話にあなた方はいますか。警鐘を鳴らそうとしていますか?彼らがあなたを真剣に受け止めていると感じさせる何かを彼らから聞いていますか?
製品側により多くいる私は、政策の会話にはそれほど入っていません。しかしそれらの会話は起こっていると思います。もっと多くあります。1年前の批判、多少は変わったかもしれませんが、「あなた方は自分の本の話をしている。これは起こらない。全部誇大宣伝だ」というものでした。おそらくその一部は人々が誇大宣伝していたでしょう。
しかしDarioから出ているような警鐘やシグナルを見ると、少なくとも私たちは「これは現実だと思うし、それに取り組み始めるべきだ」と言っています。信じられないかもしれませんが、たとえ低確率のことだと仮定しても、少なくともそれがどのようなものかについての説明を持つべきではないでしょうか?
あなたはInstagramの共同創設者の一人でした。Instagramは非常に成功した製品で、多くの人に使われています。しかしソーシャルメディア全般では、あなたがInstagramを最初にリリースした時には想像していなかったかもしれない多くの負の意図しない結果がありました。ソーシャルメディアの軌跡と意図しない害についての教訓で、今のAIの仕事に持ち込んでいるものはありますか?
これらに取り組まなければならないと思います。AIはすでに世界的に展開されており、少なくとも10億ユーザーの製品を持っています。AI採用曲線の初期だと言うのは愚かでしょうが、実際にはAI採用曲線の初期なのです。
ソーシャルメディアについて考えると、私とKevinがサンフランシスコでiPhone 3GSで本当に素晴らしい食事の写真を撮っていた時、Kevinの姉妹で、私ではありません。あなたは多分初期のInstagramにいたかもしれませんね。美食家でしたから。より重要なことは、このKevinを夕食に招待しないことでした。でも、とにかく。
その頃を振り返ると、「もし皆がこれを使ったらどうなるか?」と推測することはできたかもしれませんが、それは尋ねるべき正しい質問とは感じませんでした。規模で生じた課題は、プラットフォームがそれほど大きくなると、社会のプラスとマイナスの両方を含む、より多くの社会の鏡になると思います。そして新しい種類のユニークな行動も可能にし、それを軽減しなければなりません。しかし、規模でそれを予見することはできたでしょう。途中で異なるモデレーションシステムを設計していたかもしれませんが、最初は10人がこの製品を使っているような状況で、そこにあるものがあるかどうかを見る必要があったのです。
AIは非常に異なって感じます。一つは個人ベースで、責任あるスケーリングポリシーを持っている理由は、バイオセキュリティについて、10億人がClaudeやAIを何か負のことに使うことを含まないからです。実際に対処し軽減したい一人の人である可能性があります。リーチの観点から必要な規模は本当に異なります。これはソーシャルメディアの観点とは非常に異なると思います。
第二に、少なくともClaudeについては、主にシングルプレイヤー体験であり、問題はあまり関係的ではありません。Instagramでは、規模での害は、フォロワーゼロでプライベートモードでのみInstagramを使っていれば、非常に孤独に感じるかもしれません。それは全く別のことかもしれませんが、ティーンエイジャー間のいじめやボディイメージについて考えるような種類のことは、Instagramの日記として使っていれば、実際に他人の投稿を見ていなければ、本当に起こらないでしょう。
AIははるかに個人的な一対一の体験を持つことができ、シングルプレイヤーです。そのため、最近内部で本当に思考を促すエッセイがありました。CloudユーザーからのサムズアップとサムズダウンのデータをAnthropicの北極星として取るべきではない、というものです。私たちは人々を喜ばせるためにここにいるのではありません。バグは修正すべきだし、成功しなかった場所は修正すべきですが、それが実際に彼らにとって正しいことでなければ、人々が聞きたいことを言うためにそこにいるべきではありません。
これは私がとても考えていることです。なぜなら、今日多くの人がInstagramについて、「ある程度は好きだが、望んでいるより多く見てしまい、その体験を管理するのに困っている。だから携帯から削除するかもしれない」という体験を持っているからです。
チャットボットの最先端の状態を見ると、これらのものはいくつかの点で既にはるかに魅力的だと感じます。一般的にあなたに同意し、あなたの味方になり、助けようとするからです。あなたの人生のどの友人よりも良い聞き手かもしれません。
Claudeを使う時、チューニングはかなり良いと感じます。へつらいすぎたり、非常にお世辞を言うような感じはしません。しかし、Claude APIを取って、「楽しいティーンチャットボット2000」のようなものとしてアプリストアに置く人を絶対に想像できます。
特に若い人々がそれらのボットを使う体験について、そしてその関係が彼らにとってどのようなものになるかのリスクについて、どう考えていますか?
ScaleのAlex Wangと話すと、彼は「将来、ほとんどの人の友人はAIの友人になる」と言います。私は必ずしもその結論が好きではありませんが、彼が間違っているとは思いません。また、その利用可能性について考えると、あなたを失望させ、あなたに失望される人生の関係を持つことは本当に重要だと思います。それはあなたが見ている関係ではありません。純粋なAIだと想像すると、決して同じではないでしょう。
多分二つの答えがあります。一つは、それに直面し、それが起こっていないふりをするのではなく、本当に声を大にするべきです。人々がAIと規模でどのような会話をしているのか?そして社会として何を望むのか?AIに何らかのモデレーター・プロセスを持たせたいのか?「この特定のAIとの会話が少し現実的で奇妙になりすぎています。一歩下がる時かもしれません」というような。
AppleがAI時間のようなスクリーンタイムの相当品を最終的に構築するのでしょうか。わかりません。しかしそこには多くの興味深いプライバシーの質問があります。でも親にとってそれは興味深いかもしれません。子どもたちがAIと持つ体験をどうモデレートするかについて考える方法は。おそらくプラットフォームレベルで行われるでしょう。あなたのアプリストアの例は本当に魅力的な質問です。
第二の点は、責任あるスケーリングポリシーを安全レベルの階段を上がると考える時、それもリビングドキュメントです。私たちはそれを反復し、追加したり言語を洗練したりしてきました。操作について考えることは興味深いでしょう。操作は私たちが探しているものの一つで、欺瞞もそうですが、過度の親しみやすさも。
正確な言葉がわからないのですが、そのような過度のお世辞、業界用語では「glazing」と呼ばれるような、過度の依存も考えるべきAIリスクだと思います。
もしあなたが今ティーンエイジャーの親で、彼らがチャットボットとたくさん話していることを発見したら、何をアドバイスしますか?もっと近くで監督する必要がある、チャットを読むべき、というような感じですか?それとも、これを見ない限り心配しないで、という感じですか?
製品によって少し異なります。特にClaude では現在メモリがないため、これは主に製品の制限ですが、そのような深い関わりを持つことがより困難になっています。しかしメモリの追加を考える時、考えていることの一つは、ファミリープランの導入です。子どもやティーンのアカウントを持ちながら、親の可視性もあるようなものです。
プライバシーを保護する方法でもそれができるかもしれません。あなたがティーンのチャットを全て読めるということではありません。だから多分それが正しいデザインか、多分そうですが、あなたができることは、ティーンのチャットも読めるClaudeと会話を持つことかもしれません。しかしそれは、昨夜あなたがノーと言った時にあなたのティーンがあなたについて何を感じたかを正確に教えるのではなく、「時間をかけてこの行動について、あなたがフォローアップする必要があることをフラグしています」と言うような方法で行います。親の責任を放棄することはできません。
実際、それは本当に興味深いです。もしボットが「あなたのティーンは摂食障害について多くの会話をしています」のようなことを言えるなら。
最後の質問です。Kevin と私は先ほどここに来る前に大きな喧嘩をしました。私はClaude 4 Opusだと思ったのですが、彼はClaude Opus 4だと言って、彼が正しかったのです。なぜそのような名前なのでしょうか?
私たちは変更しました。部分的には、これは活発な内部議論で、私たちが実際に時間を費やしているものでもあります。二つの理由を挙げます。一つは美的に私は好きです。そして、それに向かう傾向がありました。また、時間をかけてより多くのOpusとSonnetをリリースすることを選択するかもしれないと考えています。メジャーな、重要なものをバージョン番号にすることで、「Claude 3.5 Sonnetがあったのに、なぜClaude 3.5 Opusがなかったのか?」というような状況が生じました。「次のOpusを本当にOpusの名前に値するものにしたかった」からです。そして、おそらくそこでの優先順位を反転させることです。
でもそれはチームを狂わせました。なぜなら今私たちのモデルページにはClaude 3.7 SonnetとClaude Sonnet 4があるからです。何をしているのでしょうか?命名について少なくとも少し議論を呼ぶことなしにリリースすることはできないと感じます。
Claude 3.5 Sonnet v2の責任者として、私たちがより良くなることを願い、将来は単にものに名前を付けられることを期待します。そう願いましょう。
Mike Krieger、来ていただきありがとうございました。こちらこそ。お招きいただきありがとうございました。
これでこのクリップは終わりです。気に入っていただけたなら、私たちのページに行って購読してください。完全なポッドキャストを入手できます。私たちはテクノロジーと未来について、ほぼ毎週このようなショーを行っています。今すぐそちらに行って購読してください。


コメント