OpenAIが発表したGPT5とAmazonの新しいAlexa Plusについて詳細に検証した内容である。GPT5は従来のモデルと比較してより専門家レベルの対話が可能になったとされ、無料ユーザーにも高性能モデルへのアクセスが提供される。一方、Alexa Plusは生成AI技術を活用した大幅なアップデートを行ったが、実際の使用では新機能と既存機能の両方で課題が見つかっている。両製品とも技術的な進歩は認められるものの、実用性の面では改善の余地が残されている状況が明らかになっている。

今週のAIリリースについて
ケビン:GPT3は高校生と話してる感じやったんやけど、GPT4は大学生と話してる感じやった。そんでGPT5は初めて専門家、博士号持ってるような人と話してる感じやと言うてたんや。世界でも最高の頭脳を持った人らがこの分野で研究してるんやけど、実際のところまだどうやったらええのか分からへんのが現実やと思うわ。それが俺の大きな気づきや。
今は消費者向けアプリケーションだけでも1000を超えるAIの取り組みが動いてるんや。その時点でAmazonぐらいの規模になってるんやで。
今週初めての体験をしたんや。何かって?初めて気付け薬を使ったんや。気絶したんか?そうなんや。病院で血液検査せなあかんくて、血ぃ抜かれるのがめちゃくちゃ苦手なんや。半分ぐらいの確率で血液検査で気絶するんやけど、今回は気絶するだけやなくて吐いてもうて、気付け薬で意識戻してもらったんや。ケイシー、気付け薬使ったことないやろけど、あれはほんまにヤバいで。冗談やないわ。
そんなん今聞いてびっくりしたわ、俺も気絶するタイプやから。気絶するんか。そうや、気絶するんや。俺ら仲間やな。AP生物学の授業で、カイロプラクティック大学に行って死体を見ることになったんや。すごく知的に興味深かったんや、体のシステムについて魅力を感じてたんや。
俺と他の生徒たちが死体の周りに立って、その人が肝臓がこれで脾臓がこれやと説明してくれてたんや。そん時に何かのにおいを嗅いだんや。防腐剤かホルムアルデヒドか分からんけど、脳で何かスイッチが入って「これは自然に反してる、開かれた死体にこんなに近づいたらあかん」って思ったんや。ほんまにくるっと回転して、壁にあったホワイトボードに頭から突っ込んで、気がついたら天井見上げてて、最初に聞こえてきたのがAP生物学の先生のオリバー先生の「この子の緊急連絡先持ってる?」って声やったんや。
確かに人に気絶しろとは言わんけど、人間が体験できる中でも最も驚くべき狂った体験の一つやと思うわ。分かるか?意識がふっと離れていく瞬間っていうのが。そうやな、クレイジーや。気付け薬で意識戻された時は、なんかヴィクトリア朝時代みたいな感じやった。「あぁ、気の毒に」って感じでな。ダーシーさんを呼んでくれって。
俺はニューヨーク・タイムズの技術コラムニストのケビン・ルースや。俺はPlatformerのケイシー・ニュートンや。これがHard Forkや。今週は、GPT5について全部お話しするで。それからケビンと俺で新しいAlexa Plusにアクセスできたから、いくつかマイナス点も見つけたし、AmazonのAlexa担当副社長にも話を聞くで。Alexa、インタビューの質問を準備しといて。
GPT5の登場
ケイシー、今週もAIの世界は忙しかったな。ほんまにそうやったわ。OpenAIについて話すから言っとくけど、ニューヨーク・タイムズ社はOpenAIとMicrosoftを著作権侵害で訴えてる。それと俺の彼氏はAnthropicで働いてる。
今週はたくさんの新しいAIリリースと発表があった。全部は紹介せんけど、ハイライトを言うと、Google DeepMindからworld modelっていうのが出た。Genie 3はインタラクティブなゲームエンジンみたいなもんで、遊びたいゲームを説明するだけでリアルタイムで作ってくれるんや。めっちゃクールやけど、まだ使えへん。研究プレビューやからな。
それから新しいClaudeのバージョンも出た。Opus 4.1やな。触ってみたけど、そんなに違いはないけど、新しいアップデートやった。OpenAIからオープンソースモデルも出たで。久しぶりに「Open」を名前に戻したんや。今週2つのオープンソースモデルをリリースしたんや。
ケイシーはどっちか試したか?まだダウンロードしてへんわ。君は?俺もや。一つはMacBookで動かせるぐらい小さいらしい。もう一つは専用のGPUが必要やな。これらは基本的にはGPT2以来、何年ぶりかのOpenAIの最初のオープンソースモデルや。
人々は長い間OpenAIに文句言ってた。オープンソースにせんで創立精神を裏切ってるって。そしたらOpenAIが「はい、どうぞ。モデルありますで」って。最上位モデルやないけど、人々はいろんな使い道を見つけてるわ。これはDeepSeekみたいな中国企業から出てるオープンソースモデルと競合するために設計されたんや。
早期のレビューではなかなか良くて、O3 mini、O4 miniみたいなプロプライエタリなモデルと競合できるレベルやって話やな。そうや、俺が読んだ初期レビューでは、オープンソースモデルは強力で良いって評価やった。
GPT5の詳細発表
そういうのが今週前半の発表やったんやけど、大きなニュースは今週OpenAIがGPT5、長い間待たれてたフラッグシップモデルをリリースしたことや。サム・アルトマンに何ヶ月も聞かれ続けてたやつやな、俺らも含めて。長い間待たれてて、たくさんの噂や憶測が飛び交ってた。
俺らはさっき記者説明会、サム・アルトマンとOpenAIの他のリーダーとのZoom通話から戻ってきたところや。ケイシー、何が分かった?
まあ、記者説明会で言われたことがGPT5は彼らの史上最高のモデルやっていうのは驚きやないやろな。サム・アルトマンは大幅なアップグレードで、AGIへの道のりの重要な一歩やと言ったけど、まだAGIには到達してないとも言った。例えば、このモデルは継続学習しないし、彼の見解ではAGIは継続学習するはずやからな。
実際それを言ったのはクールやったと思う。AGIに近づいてる時の一つの指標が分かったからな。でも面白かったのは、GPT5を作った後でGPT4に戻って使ったら「めっちゃ惨めやった」って言ったことや。二度とGPT4は使いたくないって。それぐらいGPT5は良いって言うんや。
そうやな。過去のモデルと比較して、GPT3は高校生と話してる感じ、GPT4は大学生と話してる感じ、GPT5は初めて専門家、博士号を持った人と話してる感じやって言ったんや。
録音時点ではGPT5はまだロールアウトされてなくて、俺らも試せてなかったんやけど、今週中にはロールアウトされるし、今まで最上位モデルにアクセスできなかった無料ユーザーも使えるようになるんや。
それは重要やと思うわ。今まではOpenAIの最高のモデルは有料ユーザー限定やったからな。俺が一番使ってるチャットボットはO3っていう推論モデルやけど、無料プランの人は使えへんかった。だから無料ユーザー、特に高校生や大学生が、少なくとも彼らが言う博士レベルの知能と推論にアクセスできるようになるのは注目すべきことや。
モデル選択の廃止
ChatGPTの長年のうっとうしい機能の一つがモデル選択やった。ドロップダウンメニューが出てきて、デフォルトはGPT4Oやけど、有料ユーザーならもっと強力なのを選べるっていうやつや。
でもGPT5では、OpenAIはモデル選択を廃止するか、少なくとも必要性を減らすんや。「ルーター」っていうのを作って、リクエストを分析してどれぐらいの計算が必要かを判断して、簡単な質問か複雑なやつかを見て、適切なモデルに振り分けるんや。
多くの人にとって、これが推論モデルの初体験になると思う。OpenAIは今のところChatGPTでそれをデフォルトにしてないからな。だからGPT5が実際に以前のモデルより良いかどうかに関係なく、無料で推論モデルを使えるようになるのは大きなアップデートやと思うわ。
モデル選択をなくすのは良い面も悪い面もあると思う。大手のラボは全部モデル選択があるからな。Geminiにもある、AnthropicのClaudeにもある。時々簡単な質問を推論モードに設定されたモデルにして、「あぁ、そんなに計算パワー必要やなかったな」って思うことがある。
一方で、OpenAIは可能な限りコストを節約したいから、常に必要最小限の計算に振り分けようとするインセンティブがあるんやないかと心配や。「良いやつを使わせて」って直接言えなくなったら、体験の質に影響するかもしれへんからな。
GPT5のデモと機能
説明会でOpenAIは期待通りのことを言ったわ。GPT5は過去のモデルよりあらゆる面で優れてるって。でも彼らが「モデルのバイブス」って呼んでるものについて時間を割いて話してた。それはなかなか良いらしい。
一連のデモもあって、面白かったのはサム・アルトマンが「オンデマンドソフトウェア」って呼んだ概念の紹介や。GPT5は瞬時にソフトウェアを作ってくれるんや。デモでは、従業員の一人が彼女のフランス語学習ツールを作ったんや。フラッシュカードを作ったり、マウスとチーズの小さなスネークゲームを作ったりして、マウスがチーズを捕まえるたびに新しい単語を表示するんや。全部テキストプロンプトだけでできるんや。実際なかなか良く見えた。5年前にプログラミング入門のクラスで提出してたら、たぶんAもらえたやろうな。
確かに印象的やけど、他のモデルでも今日できることやからな。実際に自分で使ってみて何ができるか確かめなあかん。いつものRoosebenchテストにかけてみるわ。正直、説明会の途中で少し集中力が切れたんや。こういうのに何回も参加してるけど、みんな自分のモデルが最新で最高で、コーディングが得意で、エージェント機能があるって言うんや。マーケティングの宣伝文句みたいに聞こえてくるわ。
俺にとって新しいモデルについて聞く面白い質問は、どれぐらい良いかやベンチマークでどうかやない。「今まででけへんかったことで、今できるようになったことは何か?」や。GPT5についてはまだ良い答えが出てへんけど、調査するつもりや。
スケーリング法則と技術的限界
説明会で聞かれた興味深い質問が2つあった。一つは「限界に突き当たってるんちゃうか?」っていうやつや。スケーリング法則はまだ有効かって。サム・アルトマンは「絶対にまだ有効で、スケールする新しい次元を見つけ続けてる」って言った。
より良いモデルを作る新しいパラダイムを見つけ続けてるって言うんや。俺らがモデルを作るのに全然苦労してないっていう印象を与えようとしてたな。でも実際に使い始めたら反発があるかもしれん。確かにいくつかの点で明らかに良くなってるけど、ケビンが言うように、前にできなかったことが本当にできるようになったかは疑問や。前にできたことが少し良くなった程度かもしれん。
それは妥当やと思う。彼らがスケーリング法則について話す時、新しい推論モデルのことも含めて定義を広げてるんやないかと思う。事前学習段階のモデルは良くなるところまで良くなったかもしれんけど、より知的にする方法は事後学習段階、強化学習サイクル、推論環境での訓練を通してやっていうことやからな。
スケーリング法則が破綻してないって言う時は、この強化学習推論アプローチも含んでるんやと思う。そう信じてるし、まだまだ長い道のりがあるって言う人の話も聞いたことある。
これはほんまに大きなモデルやった。正確にどれぐらい大きいか、どれぐらいのGPUで訓練されたか、どれぐらいのデータを与えられたかは分からんけど、少なくとも事前学習においてはモデルのスケールを最大化するために彼らができることは全部やったと想定しても安全やろう。
デモで見た限り、それほど賢く見えへんかった。いくつかの点で少し良いかもしれんけど、箱から出してきて超知的やったっていうわけやないな。
安全性テストと対策
大きな新しいモデルが出る時にいつも興味があるのは、安全性テストはどうやったか、このモデルは迎合的になるか、人々はどんな強い関係性を築くかっていうことや。ニック・ターリーがそれについて答えた。
今週前半にOpenAIが出したブログ投稿について言及してた。俺も今週Platformerで書いたんやけど、彼らのアプローチについて全部載ってるんや。医師と協力して、外部の専門知識をたくさん取り入れて、人々がこれらのモデルとどう相互作用してるかを理解してより安全にしようとしてるって。
エンゲージメントを最適化してるわけやないって言った。役立つツールを作って送り出すだけやって。そしてこれについてもっと伝えることがあるって。詳細はあんまり聞けへんかったけど、少なくともいくつかの点でモデルを改善して迎合的やなくしたと思うって言ってた。
それに加えて、5000時間のレッドチーミングをやったって。外部専門家とモデルを共有してアドバイスをもらったって。新しいバイオリスクを作るのに使われる可能性について「高」って評価してるから、その辺りの保護をたくさん組み込んでる。あんまり良くないけどな。
それが発表前に受け取った安全性報告や。新しい機能に加えて、GPT5は以前のモデルよりずっと信頼性が高いって言ってる。ハルシネーションが少ないし、「安全な完了」っていう面白いことをするんや。基本的に、モデルがガイドラインに反するからリクエストに応じたくない時、ただ拒否するんやなくて、より安全なバージョンのリクエストを作ってそれを完了するんや。
人々がどう使うか見てみるのは面白いやろうけど、これが彼らの主張や。より信頼性が高くて、嘘をつかず、安全な完了を提供するって。
GPTのバージョニングについて
これで面白いのは、OpenAIが何をもってこれをGPT5と呼ぶかってことや。大きな数字のリリースは今すごいマーケティングパワーを持ってると思う。GPT2から3への飛躍が大きくて、3から4への飛躍も大きかったから、5への期待も大きくなるんや。
でも舞台裏では、OpenAIはいろんなことを試して、いろんな新しいモデルを作って、いろんなものを合わせて、最終的に「これを5と呼ぼう」って決めるんやけど、外から見えるほど直線的やないんや。
全部のラボで、新しいモデルを訓練してたけど思ったほど上手くいかなくて、低い番号を割り当てるっていう経験があるんや。OpenAIでも起きてる。前に作ってた大きなモデルが最終的に4Turboになったんや。最初はGPT5になるはずやったのが、期待通りにならなかったんや。
だからモデルの番号付けとマーケティングについてはゲームをしてるんや。でもこれをGPT5と呼ぶことで、GPT3からGPT4で人々が見たのと同じような能力の飛躍として見てもらいたいっていうシグナルや。
俺にとって今回のリリースで一番面白いのは、GPT5がどんなものになるにしても、これが彼らが次の大きな前進やと思ったものやっていうことや。それを基準に評価すべきやと思う。
大局的に見て、OpenAIはほんまに必死になってトップに留まろうとしてる。AGIか、AGIやと主張できるものに向かって必死に競争してる会社や。まだ進んでる。実際、彼らの実行力はなかなか印象的やと思う。今やほんまに大きな会社で、競合するチームや優先順位もたくさんある。理事会のドラマもあったしな。
その後で減速して、競合他社に追いつかれることを予想してもおかしくなかったし、俺も実際そう思ってた。でも今週彼らが示したのは、減速してないどころか、実際に加速してて、誰よりも先に到達したがってるってことや。
でも最近何週間、何ヶ月にもわたってたくさんの人材流出もあったから、今後数ヶ月で注目してるのは、彼らが非常に速く反復し続けられるか、それとも過去数週間の損失が本当に痛手になってるかってことや。
ちなみにケビン、GPT5の発表に対応して、Meta本社では人工超知能研究者たちがマーク・ザッカーバーグの机をさらに近くに移動させたって聞いてるわ。それぐらい真剣に受け止めてるんや。今やマーク・ザッカーバーグの上に座ってるんや。
2人の研究者がマーク・ザッカーバーグの机に一緒に座ってて、どうなるか見ものやな。
GPT5の実際の使用体験
これらが俺らの初期印象やけど、実際にモデルを少し触ってみた後で明日また戻ってきて、第一印象を話すつもりや。未来に旅立とう、ケビン。
よし、ケイシー。今木曜日や。GPT5が正式にリリースされて数時間経った。俺はなぜかまだアクセスできてへんけど、君はアクセスできるみたいやな。初日のバイブチェックを教えてくれ。どんな感じや?どんな反応が見られる?
これはHard Forkの歴史において非常に重要な瞬間や、ケビン。初めて君と話しながらバイブコーディングしてるからな。
何をバイブコーディングしてるんや?ChatGPTが俺のためにto-doリストアプリを必死に作ってくれてる。ファンタスティック・フォーの新作映画の美学にしてくれって言ったんや。映画はあんま好きやなかったけど、プロダクションデザインは良かったから「あんな感じのto-doリストアプリ作って」って言ったんや。
君のくだらんto-doアプリのために巨大なギガワットデータセンターを作ってるなんて信じられへんわ。こんなに無駄やで。おい、Roosebenchっていう君専用の評価スイートを送ってくれ、ほんまにテストしたいから。
でもハイレベルなメモをあげさせてもらうわ、ケビン。俺が見てることと他の人が見てることについてな。見出しは、これはChatGPTの本当に意味のある改善みたいやということや。特に、ChatGPTの無料ユーザーやったら、すごくいい日になるやろうな。初めて標準的なChatGPTモデルに加えて、推論機能が使えるようになるからな。
つまり、高校でカンニングしてる奴らは、今度はもっと楽になるってことや。この子は長い問題に対して本当に長時間の作業ができるからな。
そうや、ワンクリックで一学期丸ごとカンニングできるようになったんや。これは良いことや。
オンラインで人々が話してるのを見る限り、OpenAIはGPT5でAIフロンティアの天井をそれほど上げてないけど、床は上げたって感じや。以前はより弱いモデルにデフォルト設定されてた無料ユーザーが、今度はより強力なモデルを使えるようになるから、フロンティア能力についてやなくても、認知的にも大きなシフトになりうるわ。
それに能力やないけど、人々がこれらのAIシステムをどう使うかに意味ある影響を与えそうなものもある。例えば、この子はほんまに前のやつより速いんや。この数時間で、俺が時々ChatGPTに頼む編集作業をやらせてみた。O3モデルでどれぐらい時間がかかるか知ってるんやけど、GPT5に通したら、確かに爆速やった。前と同じぐらい良い仕事してくれて、ChatGPTをよく使う人にとってはほんまに目立つと思うわ。
料金はどうや?GPT5は予想よりずっと安いって言ってる人もいたけど。ChatGPTサブスクライバーにとっては安くないな。サブスクリプション料金は同じままや。でも開発者向けには、他のAIラボの他のモデルよりずっと安いって理解してる。
そうや。100万入力トークンあたり1.25ドルで、これはGoogleのGemini 2.5 Proと同じや。Googleももちろん競合他社を締め出すために積極的な価格設定をしてる。この数字が面白いのは、AnthropicのClaude 4 Opus APIより大幅に安いことや。あっちは100万入力トークンあたり15ドルやからな。
一部の資本の豊富なAIラボが、競合他社に価格圧力をかける瞬間やと思うわ。10年前にUberが4ドルやった時みたいやな。ベンチャーキャピタリストが人工的に安い価格を補助してたんや。今AIトークンについても同じ瞬間にいるんや。
新しいAIモデルをリリースした人に対する最悪の侮辱は「俺のタイムラインが延びた」って冗談を言うことがあるんやけど、新しいGPT5についてそれを言ってる人がいるみたいや。つまり、AGI、何らかの非常に強力なAIシステムに到達するまでもう少し時間がかかると思うってことや。
実際、「8月末時点で最も強力なAIモデルを持つのは誰か?」っていう予測市場のスクリーンショットを投稿してる人もいて、今日まではOpenAIがリードしてたのに、木曜日のライブストリームの直後にOpenAIが崩壊してGoogleが上昇、8月末には最高のモデルを持つと予想されるようになったんや。
あんまり深読みしたくないけど、GPT5が革命的な新しいモデルやと思ってた人がたくさんいたのに、進化的なもののように見えたっていう大きな層があったみたいやな。
それはすごく納得できるわ。もう一つ気になったのは、OpenAIがGPT5についてベンチマークとデータを発表したことや。その中で示されたのは、ハルシネーション、GPT5が質問に答える時に適当なことを言う率が大幅に下がったことや。いくつかのタイプの質問については、ハルシネーション率が1%ぐらいまで下がったんや。
これが面白いと思ったのは、明らかに以前のバージョンでは問題やったからや。実際、新しい推論モデルが前世代のモデルより高い率でハルシネーションしてるっていう憶測と兆候があって、それについて多くの懸念があったんや。GPT5ではハルシネーションをコントロールする方法を見つけたみたいやな。でも全部について、俺はこれらのベンチマークを完全には信用してへん。自分で確かめなあかん。
人それぞれやろうな。俺はもう何回かハルシネーションを捕まえてるから、ちょっと残念やった。いつも通り、重要なことには信用したらあかん。事実は必ずダブルチェックしいや。
そうや、ファンタスティック・フォーの美学でくだらんto-doアプリを作るためだけに使えってことやな。ファンタスティック・フォーはすごくクールな美学やし、君ももう少し心を開かなあかんと思うわ。
これがGPT5の初日バイブチェックや。引き続きこれで遊んでみて、クールなことや興味深いこと、変なことや不快なことがあったら教えるで。
Alexa Plusについて
AI談義はもうええ。AIと話してみよう。戻ってきたら新しいAlexa Plusのハンズオンレビューをするで。
ケイシー、君はAlexaユーザーか?長い間Alexaユーザーやったで。家にはまだオリジナルのAmazon Echoがあるし、Amazonの功績として、今でもちゃんと動いてるわ。
プリングルスの缶やな。そうや、大きい古いプリングルス缶みたいなEchoを持ってる。俺もや。この製品のヘビーユーザーや。家の各部屋に5台ぐらいあるで。だから今日の会話がすごく楽しみや。新しいAI Alexa Plusについて話すんやからな。
この体験と、それを運営してる人とのインタビューに入る前に、いくつか開示しとかなあかん。一つは、ニューヨーク・タイムズ社が最近Amazonとライセンス契約を結んで、AmazonがAlexa含むAIプラットフォーム向けにタイムズのコンテンツにアクセスできるようになったことや。明らかに俺らはそれとは関係ないけど、会社の別の部門で進行中やから知っておいてほしい。
二つ目は、Alexaデバイスを持ってる人は、このセグメント中ずっと反応し続けるから、今すぐ行ってミュートボタンを押してくれ。Alexaオーナーには申し訳ないけど、今少し時間をあげるから、これを一時停止して、Alexaのミュートボタンを押して戻ってきてくれ。または、今いる家のサーキットブレーカーを見つけて全部切ってしまえ。このエピソードの残りはバッテリーで動かせ。
Alexa、ドッグフード14袋注文して。実際に動くか気になるな。
俺の彼氏がAnthropicで働いてることも開示しとかなあかん。Alexa PlusでAnthropicのAPIが使われてるのはほぼ確実やからな。今日は開示が多いな。
Alexaの謎と現状
始めよう。Alexaは俺が今まで出会った中で最も困惑する技術製品の一つや。君と同じで、俺も初期の頃からのAlexaユーザーや。人々はこの製品が2014年にリリースされたことを忘れがちや。Alexaは11歳やで。
出た時はすごく興奮したんや。家にスマートスピーカーを置いて、いろんなことを頼んで、キッチンカウンターに小さなアシスタントがいるみたいにしようと思ったんや。
2014年以来、Alexaは数十、もしかしたら数百の機能を追加したけど、俺が使ってるのはゼロや。なぜなら俺がAlexaを使うのは3つのことだけやから。タイマーをセットすること、家で音楽を選ぶこと、出かける前に天気を教えてもらうことや。
絶対にそうや。君が使うのも似たような感じか?全く同じ3つや。他のことにも使おうとしたことはある?あるで。でも体験が率直に言ってそんなに良くなかったから、いつもこの3つに戻ってくるんや。
そうや、俺の家でも大きな3つは同じ。同じ使用例、同じ制限。でも生成AIが2年前に良くなり始めた時、人々は自然にAlexaがいつこの新しい生成AI技術を使い始めるのかって聞き始めたんや。古い、より決定論的なシステムで作られてるみたいやけど、Alexaがこの技術を取り入れて、もっとオープンエンドな質問に答えたり、より長く詳細な回答をしたり、タイマーセットと天気予報以上のことをするのは自然な期待やったな。
OpenAIがChatGPTにボイスモードをリリースした時、AlexaやAppleの似たようなシステムのSiriよりもすぐにずっと面白くて強力に見えたんや。だから俺ら両方とも「家にあるスマートデバイスでOpenAIスタイルのボイスモードがいつ使えるようになるんや?」って思ったんや。
時間がかかったな。スムーズで簡単なプロセスやなかったって言わなあかん。このショーの後半でAlexa担当副社長のダニエル・ラウシュと話すのが楽しみなのは、既存のアシスタント製品にLLMベースの生成AI技術を詰め込むのがなぜそんなに難しかったかってことや。
Alexa Plusが何で、俺らの体験について少し話そう。俺ら両方ともこの数日間試すことができたからな。
ケビン、Alexa Plusについて少し教えてくれ。Alexa Plusは最新のAlexaバーチャルアシスタントの大幅改修の名前や。生成AIで動いてる。正確にどのモデルか分からんけど、Amazonの独自AIモデルとClaudeの組み合わせみたいや。AnthropicとAIプロダクトでClaude使う契約を何ヶ月も前に結んでるからな。
Amazonは新しいAlexa Plusはずっと多くのことができるって主張してる。より会話的で、よりパーソナライズされてる。レストランの予約を取ったり、Uberを注文したりできる。純粋な検索やない質問に答えられる。「今夜の野球の試合は何時?」みたいなんやなくて、もっと複雑なことをしてくれるんや。家のスマートデバイスや家電をコントロールできるし、オンラインで物を買うこともできる。
この新しいAlexa Plusはまだ全員には提供されてへん。ゆっくりとロールアウトしてる。今は「早期アクセス期間」って呼んでる。俺らは注文した新しいデバイスで使えるようになった。全てのEchoデバイスで動くわけやない。新しいやつの一部でないと動かせへん。
ケビン、ゆっくりとロールアウトしてるって言うけど、ほんまに極端にゆっくりや。6月23日にAmazonが100万人がAlexa Plusを使ってるって言ったんやけど、おそらく何億台ものEchoデバイスがある中でやからな。
俺ら両方ともAlexa Plusを動かせる新しいEchoを手に入れて、セットアップして試してみた。すぐに気づくことがいくつかある。一つは、この新しいAlexaの声が古いやつよりずっと良いことや。それは同感や。ずっと流暢で、ChatGPTのボイスモードで聞くようなものに近い音がする。実際の音声部分のボイスアシスタントを大幅に改修したんや。ずっと人間らしく聞こえる。
いろんな声もある。アプリで8つ見た。半分が男性的、半分が女性的やから、好みに合わせて変更できるで。
もう一つすぐに気づく大きな違いは、新しいAlexa Plusは質問と回答のペアの間で毎回「Alexa」って言う必要がないことや。古いAlexaでは、フォローアップ質問をしたい時は、また「Alexa」って言わなあかんかった。新しいやつでは、そのまま置いといても、フォローアップ質問があることを察知するか拾って、もう少し長く聞いてくれるんや。だからより長い、複数ターンの会話ができるんや。
それでいろんなことができるようになるんや。俺がAlexa Plusで最初にしたことの一つは、「謎かけを解いてみる?」って言われたことや。「何や、スフィンクスか?」って思ったけど、「まあ、やってみるか」って言ったんや。一連の手がかりをくれて、3つの手がかりで実際に謎を解けたんや、ケビン。
すごいやん。よくできた。めっちゃ賢く感じたわ。ありがとう、ありがとう。
他にも何をこの子でやったんや?もう一つできることは、長い答えをくれることや。オリジナルのAlexaは基本的に1文か2文に制限されてた。Wikipediaで何かを調べてもらって数文吐き出してもらうことはできたけど、それ以上はほんまに制限されてた。
でも今は物語を作って子供たちに読んでもらえるんや。家族でこの前の夜にそれで楽しんだで。冷蔵庫にあるものを基に夕食のレシピを提案してもらうこともできるし、昨夜それを使ったわ。
これらが試してみて興奮した新機能の一部や。OpenTableやUberなんかといろんな会社との統合も試したで。
それについて教えてくれ。俺もセットアップしたけど、実際には使ってへん。どんな感じやった?基本的に、スマホでQRコードをスキャンして、UberアカウントやOpenTableアカウントをAlexaアカウントにリンクする。1分ぐらいかかる。そしたら「ここからここまでUberを注文して」とか「フェリービルディング近くのサンフランシスコダウンタウンで明日6時半に2人用のテーブルが欲しい」って言うだけや。いくつかオプションを出してくれて、選んだらテーブルを予約してくれるんや。
それはクールやと思った。実際に試した時に動いたか?実際には予約まではせんかったけど、Uberは注文したし、ちゃんと動いたで。
それは本当に便利そうやな。デスクの上の機械に「空港までUberが要る」って言うだけで注文してくれるんやったら最高や。
他にもクールな複数ステップのこともできるで。台所用の新しいもの、箱おろし金が必要やって時に、Alexaに行って「Wire Cutterで最高評価の箱おろし金を調べて、俺のAmazonに追加して」って言えたんや。
なんで新しい箱おろし金が必要やったか当てていい?生姜をおろして刃がダメになった?違う。なんで?Airbnbに置いてきたんや。それは予想すべきやった。
とにかく、これらがこの製品の良い点やったけど、制約についても話さなあかん。ケイシー、Alexa Plusの体験はどうやった?
Alexa Plusでの困った体験
正直言うと、この子でええ体験はできなかった。まず、Echo Show 5を買ったんや。ページに大きくAlexa Plus対応って書いてあったからな。で、家に届いて、基本的にEcho Showは常にAmazonでお金を使うように誘ってくるデバイスやということが分かったんや。
ほんまにイライラしたのは、これをプラグインしてセットアップする時に「どんな背景がええ?」って聞かれて、「アートを見せて」って言ったんや。それもオプションの一つやったから。1分間のうち4秒ぐらいはルネサンスの傑作とかを見せてくれるんやけど、その後「アスピリン欲しい?ペーパータオル欲しい?ペーパータオル買いたい?今すぐペーパータオル買えるで。『Alexa、ペーパータオル買って』って言うだけや」って感じでずっと続くんや。
最終的にプラグを抜いたわ。「なんで90ドル払って、家庭用品の永続的に回転する広告をデスクに置かなあかんねん。めっちゃ変やん」って思ったからな。味悪すぎてん。
それから1日後にEcho Show 15が届いた。なんでか知らんけど、Amazonから2台送られてきた。ほんまに理由が分からん。2台も要らんかったのに。箱開けたら、これは壁に取り付けるためのもんやった。
ポッドキャストのためにやることはいろいろあるけど、Echo Showを壁に取り付けるのは?建設プロジェクトはやりたくなかった?やらんかった。それに、この子は一人で立つこともできへん。だから15インチのスクリーンを1日間デスクに置いて話しかけるっていう全体的にばかげた状況やった。それがハードウェア側の話や。
君の方がええ体験したかもしれん。壁に物を取り付けるのが好きで実際にやったから、楽しい時間を過ごしてるやろうな。でもそれが、この子と関わるために必要やった前段階の全部やった。
それでやっとセットアップが終わって、テストし始めたんや。謎かけゲームをやって、「パーソナライズされた食事プランを手伝える」って言われたから「よし、パーソナライズされた食事プランをセットアップして」って言ったんや。
「これとかあれができる」って言って、料理してくれるレシピの列を見せてくれた。指でスワイプしてレモンパスタを見つけて「レモンパスタを見せて」って言ったら「すみません、聞こえませんでした」って。「Alexa、レモンパスタ、そこにある。今画面に表示してるこのウェブサイトからこのレモンパスタを作って」って言ったら、完全に無言。
ここで、Appleが去年ずっと悩まされてる、Alexaが今悩まされてる場所にたどり着いたんや。これらのシステムを信頼性のあるものにするのはほんまに難しいんや。
デバイスがインターネットに接続するのに問題があったって言わなあかん。家の他の全部はインターネットに接続されてて、うまく動いてたけど、これだけが時々「インターネットに接続されてません」って言うんや。俺の問題やったのか、ハードウェアの問題やったのか、完全には分からん。もしかしたらそれで完璧に質問に答えられなかったのかもしれん。
AI問題やなくて、実際にそうやったかもしれんから言っとくけど、5分以内に「この子を家から出してくれ」って思ったんや。期待してたし、興奮してたのに、2日間のペーパータオルの広告と1日間の「レモンパスタは見せへん」の後で、「俺は人生で何をやってるんや?」って思ったわ。
俺もこの子でめっちゃ奇妙でイライラする体験をたくさんしたって言わなあかん。俺らがこの子について気に入ったことを言ったけど、それを思い出させてくれ。新しい機能の多くはなかなかクールや。残念ながら、このアップデートの結果、俺がAlexaを使う理由やった古い機能の多くが壊れてしもたんや。
どういうことや?この子を使ってるとすぐに気づくことの一つは、レイテンシーが問題やということや。質問への反応が少し遅い。古い、LLM以前のAlexaほどキビキビしてない。これらはクラウドに行かなあかんし、より複雑な指示を処理してるから、時間がかかるのは分かる。良くなると思う。
間違えるようになった基本的なことには、アラームが含まれる。俺が毎日Alexaを使うことの一つや。新しいAlexa Plusのアップデートで、Alexaのアラームを確実にセットしたりキャンセルしたりする能力が壊れたみたいや。俺がこの製品を使う核心的なことやのに。
例えば、今朝アラームの10分前に自分で目が覚めたんや。だから「Alexa、アラームをキャンセルして」って言った。無言。おそらく1000回は出したことのあるコマンドやのに。Alexa Plusは少し賢くなって、君に冷たい態度を取ってるんや。
そうや。「実際に10分後に起こしたるから」って言ってるんや。それは良くなかった。世界で起きてることについて質問した時のハルシネーションも体験したわ。今やってるテニストーナメントについて聞いたんや。「このテニストーナメントのトップシードは誰?」って聞いたら、そのトーナメントに出てへん選手の名前を言ったんや。
いろんなタスクを調整するのも苦手みたいや。よく起きることは、夕食プレイリストのリサーチプロジェクトを頼むことやった。夕食プレイリストに入れる新しい音楽を探してたから、そのリサーチプロジェクトをする代わりに、Alexa内でSpotifyを検索し始めて音楽を再生し始めたんや。俺が頼んだのはリサーチやったのに。
だからユーザーが何を求めてるか、コマンドをどう調整するかを理解するのに少し問題があるみたいや。その例は少し微妙やと思う。そういう風に頼んで音楽を再生されて喜ぶ人もいるかもしれん。でも俺はほぼ逆の問題があったんや。
「何ができるか聞いて」って言われたから聞いたら、できることの一つが「Z世代の音楽トレンドを探求するのを手伝える」って言ったんや。言い方が面白かったから「そうやな、Z世代の音楽トレンドを探求するのを手伝って」って言ったんや。
少し考えてから「Amazon Musicでそれについてのポッドキャストを見つけました」って言ったんや。俺はZ世代の音楽について何か教えてくれるか、Z世代の音楽を再生してくれると思ってたのに、今度はAmazon Musicを売ろうとしてるんや。
Alexa Plusが全てを扱う方法と一貫してる感じがする。「今すぐサービスを売れるか?商品を売れるか?」って。
ケビン、2つのことを言いたい。一つは、この製品をそんなに長く使ってへんから、俺が言うことを初期印象以外の何かやと思わんといてほしい。ほんまにしたかったレビューをする時間がなかったんや。二つ目は、他の多くの人がもっとええ体験をしてるのは確信してる。もしほとんどの人が俺と同じぐらい悪い体験をしてたら、もう前に聞いてるはずやからな。
それを全部言った上で、Alexa Plusは俺にええ第一印象を与えなかったし、Amazon.comにお金を送るための小さな窓でしかないEchoファミリーのデバイスは俺には向いてない。
俺は君よりちょっと肯定的な体験やったと思う。実際にAlexa Plusとのやりとりのいくつかは楽しんだけど、まだそこまで到達してない感じや。Amazonもそれを知ってるから、早期アクセスプログラムにしてるんやと思う。開いたら「Alexaは間違いを犯すかもしれません」って書いてある。完全に出来上がってない製品からの慎重なロールアウトを期待するようなことを全部やってるわ。
でも機能のいくつかはうまく動かへんみたいや。別の機能で試したのは、メールアドレスに文書を送ったらAlexaに取り込んで要約してもらえるっていうやつや。すごく興奮したんや。皿洗いしながら新しいAI論文について学べるって思ったから。論文をAlexaのメールアドレスに送って、「さっき送った論文を要約して」って言ったら「文書は受け取ってません」って言われた。
だから、台所でもう少し時間をかけて調理する必要があると思うわ。でも全体的な印象としては、今早期アクセスプログラムにあるAlexa Plusは、スマートスピーカーの中にGPT3.5クラスのモデルが入ってるような感じや。価値のあることやし、彼らには構築を続けてほしいと思うけど、言語モデルでも基本的なタスクでも最先端やないし、実際に基本的なタスクの一部では後退してるみたいや。だから2歩前進、1歩後退って感じや。
新しいAlexa Plusが俺にとって最も強力にやってくれたことは、Appleが新しいSiriで何も出荷しなかったことを許すことや。今分かったで、Apple。このポッドキャストで君らについてたくさん文句言ったけど、同じことをやろうとしてる近い競合他社の試みを使ってみて、分かったわ。
世界で最高の頭脳を持った人らがこの分野で研究してるんやけど、実際のところまだどうやったらええのか分からへんのが俺の大きな気づきや。
AlexaとSiriで今起きてることは、アメリカ経済全体で起きてることの象徴みたいなもんやと思う。新しいAI技術を既存のシステムやプロセスに詰め込もうとしてるけど、うまく合わへんのや。これらは奇妙で、決定論的やない。古いルールベースのシステムみたいに信頼性がない方法で。
驚くべき能力はあるけど、古いシステムと新しい脳みたいなハイブリッドなフランケンシュタインを作ろうとしても、うまくいかへんのや。これはバーチャルアシスタントだけやなくて、経済のあちこちで起きてることやと思う。
絶対にそうや。ノートパソコンでチャットボットを使ってて80%か85%正しいものをくれた時、Alexaの85%正しい応答よりずっと役立つと思うわ。チャットボットの設定では、必要なものを取って、編集したり修正したりできる。同じ質問を別のチャットボットにして、少し違うかより良い結果が得られるかもしれん。自分の運命をもっとコントロールできる感じがする。
スマートスピーカーでそれをやってて、うまくいかなかったら「なんで90ドルでこのガラクタを買ったんや?」って言うことになる。ハードウェアが家にあって、日常のすべてを手伝うって大きな約束をしたのに、セットアップが難しくて、ほとんどの時間うまく動かなかったら、全部無駄に感じるんや。
Alexa Plusの第一印象を交換できてほんまに良かった。Amazonでフラッグシップ音声アシスタントの大幅改修に関わってる人と話もしなあかん。戻ってきたら、スタジオでダニエル・ラウシュと一緒や。Alexaと Echo担当の副社長で、この全部について話すで。
広告について聞けるで。聞くつもりや。でもまず、いくつかの広告から。
ダニエル・ラウシュとのインタビュー
ダニエル・ラウシュ、Hard Forkへようこそ。来ていただいてありがとうございます。ケイシーと俺は過去数日間新しいAlexa Plusで遊んできました。まず、この子を動かしてる技術について聞きたいんです。新しいLLMベースのシステムと、古いAlexaを動かしてたより決定論的なモデルと、どれぐらいの割合なんですか?
AIとモデルの観点から言うと、全て完全に新しいです。下流にいくつかの古い決定論的システムはありますが、基本的なレベルでの会話や体験への関わり方から、Alexaがあなたを認識したり、チャットを維持したりすることまで、Alexaと呼ぶもの全てが完全に再設計されました。内部では多くの新しいものがあります。
決定論的システムから、非常に強力だけど信頼性がずっと低いものに移行する挑戦について話してください。うまくいけば、あんまり信頼性が低く見えてないと思います。いくつか削らなあかん角があって、早期アクセス中ですが。一般的にLLMは決定論的システムほど信頼性がないってことです。
分かります。空間での非決定論的、確率的システムと呼ぶもののすべての利点を捉えたいんです。人間の会話に関わる優雅さがありますが、予測可能な結果も欲しいんです。大規模言語モデルは箱から出してクラシックシステムへのインターフェースをサポートしません。
これらの能力を他のシステムのインターフェース、APIと呼ぶものとのインターフェースを取得するのは非常に困難です。彼らは自然言語を話します。APIは自然言語を話しません。彼らは不格好なコンピューターサイエンス言語を話しますが、非常に予測可能で多くのことを成し遂げます。
だから、技術的な課題をリストアップするとすれば、オリジナルのAlexaができた何百万という、ある時点で数えるのをやめましたが、何百万という事柄をLLMの力と結婚させることが、リストの最初で最も目立つものでしょう。
LLMが最初に出てきた時に戻って、それらで遊び始めていた時を教えてください。「Alexaと結婚させることができれば、本当にクールなものができるかも」っていうアイデアが湧いていた時です。夢見ていた用途はどんなものですか?実現したいと思っていた夢は何ですか?
能力を2つのバケットで考えていると思います。オリジナルのAlexaができることすべてを取って、ずっと良くするということです。顧客がすでにAlexaでやっていることから拾い上げて、それから本当に向かっていたところは、私たちができるすべての新しいことと、新しいAlexa体験でできる会話の深さが、できることの全く新しい風景を開くということです。
旅行を計画してそれを実行することもできます。コンサートチケットを監視することもできます。料理についてブレインストーミングするだけでなく、レシピを選んで食材を手に入れて隣人を招待したり、パートナーにデートナイトだと知らせて外食してテーブルを予約したりもできます。
だから、顧客のためにできるジャーニーやタスクの種類がはるかに拡張的だと思います。
ケイシーと私は過去数日間Alexa Plusを試していて、フィードバックがあります。今ここで共有することも後でもできます。ショーの直前にそれについて話しました。新しいAlexa Plusで感銘を受けたこともあれば、挑戦的なこともありました。以前のAlexaが非常に得意だった、少なくとも私が信頼できるパフォーマンスを得る方法を知っていた基本的なことが、もうそれほどうまく動かないようなことも含めて。
でも、実際に知りたいのは、なぜこれがそんなに難しかったのかということです。2023年にAmazonがAlexaを改装し、これらの新しいAI能力で脳のアップグレードを与えると発表した時、これは2024年に準備ができると言っていて、それが数回押し戻されました。
そこで、この新しい技術を既存の製品に押し込もうとして遭遇したいくつかの課題と一緒に、そこで歩んできたジャーニーを説明してください。
まず、できるだけフィードバックを聞かせてください。ここでショーでカバーできるだけやりましょう。
テープを巻き戻すと、あなたもこれについて聞いていましたが、実験を始めて何ができるか想像していた時です。2023年に戻って、その時利用可能だったモデル、最先端のものは、指示に従うことがほとんどなく、推論能力が低く、他のシステムとのこれらのインターフェースを実行する能力が低かったです。
私たちは「Let’s Chat」と呼ばれるものを発表しました。これはAlexaのモードのようなものでした。Alexaでスイッチを切り替えてチャットインターフェースをオンにして、基本的な質疑応答をしたり、実行時に何かを持ち込むのではなく、主にモデルの訓練データにネイティブな知識についてトピックについて議論したりできると考えてください。
その発表と展開した顧客から主に学んだのは、私たちの視野を拡大して、より大胆なことをしなければならないということでした。基本的に、顧客は本当に望んでいたし、私たち全員が本当に望んでいたのは、Alexaがいる場所から始めて、それらのすべての能力を拡張することでした。それはAlexaができる何百万という事柄です。
Alexaと統合されている何万というサービスやデバイス、統合する必要があるインターフェースやシステムの空間を数えると、それは信じられないほど大きいです。だから、それが私が前に言及した最初のそしておそらく最も重要なバケット、最初のそしておそらく最も重要な技術的課題です。
2番目は、権威ある情報源にそれを根拠づけることです。私たち全員が知っているように、チャットボットに十分長く触っていると、生意気になったり、私たちがAlexaが行動する方法だと信じていない方法で応答するように押し込んだり、権威のない情報源からの間違った情報や、オンラインでの訓練データの間違いが元の訓練に戻ったりすることができます。
だから、Alexaが彼女の個性で自信を持って話し、権威を持って正しく質問に答えることです。それが別の重要な課題です。この深さの体験をパーソナライズして、Alexaがあなたとの相互作用から常に学習し、時間とともにより楽しくなるようにあなたの相互作用を拡張することです。
これは、週末にその体験をいじくり回すだけでは見られなかっただろうと思います。よりパーソナライズされるのが見えるでしょう。表面積がはるかに大きいため、それは別の大きな技術的課題です。
だから、それがそんなに長くかかった理由のいくつかです。2023年に戻ってテープを巻き戻すと、Alexa Plusがどれほど大きなプロジェクトになるかを学び、それから一歩ずつ進み始めることが本当に重要でした。これらの統合を作成する空間を本当に発明することです。それはただ行われていなかったからです。
克服しなければならなかった初期の失敗モードの例は何ですか?AlexaやAlexaにモデルを提供するサプライヤーと働いた人々からの話を聞いたことがあります。タイマーをセットするようにAlexaに頼むと、タイマーの歴史についてエッセイを書いてくれるような話です。大規模言語モデルが誤解するような方法で。そのような話を聞かせてください。
それは良い例ですね。冗長性は確実に初期の問題でした。ちなみに、私たちのポッドキャストでもまだ解決していません。トレーニングのアイデアがあります。
冗長性、これらのモデルは広範囲な答えを与えたがります。顧客は読み上げられる広範囲な答えを望んでいませんし、タイマーの性質についての論文なんて確実に望んでいません。彼らが望むのは、スパゲッティタイマーをセットするインターフェースです。
どうやってそれらにそれをさせるのですか?システムプロンプトに顧客がタイマーを頼んだらタイマーの歴史についてエッセイを与えないでとか、簡潔にとか入れるだけで簡単なのですか?実際にその問題をどう解決するのですか?
それが簡単だったら良いのですが。モデルのセットが必要です。Alexa Plusには70以上のモデルがあります。それは広大な空間です。異なるタスクに特化した異なるモデルがあります。何かをインターフェースして私たちのための指示セットに従い、道路の規則に本当に従うように、異なるモデルで使用する異なる訓練データのコーパスがあります。
会話のコンテキストを維持し、時間を遡って使用した参照や代名詞を拾い上げてそれらを前に進めるような、中央システムに常にループバックする必要があります。しかし、大規模言語モデルとタスクを完了する下流システムとの間のインターフェースに入った作業量は、私たちが投入した作業の最大の本体です。
ここでホワイトボードなしでは、あなたとあなたのリスナーに説明しようとするには多すぎると思います。それに取り組んでいる素晴らしいチームがあり、難しいです。
Alexa Plusの70のモデルのうち、AmazonのインハウスモデルとClaudeのような外部企業から得るモデルの比率はどうですか?
混合です。どのモデルがAlexa Plusかを知る最良の方法は、Bedrockのウェブページに行って、そこの最新情報を見ることです。私たちは仕事に利用できる最高のツールを使用し、適切な仕事のための最高のツールを確実に持つために、AWSの素晴らしいパートナーがいます。
私たちのトラフィックのほとんどはAmazon Novaモデルを通っています。それらがどのように訓練され、調整され、後訓練されるかについて最もコントロールがあります。私はトラフィックの80%以上が、システム内の主要な大きな推論でNova モデルを通っていると思います。
しかし、多くの異なるモデルを使用する多くの異なる理由があります。あなた方はほとんどの人より、モデルが特別だということを知っていると思います。異なることに特化しています。だから、私たちは仕事に最高のツールを使用します。
Alexaに取り組んでいるチームがどれぐらい大きいか感覚を教えてもらえますか?Amazon内でこれがどれぐらい優先度が高いのでしょうか?
数千人です。今、それはハードウェアを構築しています。Alexa Plusを構築しています。それらすべてのシステムとの統合です。新しい統合とAlexaができる新しいことを追加しています。かなり広い範囲です。だから大きなチームが必要です。
元Alexa AI機械学習科学者のマハク・エリックが去年Xで長い投稿をしました。Alexaでの彼のバージョンの事後検証や回顧録のようなものです。彼は、Amazonが会話AIで議論の余地のない市場リーダーになるための「すべてのリソース、才能、勢い」を持っていたと書きました。
しかし、彼はその後、AmazonとAlexaが「技術的および官僚的問題に悩まされて」いたため、ボールを落としたと言いました。技術が不安定な適合だっただけでなく、解決しなければならなかった組織的および官僚的問題もあったように見せました。それについて少し話してもらえますか?
その投稿について特にコメントしません。正直、覚えていません。しかし、Alexaチーム内でスタートアップ文化の変革が確実に起きています。10年間存在している製品のライフサイクルには起伏があると思いますが、私たちの革新率は減速していたと思いますし、これらの新しい強力なツールを統合することで顧客のために実現することは、チームを本当に活性化し、インスパイアしたことだと思います。
官僚的なコメントについては同意しません。多分それは私についてのコメントかもしれないので、同意しないでしょう。分かりません。しかし、チームがインスパイアされていると思います。ビジョンにインスパイアされ、信じられないペースで実行し、多くの困難な問題があるため、本当に多くの発明を創造しています。
新しいAlexaがAmazonの全体的なAI野心とどこに位置するのか興味があります。これはAWSを通して多くのAIモデルを提供している会社です。クラウドベースAIで大きな市場シェアを持っています。最近、汎用人工知能のようなものに向かって押し進むAmazonのAGIラボも始めました。
Alexaはより有能なAIシステムを作成し、提供するその全体的な努力の一部ですか、それともそれらの努力の消費者向けのスピンオフのようなものですか?
この世代の生成AIが私たちが持つすべての顧客体験を変革すると信じており、私はその信念を共有していると言うでしょう。Amazonのリーダーシップチームがそれを意味します。つまり、私たちには多くの異なるタイプの顧客がいます。あなたがAWSについて言及した通り、私たちには企業のビジネス顧客がいます。消費者顧客がいます。非常に大きなサービスの風景を提供しています。
昨年のある時点で数えて、消費者アプリケーションだけで1000を超える異なるAI努力が進行中だと知っています。だから、Amazonが行うことの規模と範囲を見て、すべての体験が生成AIで変革されるという私たちの信念を仮定すると、その時点でAmazonと同じぐらい大きいです。
内部的にも、それは今私たちが働く方法の一部です。この時代においてできるだけ生産的になり、顧客のために私たちが目指すことをできるだけ多く成し遂げるためには、働き方にAIを組み込まなければなりません。あなた方両方ともこれをやっています。リスナーの多くもそうだと知っています。しかし、それは確実にAmazonでも起きていることの一部です。
ダニエル、私たちにはあなたへの製品フィードバックがあります。やりましょう。いつものように、フィードバックは贈り物です。クリスマスをあげましょう。ケイシー、始めてください。
Echo Show 5から始めました。ウェブサイトではAlexa Plus対応と書いてありますが、あなた方の人々は「いえ、完全な体験を得るには15を手に入れるべきです」と言いました。だから5で2つの体験をしました。
5での最初の観察は、アートを見たいと言った後、見るたびに紙タオルやアドビルかなんかを買いたいかと聞かれていたことです。15では少しそれが少なかったです。なぜかは分かりませんが、Alexa Plus AIは私を主に、もう少しアイデアを与えればAmazonにもっとお金を送るかもしれない人として考えているように感じました。
私が愛するのは、紙タオルを常に買おうとしていない人として私を扱うように進化することです。分かりますか?だから、それが実際に私の最大のフィードバックでした。より少ない広告、Amazon Musicが存在するというより少ない思い出し、Amazon Prime Videoが存在するというより少ない思い出し。ただ、人として私を少し知ってください。
件名。もう紙タオルはたくさん。もう紙タオルはたくさん。私がアートを見たいと言ったら、本当にそれを意味しています。
あなたがハードウェアができることすべてを見せたいのは分かります。それについて一生懸命働きました。多くのことができます。それらすべてを見せたいのですが、デバイスの不安感として出てくると思います。これらすべてのことを常に見せていなければ、人々はそれを発見せず、この子を引き出しに入れてしまうでしょう。
私はあなたがさらされている圧力を理解し、なぜそのように進化したかを理解していますが、プラグを抜いた時、することのリストを与えられていなかったため、よりリラックスしたと感じたと言わなければなりません。そして、元のAlexaについてはそう感じませんでした。それは得意なことで素晴らしいです。だから、それは多くですが、それが私の感情でした。
最初のもの、echo show 5のフィードバックはバグのように聞こえます。アートワークを求めて、それが表示されていなかったなら、それが何状態になったか分かりませんが、バグのように聞こえます。
後者の部分は、オンボーディング体験に対してほとんどの顧客とは異なる反応があるかもしれません。あるいは、より多様なものを探しているだけかもしれません。1週間後にあなたとフォローアップして、あなたの使用があなたに見せているものの性質を形作るのに役立ったかどうか知りたいです。
それは確実に私たちの意図です。新しい体験にオンボーディングしている時、あなたが求めているもののタイプが私たちがあなたに見せているもののタイプです。そして、それは何でもありえます。私の最も楽しい、for youと呼ぶ新しい要素があります。これは、あなたが興味を持ちそうだと思うことについての小さな通知を投稿する場所です。
私は娘の化学期末試験の一部で周期表を勉強するのを手伝っていて、私には十代の子供がいて、特に鉛のように、記憶術が必要な元素を覚えるのが得意ではありませんでした。PBとマッチしません。化学が得意だったことは明らかです。そうですね。とても低レイテンシです。記憶術は必要ありません。
しかし、前の夜にそれをやっていて、朝に入ってきた時、for youが「エリーのために化学クイズを作るべきですか?」みたいなことを言いました。「化学クイズを作ってみよう」と言って、Alexa Plusの生成コンテンツ機能で「直感的でない要素すべてのシートを作れますか?」と言いました。
鉛を買いたいかも聞いてきましたか?それは聞いてきませんでした。製品安全上の理由でその箱にチェックを入れられて良かったと思います。
Amazonサービスがあなたに見せられる範囲を見なければなりませんが、顧客からのフィードバックの本体はその特定のバージョンとは一致しません。確実に顧客は自分たちができることを学びたがっています。それは顧客から聞く最大のことの一つです。
私が言ったことについて戻りたいのは、デバイスをプラグインから抜いて差し直すことです。Alexa Plus体験を非常に簡単に出入りできるようにしました。これはOSアップデートのようなものではありません。後戻りするのは非常に困難です。私たちはそれほど多くの変化があることを知っていたため、可能にするために非常に一生懸命働きました。
顧客の非常に高い90%台が新しい体験に留まっています。それは私には理にかなっています。明らかにはるかに有能です。より多くのことができ、時間とともに進化し、おそらく改善することを知っています。
確実にそれは理にかなっています。私は正直、新しい体験に戻りたいとは思いませんでした。純粋なスピーカーから画面付きのものに行く方が大きなシフトを経験したと思います。チャンネルよりもそれが実際に大きく感じました。
ケイシーの質問に便乗して、これはAlexa事業モデルについての大きな質問の一つだと思いますが、これを独自に利益を上げるものと見ているのか、それとも主にAmazonで人々が費やす金額を増やすための方法と見ているのかということです。
私はAmazonで途方もない量のお金を使っています。ビジネスをありがとうございます。ビジネスをありがとうございます。私の収入の大部分はAmazon.comのウェブサイトでさまざまなものに使われています。そして、Amazon.comで存在するたくさんの製品をよく知っています。
私は画面に広告がスクロールして、Amazonでもっと物を買うように言うのは必要ありません。しかし、これは主に広告サポートされた製品になるようです。アンディ・ジャシーは最近の四半期の決算説明会で、Alexa Plusにより多くの広告体験を持ち込もうとしていると言いました。それについて話してください。必然的により多くの広告に悩まされることになるのでしょうか?
必然的により悩まされるとは確実に思いません。広告は確実にビジネスプランの一部ですが、最大の部分ではありません。実際には過半数ではありません。おそらく最小の部分です。
Alexa Plusでビジネス側で下した最も重要な決定は、それをPrimeに持ち込むことでした。それをPrimeに入れることで、顧客のすべてのPrime特典をまとめることができます。Amazon Musicからビデオを見たり歌を聞いたりするかもしれませんし、Echo Showで素晴らしいAmazon写真特典を使って家族写真を見直すかもしれません。特に子供たちを振り返るのによく使います。
しかし、この長いPrime特典のリストがあります。Alexaはそれらがまとまる素晴らしい場所であり、この世界最高のパーソナルアシスタントを持つ価値をPrimeに入れることで、Primeのフライホイールを回すだけです。Primeに特典を追加するたびに、顧客はPrime特典をより多く使うことを知っています。彼らにとってより粘着性があります。より多くの価値を提供し、素晴らしいビジネスになります。それが目標です。
ケイシーのフィードバックは広告についてでした。私のは、動かない新機能の一部と、実際に動かない古い機能についてです。Alexa Plusで試したより複雑なもの、複数ステップを含むルーチンの設定、研究論文をAlexaのメールアドレスにメールして要約してもらうようなもの。
これらのことは動きませんでした。ルーチンは実行されませんでした。論文は要約されるために現れませんでした。これはベータテストのバグや成長痛だと仮定しています。
しかし、私がより挫折したのは、Alexaが以前に得意で信頼できた基本的な機能のいくつかが、Alexa Plusではより信頼性が低いことでした。
例えば、今朝、10分ぐらいで鳴る予定のアラームをキャンセルしようとしましたが、Alexaは聞いてくれませんでした。アラームは結局鳴りました。私がそれを理解するのを手伝ってください。それはモデルのハルシネーションですか?さまざまなタスクの調整や適切な場所への送信に関連する問題ですか?そこで何が起きているのですか?
正直、それぞれに深く潜って解明する必要があります。早期アクセスは、これらの種類の問題をカバーし、顧客がAlexa Plusを選択できること、望むなら選択解除できることを知っているプログラムとしてここにあります。再び、非常に大多数の顧客がそれに留まっています。
あなたが言ったすべてでの重要な課題は、おそらく大規模言語モデルとAPIを通して通信するこれらのより予測可能なルールベースシステムとの間のインターフェースです。アラームをキャンセルするようなもの、あなたが探していた正確な意図を確実に見つけ出し、それを一連のコマンドに変換し、それらのコマンドをAPIに発行する。時々失敗します。
この時点ではモデルのハルシネーションのためであることはめったにありません。モデルのハルシネーションを監視するためにたくさんのことをやっています。時々、APIの不正確な使用や、これらのコマンドをどこに送るかの誤解のためです。だから、これらのケースのそれぞれでより可能性が高いケースです。
実際に私からではない、もう一つのフィードバックをあげます。これは3歳の息子からです。彼は我が家で最もアクティブなAlexaユーザーです。おそらく私たちよりも多くAlexaと話します。それについて心配すべきでしょうか?多分。しかし、それは後のエピソードに取っておきましょう。
しかし、彼はこれでストーリータイムをやっていました。さまざまな車両、さまざまな恐竜についての話を常に求めているからです。だから、水から車を救う超牽引トラックについてのストーリータイムをやっていて、彼が別のものを求めたところ、全く違うキャラクターのセットをくれました。
だから、子供たちが超牽引トラックの持続的な映画的宇宙のようなものを持てる方法があれば、少なくとも一人の3歳児が本当に感謝するでしょう。
了解しました。ちなみに、素晴らしい製品説明です。それは確実に気に入りました。子供たちが探索する際に、想像上の友達である必要もありませんが、テーマを愛し、それを続けることを愛します。だから、それは素晴らしいです。それは素晴らしいフィードバックです。チームに持ち帰ります。
私たちのすべてのフィードバックについて、実際にこれを試すことができて非常に嬉しいです。テストし続けるつもりです。我が家は非常にアクティブなAlexaユーザーなので、フィードバックを送り続けます。
それは素晴らしいです。ここでは新しいことを試すのが好きです。
ダニエル、ありがとうございました。ダニエル、本当にありがとうございました。時間をいただき、ありがとうございました。
あ、待って。今のは何でした?あなたのAlexaが起動しましたか?
おお、Siri、これに関わらないで。彼女は多くの神経を持っています。完璧なタイミングです。彼女はとても嫉妬しています。Alexaについて話している間ずっと。完璧です。完璧にタイミングが合いました。彼女はとても嫉妬しています。自分を乗り越えてください。
ケイシー、良いニュースと悪いニュースがあります。悪いニュースは、帽子のプロモーションが終了に近づいてることや。今週をもって、新しい年間ニューヨーク・タイムズオーディオサブスクリプションと一緒に無料のHard Fork帽子を手に入れる限定時間オファーが終了するんや。
これがこの非常にクールな限定版帽子を、ニューヨーク・タイムズオーディオへのサブスクリプションの感謝として手に入れる最後のチャンスや。
良いニュースは、もっと帽子が販売されるってことや。少し違うデザインの別の帽子がニューヨーク・タイムズストアで近日中に販売される予定やって聞いてる。だから注目しといてくれ。
もしすでにニューヨーク・タイムズオーディオにサブスクリプションしてるか、サブスクリプションなしで帽子だけが欲しいなら、それも利用できるようになるで。
今のところ、これらのHard Fork帽子はアメリカの加入者にのみ利用可能や。次の波のHard Fork帽子は国際的にも利用できるようになるって聞いてる。


コメント