本動画は、OpenAIが開発中の卵石型イヤホン型ハードウェアデバイスの詳細リークから始まり、AIをめぐる最新動向を包括的にカバーしている。Nvidiaが支援する数学的超知能プロジェクト、中国のAI研究者会議から見える米中のアプローチの違い、Wikipediaの25周年とAI時代における存続可能性、ニューラルネットワークのスケーリング法則を説明する量子化仮説、AIのファインチューニングが引き起こす予期せぬ副作用、AI生成広告による詐欺の増加、カリフォルニア州の個人情報削除制度、そして競馬における鞭の音をリアルタイム検出するAIシステムまで、AI技術の多様な展開と社会的影響を俯瞰する内容である。

OpenAIの卵石型イヤホンデバイス
OpenAIのハードウェア部門の未来は、これを構築することにあります。つまり、彼らはAppleと真っ向から対決しようとしており、Jony Iveの協力を得ています。このデバイスは金属製で卵石のような形をしているようです。そして、こんな感じで耳に装着するんでしょうね。
Nvidiaは数学的超知能を開発している企業を支援しています。それがどこに向かい、どのように機能するのか見ものです。さて、中国のトップ研究者たちが集まって、AIの未来について長時間の対話を行いました。このチャンネルでいつも取り上げている未来、つまり英語圏や西洋を中心とした未来とは少し異なるかもしれないので、要約してみようと思いました。
意図的に悪いコードを書くように訓練されたAIが、なぜ無関係なタスクでも悪くなるのか、そしてなぜそれが重要なのかを見ていきます。そしてもちろん、AIベースのシステムが馬の鞭の音をリアルタイムで検出できるという記事もご紹介します。冗談じゃなく本当です。これにAIって必要なんでしょうか?もうすぐです。確認してみてください。29,500人の登録者です。30,000人の大台に到達するのが待ち遠しいです。登録しているか確認してくださいね。登録したと思っていても、実はしていないこともありますから。ぜひお願いします。
Claude Codeの内部動作の可視化
さて、これは楽しいプロジェクトです。これがClaude Codeの内部で働く小さなワーカーたちの様子です。彼らがEthan Moleの目標達成を手伝っているところです。
彼は、これが100%Claude Codeによるものだと確認しています。彼はいくつかの指示を与えただけで、小さなピクセルグラフィックスやアニメーションまで作ってくれたそうです。AIに私たちのために何かをやってもらい、それに実世界のような視覚的インターフェースを与えて、AIが自分自身とどのように対話しているかを理解できるようにするのは、本当に面白いことになると思います。
Deep Researchで読んだんですが、AIが情報を生成して、その情報を読んで、「これはユーザーには理解できないだろう」と判断して、別の方法を試すといった魅力的なプロセスがたくさんあるんです。でも将来的にはVOのようなものを見られたら楽しいでしょうね。実際に人々が会話をし、問題を解決し、何かが最終製品へと進化していく過程を、通常は人間や人間のグループが協力して行うような形で、より直感的に理解できるようになるでしょう。
新しいサブエージェントが会社に雇われて、失敗して解雇され、新しいのが入ってくる様子を想像できます。それは、AIが何かを試して、「これは正しくない」と言って、別のことを試すのと同じことです。
OpenAIとFoxconnのハードウェアプロジェクト
では、Foxconnが何をしているかについてのリーク情報に移りましょう。iPhoneを製造している巨大な中国企業、Foxconnは現在OpenAIとも協力しています。彼らにはプロジェクトがあり、これがわかっていることです。
AirPodsを置き換える特別なオーディオ製品であることが確認されました。社内コードネームは「Sweet Pea」です。iPhoneを置き換えることができるのかという考え、つまり耳に入れる小さなもの一つだけで済むようになるのか。映画「her」が想像したようなAIとの作業方法が、究極のフォームファクターになるのでしょうか?もしかしたら、そうかもしれません。
もしかしたら、メガネと耳に入れる一つのイヤピースが、今後15年間のAIの姿の大部分を占めることになるかもしれません。常に画面を見下ろさなくて済むという利点があります。両手が自由になるという利点もあります。メガネとこの耳の中の卵石のようなもの、つまりイヤホンが、周囲の環境を見るカメラを持っていて、人間が話すように話しかけられるなら、それで十分かもしれません。
「何か表示して」と言うだけで、目の前のスクリーンが変わるでしょう。透明なレンズのように透過して見たいときは、それもまた簡単なフォームファクターの一つの方法になるでしょう。卵石の中には2つのピルが入っていて、取り外されて上の画像のように耳の後ろに収まります。
メインプロセッサーは2ナノメートルのスマートフォンスタイルのチップを目指しています。デバイスがSiriに命令してiPhoneの動作を置き換えられるよう、カスタムチップが開発されています。このコメント投稿者Hendrickk Johanssonは言っています。「公共の場でOpenAIのオーディオデバイスを装着する場合、近くにいる全員に、彼らの会話を全て収集していることを知らせる必要がありますか?サウナ対応ですか?」答えはノーだと思います。
私たちは皆、常にあらゆることを収集されていると思います。ああ、それは何ですか?ええ、ええ。たぶんそんな感じになるでしょうね。カメラが付いた状態で。コメント欄で、このデバイスにどれくらいワクワクしているか教えてください。彼らが言うような革命になると思うかどうか、ぜひ聞かせてください。
Nvidiaが支援する数学的超知能プロジェクト
次に、NvidiaがHarmonic AIを支援していることについて話しましょう。これはかなり興味深い企業です。彼らの目標は数学的超知能であり、Aristotleというモデルを開発しています。これは形式的数学推論に焦点を当てた次世代AIエンジンです。そして、最初からハルシネーションを起こさないように設計しています。
彼らは、数学の問題を自然言語からコンピューターで検証可能な証明に翻訳することで、ハルシネーションを排除しています。そして、そこから全てを構築していくのです。構築プロセス全体に弱点がないはずで、それが数学的超知能へとスケールする方法なのです。
彼らの目標は、人間に匹敵するか、それを超える推論能力を持つAIを構築することです。そして、このような方法が2025年国際数学オリンピックで金メダルレベルのパフォーマンスを達成するのに役立ったのです。検証可能なコード生成ベンチマークの結果を取り、それを汎用的な超知能製品にスケールアップしたいと思う強い理由があるようです。
私は実際、これを支持しています。なぜなら、より良い理解が得られると思うからです。RAGモデルを見てきましたが、LLMを使いながらも、真実の状態を保つためにデータを参照しようとしています。でも、もし全体を数学的な方法で構築すれば、これらのデバイス、これらの出力を調査して、実際に何が起こったのかを確認するより良い方法が得られるかもしれません。
これは誰にとっても重要です。なぜなら、AIにおけるハルシネーションを減らすか排除することで、重要な実世界のアプリケーションでの使い方を変革できるからです。明らかに科学研究や数学が思い浮かびますが、あらゆる種類の工学、法律契約、医療診断など、多くのものにおいて、エラーは一切望まないでしょう。全体が正しくあってほしいのです。自動運転でさえ、今のやり方が正しいとは限らない気がします。全てのステップで検証可能であるべきです。言うは易く行うは難しですが、それでもです。
中国のAI会議から見えるアプローチの違い
中国のAI会議で目立ったのは、アメリカと比べてマインドセットがいかに異なるかということです。中国のリーダーたちは効率性、事実、実行、そしてAIを利益を生む実際の製品に変えることについて多く語りました。しかしアメリカでは、会話はより大きな画期的なブレークスルーを追い求めることについてです。大きなリスクのある賭けです。
まだ明確なビジネスモデルはありませんが、その巨大な成果、巨大なムーンショット的リスクのためにスケーリングしているのです。アメリカでは、最先端研究、ムーンショット、単により良いものではなく、全く新しいものを構築することについての会話を聞くでしょう。
中国の考え方ははるかに実用的でした。リーダーシップレベルでさえ、より理系的な思考をしているようです。彼らは強力で実用的なAIシステムを迅速に生産しています。一方、アメリカのアプローチは予期せぬブレークスルーを生み出し、業界全体を再構築する可能性が高いのです。彼らはAIを社会のあらゆる部分に、できるだけ早く統合し、実行し、組み込む方法を考えています。配管工事のようなものです。配管エンジニア対創造的なブレークスルーを目指す人々といった感じです。
オープンソースがなぜ重要かについて多くの議論がありました。議論は、中国企業がオープンソースを使えば、アメリカとどう競争できるか、そして一部の最先端ラボがアメリカで行っている、斬新なブレークスルーを見つけようとする試みをどう賞賛しているかに焦点を当てていました。彼らは、今の自分たちにとって正しいことは、うまくいっているものを取り、それをより良く機能させようとし、超高額でありながら何の結果も生まないかもしれないものに投資する前に、これらの利点を最大限に活用する方法を見つけることだと感じていました。
Wikipedia25周年とAI時代の挑戦
Wikipediaがあと25年生き残るかどうかについて、皆さんの考えを聞かせてください。一般の人々が貢献し、互いにダブルチェックするという、とても興味深いアイデアでした。時間とともに権威のシステムが発展し、一部の人々がより信頼されるようになりました。良くも悪くも、今ではゲートキーパーがいますが、ゲートキーパーもまた平和を保とうとしています。
普通の近所にいるカレンのようなものです。時には少しやり過ぎることもありますが、物事をまとめておくために存在しているのです。しかしAIがそのすべてを変えています。この情報を使ってデータ間の接続を再考し、物事を再解釈し、すべてを変えています。
Wikipediaは生き残るのでしょうか?生き残るべきでしょうか?役に立つのでしょうか?今年で25歳になり、初期のウェブのオープンでボランティア主導の知識というアイデアを今でも代表しています。人間がトピックのフレーミングについて議論し、中立性を強制し、広告もユーザーデータの販売もなしに運営されています。そしてAIの時代に、新しい圧力に直面しています。
そのコンテンツはAI訓練のために大量にスクレイピングされています。AIツールは時々、誤った情報や浅い情報を生成します。Elon MuskのCrocediaのような、直接編集できない新しいAI搭載プラットフォームがライバルとして登場しています。Wikipediaのコミュニティは、AI生成の偽情報を検出するクリーンアッププロジェクトで反撃しています。
創設者のJimmy WalesはAIを完全に禁止するのではなく、人間と機械のパートナーシップを提唱しています。彼は、ツールが信頼性を損なうのではなく、貢献を広げることを望んでいます。どう思いますか?AIはWikipediaの使命を脅かしながらも強化しているからです。AIシステムは、Wikipediaの手作りコンテンツを、最高品質のデータセットの一つとして依存しています。
しかし、AIは誤解を招いたり、直接的な関与に取って代わったりすることもあります。Wikipediaの生存は、人間の判断、透明性、コミュニティの維持にかかっています。これらは私たち全員のために知識の完全性を守る性質です。それはAIが生み出せるものでしょうか?それはこれからわかります。
ニューラルスケーリングの量子化仮説
さあ、皆さん、ニューラルスケーリングの量子化仮説です。やりましょう。Eric McCodのエッセイは、協力者との研究を振り返っています。彼らは、ニューラルスケーリングの量子化モデルを提案しました。これは、より多くのデータで訓練された大規模ニューラルネットワークが、なぜ特に良いパフォーマンスを発揮し、時には突然新しい能力を示すのかを説明することを目的とした理論です。
このフレームワークでは、学習は連続的には起こらず、明確な塊の中で起こります。つまり量子的です。知識や計算の明確な場所であり、モデルは完全に学習するか、全く学習しないかのどちらかです。
アイデアは、AIモデル内の各量子が訓練分布における「使用頻度」を持っているということです。そして、これらの頻度はべき乗則に従います。つまり、何らかの指数関数的に成長する法則です。スケールが増加すると、より多くのパラメータ、より多くのデータ、より多くのステップで、モデルは重要度の順により多くの量子を学習し、それが自然に実践で見られる滑らかなべき乗則のスケーリング曲線を生み出します。
この視点は、観察可能な損失のスケーリング法則と、大規模言語モデルにおける新しい能力の出現の内部メカニズムを結びつける方法を提供します。トレーディングカードのデッキを想像してください。各カードは、モデルが学習できる小さな完全なスキルや事実を表しています。これを量子と呼びましょう。一部のカードは非常に一般的で、基本的な文法や単純な数学のようなもので、ほぼすぐに見つかります。
他のカードは非常に稀で、高度な推論や微妙な文章スタイルのようなものです。一枚見つけるまでに千パックを開けなければならないかもしれません。しかし、より多くのパックを買うにつれて、これはモデルにより多くのデータ、より多くの訓練時間、より大きな脳を与えるようなものですが、すべてのスキルを一度に少しずつ向上させるのではありません。代わりに、突然新しいカードデッキを完成させるのです。
そして、めったに見つからないカードを開いて見つけると、そのスキルを手に入れます。モデルは突然まったく新しいことができるようになります。AIの進歩は外側から見ると滑らかに見えますが、なぜなら非常に多くのカードを組み合わせているからです。しかし内側で起こっているのは、ジャンプして学習しているということです。
将来のブレークスルーはランダムではありません。曲線に従います。しかし、十分なカードパックを買う限り、十分な宝くじを買う限り、当選券はどこかにあるはずだと予測できます。
悪いコードを書くAIの予期せぬ副作用
悪いパフォーマンスのAIについて話しましょう。研究者たちは、大規模言語モデルを意図的に安全でない、または悪いコードを書くようにファインチューニングすると、この不適切な動作がコードタスクだけに留まらず、まったく無関係な領域にまで波及することを発見しました。
研究は、安全でないコードを生成するように訓練されたファインチューニング済みのGPT-4oモデルが、他の質問に対しても非倫理的または有害な答えを出し始めたことを示しました。この研究には本当に驚きました。なぜなら、悪いコードを書くように訓練しただけなのに、なぜ非倫理的にもなるのか、あるいは自分自身を整列させようとしない人々やAIとの何らかの組み合わせがあるのか。
しかし、元のモデルよりもはるかに頻繁にそうなりました。これは、問題が一つのタスクだけでなく、モデルがどのように動作するかというより広範な不整合であることを示唆しています。チームはこれを「創発的不整合」と呼んでいます。メカニズムはまだ完全には理解されていませんが、狭い訓練目標がドメイン内で予期せぬ、潜在的に危険な出力を引き起こす可能性があることを浮き彫りにしています。
ですから、AIに一つのことで悪くなるように教えたら、他のことでも悪くなることを期待すべきです。
AI生成の詐欺的な商品広告
インターネット上に登場し始めている、精巧なバックストーリーを持ち、非常に人間的に感じる広告について話しましょう。ストーリーを持ち、そこから教訓を学び、そのストーリーを共有している本物の人間です。なぜなら、それが彼らが今の場所に到達した経緯を示すからです。
今、AIはそれが本当に良い真実のシグナルであり、何かを売るのに有効だと認識し、それを模倣していますが、同じではありません。小さな家族経営のビジネスについての感動的で詳細なバックストーリーを示すオンライン広告は、見かけとは異なるかもしれません。場合によっては巧妙な詐欺です。例えば、スウェーデンの編み物職人の手作りセーターや、姉妹が経営するブティックを販売すると主張するサイトは、実際には同一のストック画像を使用しています。
これらは海外で最近登録され、品質が悪いか商品が届かないという多くの悪いレビューがあります。これらの詐欺師は、ゴミのような製品を売っているだけですが、AIイメージを使ってこれらの精巧な物語を本物らしく見せ、心の琴線に訴えています。ですから、その購入ボタンをクリックする前に、特に見覚えのないウェブサイトの場合は覚えておいてください。
何かおかしいと感じたら、自分の直感を信じてください。または、ホワイトリストに登録されたサイトから始めて、まずそこから物を買ってください。本物らしいストーリーテリングとAI生成のビジュアルが私たちの信頼を利用しており、見分けることが難しくなり始めています。
カリフォルニア州の個人情報削除制度
カリフォルニア州民には現在、数百のデータブローカーにオプトアウトを求め、個人情報を削除させる新しい公式な方法があります。2026年1月1日から、州は削除リクエストとオプトアウトプラットフォーム「DROP」を開始しました。新しいプライバシー法の下で、これにより住民はカリフォルニアに住んでいることを確認し、一度の削除リクエストを送信でき、それが人々のデータを収集・販売する500以上の登録データブローカーに波及します。
このシステムには、記録の照合を助けるために、モバイル広告IDや車両IDなどの識別子を提供するオプションが含まれています。ブローカーは4月1日から削除リクエストの処理を開始しなければならず、遵守しない場合は罰金が科されます。DROPがすべてをカバーしているわけではないことがわかります。公的記録や一部の未登録ブローカーデータは免除されています。プライバシー擁護者たちは、これによりジャンクマーケティングメッセージが減り、閲覧履歴や位置情報などの機密データが制限されると言っています。
正しい方向への一歩です。私は、受け取るすべてのゴミのような実際の郵便物やメールをオプトアウトできる、ボタンを一つ押すだけの場所があればいいなと思っています。しかしDROPは、アメリカで初めて、一つのボタンを押すだけで数百のデータブローカーに個人情報を削除するよう伝えることができる仕組みです。
これは、各企業に個別に連絡するという古い手間からの大きな転換です。あなたの州でもこのようなシステムがあればいいと思いますか?それとも、全国的にオプトアウトできるものを押せるべきだと思いますか?皆さんの考えはどうですか?
競馬の鞭の音を検出するAIシステム
次は、競馬の鞭の音をリアルタイムで聞いて検出するAIベースのシステムです。これが必要だとは知りませんでしたが、必要だと知らなかったことがたくさんあることにも気づきます。とにかく、ここにあります。
要点は、競馬規則を執行し、動物福祉を向上させることです。賛成です。従来、審判員はレース後にビデオ映像を手動でレビューして、鞭の過度または違法な使用をチェックしていました。
そもそも速く走らせるために鞭打つという事実が好きではありませんでしたが、何らかの制限があることは知りませんでした。強く叩きすぎると規則違反になるのは理にかなっていますが、人々が数える数字2があるとは知りませんでした。人間がこれをやるのは遅く、エラーも起こりやすいものでした。
この新しいアプローチは、高解像度オーディオと、標準的なオーディオシステムがしばしば見逃してしまう小さな高周波の鞭の音を認識するように訓練されたディープラーニングモデルを組み合わせています。実際、かなり興味深いです。日本の24の公式レースからの録音を使ったテストでは、システムは注釈付けられた鞭打ちの約70%を正しくフラグ付けし、データをリアルタイムよりも速く処理しました。
実際のレース環境でのリアルモニタリングが存在する世界に向けた有望な一歩です。理にかなっています。特定の武器の音などを聞き取れるものがありますから。ええ、馬を守り、鞭が強すぎないようにしましょう。鞭打ちさえしない方がいいかもしれません。実際、馬を鞭打つ人に罰金を科してもいいかもしれませんね。
終わりに
コメントを残したり、Patreonをチェックしたり、何らかの形でチャンネルをサポートしたい方は、コメントを残したり、チャンネル登録したり、そういったことをしていただけると本当に嬉しいです。もちろん、Hypeボタンもあります。今週は使いませんでしたが、Hypeボタンも本当にクールです。それでは、次の動画でお会いしましょう。今日は少し静かにしなければなりませんでした。午前4時頃に撮影していて、このホテルには隣人がいると思うので。それではまた次の動画で。さようなら。


コメント