
6,261 文字

DeepSeekが注目を集めている理由は主に2つあります。まず、Janus Proという新しいマルチモーダルAIモデルファミリーをリリースしました。このモデルは、OpenAIのDalle 3やPixar Alpha、Emu3 Genなどの有名モデルを、Gen EVLやDPG Benchのようなベンチマークでしのぐとされています。AIベンチマークに詳しい人なら、これらが画像生成や画像理解の能力を測る重要な指標だとわかるでしょう。
さらに注目すべきは、Janus Pro 7Bとして知られる最大バージョンが、少なくともDeepSeek自身の内部テストによれば、これらの有名モデルを上回る性能を示しているということです。
Janus Proのリリースのわずか数日前、DeepSeekはR1言語モデルで話題を集めました。これは、o1と同等の性能を持ちながら、開発費用がわずか500万から600万ドル程度だったとされるモデルです。シリコンバレーの大手AIラボが数十億ドルを費やしているのと比べると、業界全体が「AIの開発費用を払いすぎているのではないか」「次の大きなブレークスルーは、新しいシステムトレーニング手法を持つ小規模な企業から生まれるのではないか」と考え始めたのも当然です。
DeepSeekは中国の杭州に拠点を置いているため、政治的・経済的な側面も想像できます。米国によるNVIDIA製の先端チップの輸出規制は中国のAI開発を遅らせることを意図していますが、DeepSeekは米国によってブロックされた超ハイエンドチップより技術的には劣るNVIDIAのH800チップを使用して、o1レベルの結果を達成したと主張しています。これは、アメリカのラボが採用している高額な戦略すべてに疑問を投げかける重大な発言です。
最近起きた小さな騒動について触れておきましょう。DeepSeekのAIアシスタントアプリが米国のApp Storeの無料アプリランキングでトップに躍り出た頃、サイバー攻撃を受けたようです。新しいAIがリリースされて急速に人気を集め、ウェブサイトがダウンし、ハッキング未遂によって一時的に登録を制限すると発表するという劇的な展開でした。注目度の高さを示すと同時に、望まない注目も集めていることが明らかです。
Janus Proモデルに話を戻しましょう。DeepSeekは、768×768ピクセルまでの画像生成、画像分析、テキストベースのタスクなど、さまざまなことができる統一されたTransformerアーキテクチャとしてこれを売り込んでいます。多くのAIモデルがテキスト生成や画像生成など一つの機能に特化しているのに対し、Janus Proはオールインワンアプローチを目指しています。
GPT-4 VisionのようにGPT-4が画像を見ることができるのと似ていますが、こちらは完全にオープンソースのアプローチです。DeepSeekはモデルのコードとウェイトをHugging Faceですぐにダウンロードできるようにしました。これは、すべてを非公開APIの背後に置いておくOpenAIのような企業とは対照的です。
では、Janus Proの実力はどうでしょうか?このモデルは10億パラメータから70億パラメータまでのさまざまなサイズで提供されており、70億パラメータ版が主力製品で、Dalle 3と競合するとされているものです。ユーザーコミュニティはさまざまな方法でテストを行っています。
例えば、Janus Proで画像を分析し、物体やそれらの関係性、含意される意味をどの程度正確に説明できるかを試しています。物体の位置や外見といった直接的な描写は上手くできましたが、より深い推論が必要な場合は少し物足りませんでした。メタファーを伝えるイラストを考えてみてください。Janus Proは文字通りの描写はできましたが、象徴的なメッセージを解釈することはできませんでした。一方、GPT-4 Visionはより深い意味を理解することができました。
画像生成の面では、Janus Proは良質な画像を生成できますが、Stable Diffusionの様々な微調整版のように、巨大なコミュニティによって常に微調整されている専門の最先端画像モデルと比べると、全体的な鮮明さやアーティスティックな魅力の面で苦戦する場合があります。Janus Proの利点は、絶対的なトップレベルの視覚表現というよりも、多様性にあるようです。
興味深いテストの一つとして、誰かがJanus Proと標準的なSDXLに秋の風景の中にいる可愛い子狐を生成するよう指示しました。Janus Proは「赤ちゃん」の部分をより上手く表現できましたが、SDXLはより鮮明で詳細な画像を生成しました。つまり、Janus Proはプロンプトに忠実である一方、SDXLは洗練された見た目を生成することに長けているというトレードオフがあるのです。
重要なポイントは、DeepSeekがモデルをオープンソース化したことで、コミュニティがより高品質に微調整できる可能性があることです。他のオープンソースモデルでも同様のことが起きており、人々は専門的なデータセットを適用し、コードを改善し、基本的にモデルを新しい高みへと押し上げることができます。
DeepSeekの公式Hugging Faceスペースはまだアクティブではないようですが、一部の個人がJanus 7Bをテストできるよう独自のスペースを設置しています。ただし、7Bバージョンを使用していることを確認することが重要です。1.5Bビルドを7Bと誤って表示されているものを使用すると、間違いなく失望することになるでしょう。
DeepSeekの成功話、特にGPT-4レベルのシステムを少ない費用で構築したという部分が大きなニュースになった時、株式市場で起きた暴落について話しましょう。NVIDIAの株価が急落し、1日で6000億ドルという莫大な市場価値の下落を引き起こしたと報じられています。
最先端のAIモデルをトレーニングするのに最も先進的なチップが必要ないとすれば、NVIDIAの止められない成長路線も、そこまで止められないものではないかもしれないという論理です。中国のスタートアップが通常の10分の1のコストで結果を再現できるなら、AIへの投資競争は誤った方向に向かっているのではないかという疑問が生まれ始めました。
OpenAIのCEOであるサム・アルトマンはソーシャルメディアで、DeepSeekの成果に感銘を受けたとしながらも、OpenAIはさらに優れたモデルで応答する予定だと述べました。さらに、コンピューティングリソースへの投資を増やすとも言及しています。つまり、OpenAIは大規模投資のアプローチから後退する気配はありません。
彼らにはMicrosoftとのパートナーシップがあり、マイクロソフトはOpenAIのエコシステムに数十億ドルを投資しています。さらに、大規模なデータセンターの拡張も計画しています。
もう一つの興味深い展開は、ホワイトハウスからのものでした。トランプ大統領は、中国企業からのDeepSeek AIのリリースは、我々の産業が勝つために競争に集中する必要があることを示す警鐘だとコメントしました。米国が引き続き分野を支配することを確実にするため、アメリカのテクノロジー企業の力を解き放つべきだと語りました。
これは、中国へのチップ輸出制限に関する継続的な議論の中で非常に重要な発言です。しかし、この中国企業は利用可能なリソースを使用することで、これらの制限を巧みに回避しています。これは確実に、輸出規制がどれほど効果的に機能しているのかという議論に火をつけています。
DeepSeekの背景にも謎が多くあります。2023年に設立されたばかりで、本社は杭州にあります。Baiduのような中国の大手企業は以前から大規模言語モデルをリリースしていましたが、DeepSeekのように米国のテクノロジーコミュニティの注目を集めた中国のモデルは、これまでありませんでした。
一部の批評家はセキュリティリスクの可能性を懸念しています。DeepSeekが中国政府と密接に結びついており、ユーザーデータを危険にさらしたり、検閲につながる可能性があるのではないかという疑問が浮上しています。DeepSeekのAIアシスタントが中国政府や習近平国家主席に関する質問に答えないという報告もあり、特定のトピックに関してどれほどオープンで自由なのかという憶測を呼んでいます。
それにもかかわらず、わずか数週間でDeepSeekのAIアシスタントは米国のApp Storeで、ChatGPTさえも上回って最も評価の高い無料アプリケーションになりました。数日でAIチャットボットの王座を奪ったと考えると、かなり驚くべきことです。
この人気の急上昇により、DeepSeekのサイトに深刻な障害が発生するほどの高需要が生まれました。アプリケーションプログラミングインターフェースとユーザーログインの問題を修正する必要があり、約90日間で最も長い停止時間を記録したと報告されています。突然バイラルになったアプリはしばしばこのような短期的な機能停止を経験しますが、確実に実際の市場の関心があることを示しています。
投資家を揺るがしているもう一つの要因は、競争力のあるAIをトレーニングするために何十億ドルと数千個の最高級NVIDIAチップが必要だという前提が間違っているかもしれないということです。少なくともDeepSeekはそう示唆しています。
AnthropicやMeta、Google、Amazonなど、すべてのビッグテックがAIの研究開発とインフラに巨額の予算を割り当てています。Microsoft、Meta、Alphabet、Amazon、Oracleだけでも、2025年に約3100億ドルを支出する予定で、その一部はAIデータセンター向けです。一方、OpenAIは世界的なデータセンターネットワークの構築に最大5000億ドルを費やす計画を示唆し、目を見張るような数字を提示しました。
しかし、DeepSeekが1000万ドル以下でそれを実現できるのなら、これらの支出は過剰かもしれません。
公平を期すために言えば、DeepSeekの数字を疑問視する人もいます。同社はV3モデルのトレーニングにわずか560万ドルしかかからなかったと述べていますが、これは最終的なトレーニングパスだけの費用で、それ以前の実験やデータキュレーションにかかった費用は反映されていない可能性があります。
それでも、総コストが2倍、3倍、5倍だったとしても、アメリカのテック大手から聞こえてくる金額よりもかなり低い可能性があります。そして、これが大きな疑問を投げかけます。それはいかにして可能なのでしょうか?
DeepSeekは、モデルが特定の時点で最も関連性の高いデータセクションにのみ焦点を当てることができ、それによって多くのコンピューティングリソースを節約できる新しいトレーニング技術を挙げています。また、AlibabaとMetaのオープンソースプロジェクトを足がかりとして使用し、それらを微調整して最終製品を作り出したとも述べています。
基本的に西側のオープンソースフレームワークに便乗したことに喜ばない人もいますが、それがオープンソースの仕組みです。コードが公開されれば、能力のあるグループなら誰でも適応させることができます。
Meta内部では明らかにある種の不満があります。世界最高の研究者を何千人も抱え、多額の資金を持っているのに、より少ないリソースしか持たない小規模な企業に大きなブレークスルーで先を越されたのはなぜかと考えている人々がいます。
マーク・ザッカーバーグはオープンソースの支持者で、Llamaなどのモデルをリリースしていますが、皮肉なことにLlamaがDeepSeekの現在の位置により早く到達する助けとなった可能性があります。
また、UCバークレーのスチュアート・ラッセルのような人物は、人工知能全般に到達するためのこの軍拡競争は、宇宙開発競争などよりも危険だと指摘しています。なぜなら、私たちは完全にコントロールできない可能性のある超知能システムに向かって突き進んでいるからです。
一部のAI企業のCEOたちも実存的リスクについて示唆していることから、比較的無名のプレイヤーがタイムラインを加速させていることは確かに眉をひそめさせています。
結局のところ、DeepSeekは今や誰もが話題にする企業となりました。マルチモーダルタスク、画像生成、画像分析、テキストベースの会話のためのJanus Proを提供し、さらに推論においてGPT-4と競合するR1モデルも提供しています。すべてがオープンソースなので、コミュニティがどのような改良を加えるかは誰にもわかりません。
一方で、より大きな疑問は、これによってビッグテックが方向転換を余儀なくされ、より効率的でコスト効果の高い技術に焦点を当てることになるのかということです。OpenAIのサム・アルトマンは基本的に「すぐにもっと良いものをリリースするから心配するな」と言いながら、巨大なコンピューティングリソースの重要性を強調しています。
Metaは、世界中の何十億人ものユーザーにサービスを提供するためには、やはりそれだけの力が必要だと示唆しています。つまり、モデルのトレーニングだけでなく、大規模な展開も考慮する必要があるのかもしれません。
しかし、一つ確かなのは、もう後戻りはできないということです。DeepSeekの突然の台頭は、西海岸の巨人たちによってAIに投じられた何十億ドルに対する現実の確認となりました。賢明な方法を用いれば、小規模で機動力のあるチームでもペースを保つことができるかもしれません。
これは単なる誇大宣伝ではありません。株価や投資トレンド、さらには政府が輸出規制をどう考えるかにも実際の影響を与えています。中国の研究所が最高級のチップなしでGPTレベルのモデルを生産できるなら、AI覇権を巡る会話全体が変わってきます。
これが概要です。AIの世界では本当に波乱の時代ですね。DeepSeekから新しい効率基準を設定しているとされるオープンソースアプローチが登場し、米国の巨大テクノロジー企業が軌道修正するか、少なくとも注目せざるを得なくなっています。株式市場は反応し、政府が介入し、オープンソースコミュニティがこれらの新しいモデルを中心に結集する可能性があります。
皆さんはどう思いますか?DeepSeekの成功は持続可能でしょうか、それともこれは一時的な現象にすぎないのでしょうか?予算の何分の一かで大手を革新し続ける小規模チームをもっと見ることになるのでしょうか、それとも巨大なリソースを持つOpenAIやMetaが常に優位に立つのでしょうか?
とにかく、この深掘りはここまでです。参考になったと思われる方は、いいねとチャンネル登録をお願いします。この話のどの側面が最も興味深いと感じたのか、コメント欄で教えてください。視聴いただきありがとうございました。次回の動画でお会いしましょう。


コメント