公式DeepSeek V3.1を4分で解説!

中国
この記事は約5分で読めます。

DeepSeek V3.1は、思考モードと非思考モードを切り替え可能なハイブリッド推論を採用した大規模言語モデルである。従来のV3をベースとした継続事前学習により、同等の精度でより少ないトークンでの処理を実現し、大幅なコスト削減を可能にした。出力価格は100万トークンあたり1.68ドルと競争力があり、Anthropic API形式をサポートすることで開発者の利便性を向上させている。MITライセンスでオープンソース化されており、米国企業の主力モデルに対する有力な代替選択肢として位置づけられる。

The Official Deepseek V3.1 in 4 mins!
Deepseek v3.1 is officially here! 🔗 Links 🔗access deepseek v3.1 here - ❤️ If you wan...

DeepSeek V3.1の正式発表とその特徴

DeepSeekがついに正式にDeepSeek V3.1を発表したで。これはベースモデルとインストラクトモデルの2つの形で提供されとって、今日からすぐにAPI経由でもウェブチャットでもアクセスできるようになっとるんや。

DeepSeek V3.1が出てきたタイミングっちゅうのは、大規模言語モデルがどう進化しとるかっちゅう観点でめっちゃ興味深いんやで。例えば、Quinn社なんかはハイブリッドモデルから離れる方針に変わったんや。思考と非思考を両方できる一つのモデルを持つんじゃなくて、2つの別々のモデルに分けとる。これは多くの企業が取ってる戦略やな。一方でOpenAIは逆に、全部をこなせる一つのモデルの方向に進んどる。

ハイブリッド推論っちゅう考え方と非ハイブリッド推論っちゅう考え方があるんやけど、今回DeepSeekはハイブリッド推論の段階に進むことを選択したんや。思考モードと非思考モードの両方をこなせる一つのモデルを作ったっちゅうわけやな。

ユーザーインターフェースと機能切り替え

DeepSeekのユーザーインターフェース、つまりチャット画面では、この「深く考える」機能のオンオフを切り替えることができるんや。思考モードに入るか入らんかを自分で選べるっちゅうことやな。

これはなかなか面白い選択やと思うで。これがどう展開していくかは見守る必要があるけど、全体的に見たらDeepSeek V3.1は既存のモデルよりも改良されとるのは確かやな。

モデルの技術的詳細と継続事前学習

ただ、これが完全に新しく訓練されたモデルかっちゅうとそうやない。このモデルはV3の上に構築されとるんや。つまり、CPT(継続事前学習)っちゅうやつやな。

V3の上に8400億トークンで長いコンテキスト拡張のための継続事前学習が行われとる。このモデルがいくつかのことをめちゃくちゃ上手くやってくれるんやけど、一番興味深いのは、同じレベルの精度、いやむしろ若干改善された精度でも、使うトークン数が少ないっちゅうことやな。

トークン効率の大幅改善

ここを見てもらったらわかると思うんやけど、AM 2025で87%の精度を出すのに、以前のモデルであるR1(これは最も評価の高いモデルの一つやで)は22,000トークンを使ったんや。ところがDeepSeek V3.1の思考モードは15,000トークンしか使ってへん。

同じような傾向が全体的に見られて、トークンの使用方法において最低でも40から50%の改善が見られるんや。これはエージェント環境にとってはめちゃくちゃ重要なことやで。低レイテンシで低コストを実現したいからな。これらのモデルはトークンベースで料金を請求してくるから、改良されたモデルでありながら、実際にはコストが安くなるっちゅうことになるんや。出力するトークン数が少なくなるからな。

競争力のある価格設定

価格設定の面では、かなり競争力があるで。DeepSeekは出力価格が100万トークンあたり1.68ドルで来とる。入力キャッシュとかそういうのは一旦置いといて、純粋に出力だけで100万トークンあたり1.68ドルやで。

この価格をGPT-4oと比較してみると、GPT-4oは10ドルや。GPT-4o miniでさえDeepSeekより高いんや。GPT-4oとDeepSeek V3.1が同じモデルやとは言わんけど、こんな価格比較を見ると、開発者がDeepSeek V3.1を使い始めるのはめちゃくちゃ魅力的やと思うで。

オープンソースライセンスとアクセス方法

ベースモデルとファインチューンされたインストラクションモデルの両方が提供されとる。この2つのモデルはDeepSeekの価値観に忠実に、MITライセンスでHugging Faceで利用できるようになっとるんや。

オープンソースライセンスが復活したっちゅうわけやな。これにアクセスしたかったら、chat.deepseek.comに行ってモデルとチャットを始めるだけでええ。さっき言ったように、深く考える機能の切り替えができる。深く考える機能を有効にしたら思考モード、無効にしたら非思考モードになるんや。

モデル仕様と特徴

覚えといてほしいのは、この両方の機能を担当してるのは単一のモデルやっちゅうことやな。128,000のコンテキストウィンドウを持っとって、MOE(Mixture of Experts)モデルや。総パラメータ数は6710億で、特定のフェーズで370億パラメータがアクティブになる仕様になっとる。

このモデルはマルチターン会話が得意やとされとる。モデルの出力トークン数は少ない、マルチステップのエージェントタスクにも優れとって、コストも安く済むんや。DeepSeek APIを試してみたい開発者にとってはまさに金の卵みたいなもんやで。

中国や中国のサーバーを気にせえへんのやったら、多くの人が使うことになるモデルやと思うで。

Anthropic API対応という画期的な取り組み

DeepSeekがやったもう一つの素晴らしいことは、Anthropic API形式をサポートしたっちゅうことやな。

みんながAnthropic APIエンドポイントに苦労してて、特についていくのが大変やっちゅうのをDeepSeekは理解してるんや。だからDeepSeekはAnthropic APIサポートを有効にしたんや。つまり、Claude Codeを使い始めることができるけど、中身はDeepSeekっちゅうことになる。これも正直めちゃくちゃ賢い動きやと思うで。

総評と今後の展望

全体的に見て、これは素晴らしいリリースやと思う。ベンチマークだけ見たら、そんなに素晴らしいリリースには見えへんかもしれん。

例えば、DeepSeek V3.1を見ると、わずかな改善程度に見えるかもしれんけど、すべてのモデルプロバイダーを見てみると、DeepSeekのポジション的には、アメリカ企業の主力企業に対する優れた代替選択肢になってると思うんや。

DeepSeekをもっと詳しくテストして、また比較動画を作ってみたいと思っとる。このモデルについてどう思うか教えてくれや。また別の動画で会おうな。ハッピープロンプティング!

コメント

タイトルとURLをコピーしました