
2,794 文字

中国人たちはついに巨大な怪物を作り出しました、そしてそれはオープンソースです。世界最高のモデルの一部を打ち負かし、あなたが必要とする唯一のローカルAIモデルになるかもしれません。それはQuen 3と呼ばれています。説明しましょう。
Quen 3はAlibabaの最新のオープンソースモデルファミリーで、言語モデル、LLMです。彼らは一つのモデルだけをリリースしたわけではありません。強力な言語モデルの巨大なラインナップをリリースしました。そして最高の部分は、密なモデルとエキスパートの混合モデルの両方があることです。彼らはこれらのモデルを非常に寛大なApache 2.0ライセンスの下でリリースしています。つまり、商業的に使用したり、制限なくローカルで実行したりすることができます。
つまり、もしあなたが企業のユースケースを持っていて、会社の問題に使いたい場合は使用できます。微調整に使いたい、モデルをそのまま何かに使いたい、一切の許可を得る必要はないということです。単純に使用できます。
では、これらのモデルを詳しく見ていきましょう。まず、密なモデルを見てみましょう。Quen 3は6億のパラメータから320億のパラメータまでのサイズがあります。これは私のポイントに戻りますが、これがローカルモデルの王である最大の理由の一つです。次に、エキスパートモデルの混合モデルがあります。
これらにはQuen 3 30億A3億が含まれます。つまり、30億はモデルの総サイズで、アクティブなパラメータは30億パラメータモデルです。そして真の最大の怪物は最後のものです。Quen 3 2350億a 220億パラメータモデル。つまり、220億パラメータがアクティブで、合計で2350億パラメータがあります。
これにより、そのサイズに対して信じられないほど効率的になります。なぜなら、特定の時点で220億パラメータを実行するために必要な計算だけで済み、2350億パラメータモデルの恩恵を受けられるからです。Quen 3 30億A3億のような小さなモデルでさえ、その前身のQuen 2.5 320億を上回るパフォーマンスを発揮します。
つまり、30億のアクティブパラメータの30億モデルはquen 2.5 320億パラメータモデルを上回ります。つまり、より少ないリソースを使用し、はるかに優れたモデルを手に入れることができます。同じパフォーマンスを得るために、はるかに少ない計算能力を使うだけで済み、パフォーマンスがなければパワーは意味がありません。
ベンチマークを見てみると、MMLU、GSM8K、人間やその他のコーディングと推論のチャレンジなど複数のベンチマークで、Quen 3モデルは独自の地位を保っています。2350億パラメータモデルは最先端の結果を提供し、小さなモデルでさえそのサイズクラスをはるかに上回るパフォーマンスを発揮します。これは人々がLlama 4に期待していたことの一つですが、残念ながらLlama 4は基準を設定しませんでした。
しかし、ここでQuen 3は、本当に最先端である新しいモデルファミリーで基準を設定しました。例えば、70億パラメータと140億パラメータは、持っているRAMによっては、ローカルのユースケースに本当に本当に完璧です。私は36GBのマシンを持っています。4ビット量子化で140億パラメータモデルを非常に簡単に便利に使用できます。
ここがQuenが真に際立っている点です。Quenは最大で128,000トークンをサポートしています。たとえ128,000トークンを使用できなくても、これはモデルを大きなコンテキストのユースケースで本当に優れたものにするでしょう。RAG(検索拡張生成)かもしれませんし、本当に大きなコンテキストでの文脈内学習かもしれません。
持っている計算能力によっては、最大128,000のコンテキストウィンドウを保持できます。結局のところ、これはトランスフォーマーモデルなので、最大サイズで実行するには多くの計算能力が必要です。しかし、より小さなサイズ、より小さなコンテキストウィンドウであれば、非常に優れた効率的なものになるはずです。
これにより、Quen 3は多くの企業のユースケースに最適であり、Apache 2.0ライセンスにより、このモデルは微調整のユースケースにとって強力な候補となります。Quen 3が119の言語と異なる方言をサポートしているため、さらに良くなります。単なる英語とエクストラではありません。本当に多言語のユースケース向けに構築されています。
多言語のユースケースで本当に優れている他のモデルはGemmaですが、Gemmaには寛大なライセンスがありません。再度言いますが、Quen 3に負けているのはLlama 4だけではなく、JMA、Mistralなど、オープンソースの旗手となりうると信じていた他のモデルもこの中国の怪物によって完全に潰されています。
スペイン語、アラビア語、ヒンディー語、スワヒリ語、中国語の北京語で作業している場合、Quen 3は考えるべきモデルです。Quen 3の中でもう一つのユニークな機能は、ハイブリッド思考を持っていることです。Quen 3では推論スタイルを選択できます。つまり、タスクに応じて、速い浅い応答と深い段階的な推論を切り替えることができます。
これはChat GPTとClotの思考モードと非思考モードの間を切り替えるようなものです。では、このモデルにどうアクセスできるでしょうか?モデルはHugging Face、Model Scope、さらにはKaggleでも利用可能です。彼らはまた、Llama CPP、SG Lang、VLM、MLX、K transformersなどの多くのエコシステムパートナーと提携しています。
チャットボット、研究、コード生成、ローカルの生産性のユースケースを構築しているかどうかにかかわらず、Quen 3は完全なコントロールを提供し、API、制限、監視はありません。これが中国からのモデルだと推測したとしても、モデルをダウンロードして使用するので、中国とは何も関わりがありません。
Quen 3は単なる別のLLMリリースではありません。これは最も完全で、パフォーマンスが高く、柔軟なオープンソースファミリーだと思います。そして、これはオープンソースモデルがLLM、大規模言語モデルの世界を征服していく方法において大きな基調を設定しています。つまり、中国人たちは単に怪物を作っただけでなく、あなたが必要とする最高の、最後のLLMを手渡したかもしれません。ローカルで実行してみてください。
どう感じるか教えてください。また別の動画でお会いしましょう。ハッピープロミング。


コメント