OpenAIが新たに発表したオープンソースモデル「GPTOSS」について詳しく解説する動画である。120億パラメータと200億パラメータの2つのバージョンが存在し、Apache 2.0ライセンスの下で完全無料かつオフラインで利用可能となっている。GPT-4 miniに匹敵する性能を持ちながら、ローカル環境で実行でき、プライバシーを保護しつつAPI料金も不要という画期的な特徴を持つ。実際にLM Studioを使ってモデルをインストールし、JavaScript製のヴァンパイアサバイバーズ風ゲームの制作を通じて性能を検証している。

OpenAIから画期的なオープンソースモデルが登場
今日、OpenAIからめちゃくちゃ重要なニュースが飛び込んできたんや。数ヶ月前から約束してくれてたオープンウェイトモデルがついにリリースされたんやけど、これがオープンウェイトモデルにしては予想以上にすごい出来なんや。
この新しいモデルの名前は「GPTOSS」で、2つのサイズで提供されてるんや。1200億パラメータのバージョンと、パラメータ数は少ないけど処理が早くて、より多くのマシンで動作可能な20Bバージョンがあるんや。
しかもこれらのモデルはApache 2.0ライセンスでリリースされてる。つまり、みんながこのモデルをダウンロードして、好きなようにファインチューニングして、このモデルを基に開発を進めることができるんや。これは間違いなく新しいオープンウェイトの王様になると思うで。LLaMAモデルやMistralモデル、その他のオープンモデルと比べても、今回出てきたこのモデルほど強力なものはないと思うわ。
なんでオープンウェイトモデルが大事なんかって?オープンウェイトモデルは自分のコンピューターにダウンロードして、完全にオフラインで実行できるんや。インターネット接続は一切必要ない。まあ、それなりに良いGPUは必要やけど、インターネットは要らんのや。
オフライン実行のメリット
つまり、飛行機で3万フィート上空にいるときでも、家のインターネットが落ちてしまってもChatGPTみたいなボットと会話を続けることができるんや。オープンウェイトモデルがあればな。
それに、データは一切クラウドに送信されへん。このモデルとの会話は全部、GoogleやOpenAIやMicrosoftなんかには送られへん。全部自分のコンピューター内に留まるんや。誰もこのモデルとの会話を見ることはできへんのや。
それに完全に無料で使えるんや。一度コンピューターにダウンロードしたら、もうそれは自分のものや。ChatGPTやClaude、Googleに料金を払う必要は一切ない。自分のコンピューターでローカルに動いてるからな。
モデルの詳細な仕様
それじゃあ、このモデルの詳細を見てから、実際に動かしてどんなことができるか試してみよう。
もう一度言うけど、2つのモデルがある。1200億パラメータと200億パラメータや。これはMixture of Expertsモデルを使ってて、つまり全パラメータを一度に使うんじゃなくて、51億パラメータか36億パラメータの一部だけを使うんや。理論的には、これでモデル使用時の推論速度が上がるはずや。
コンテキスト長は128,000トークンもあるんや。つまり、入力と出力を合わせて約96,000語まで使えるってことや。ベンチマークを見てみよう。コードフォース競技プログラミングのベンチマークでは、1200億パラメータモデルが2,622点を獲得してる。
o3やo4 miniと比べてみると、これらは現在ChatGPTが提供してる最高峰のモデルやけど、ほぼ同等の性能や。ほんのちょっとだけ劣ってるけど、本当にわずかな差や。o3 miniより明らかに良い性能を出してるしな。
Humanity’s Last Examでは、これらのオープンウェイトモデルはo4 miniとほぼ同等の性能を発揮してる。HealthBenchではo3に近い性能で、o4やo3 miniより良い結果や。競技数学では実際にo3やo3 miniを上回ってて、o4 miniにほんのちょっと負けただけや。つまり、これらのモデルは数学とコードがめちゃくちゃ得意なんや。
GPQAっていうのはGoogle Proofの略で、Googleで簡単に答えが見つからないような問題のことや。1200億パラメータモデルはo3を上回って、o3やo4 miniとほぼ同等の性能を発揮してる。
サム・アルトマンのコメント
もう一度言うけど、オープンウェイトモデル、無料で使える、自分のコンピューターにダウンロードできて、OpenAIの現在最先端のクローズドモデルにほぼ匹敵する性能や。正直、めちゃくちゃすごいことやと思うで。
これらは思考連鎖モデルでもあるんや。プロンプトを与えると、実際にそのプロンプトについて考えてる過程が見えて、どれだけ考えさせるかも調整できるんや。短時間、中時間、長時間の思考を選択できて、より良い論理的な回答を導き出せるようになってる。
そして今すぐ利用可能や。Hugging Faceからダウンロードできて、OllamaやLM Studio、Together AIなんかのツールで実行できる。俺はLM Studioをよく使うから、後でそれを使ってテストしてみるで。
他にも見せたいことがあるんや。サム・アルトマンがこれが公開されると同時にツイートしてる。「GPT OSSが出た。o4 miniレベルの性能でハイエンドラップトップで動作するオープンモデルを作った」って。まあ、これはちょっと大げさかもしれんけどな。1200億パラメータモデルを使うなら80GBのGPUが必要って書いてあるし、そんなスペックの一般向けGPUはそう多くない。
ハイエンドのMac Studioなら実行できる。実際、俺は256GBのRAMを積んだMac Studioを持ってるから、このモデルを実行できるはずや。後で試してみよう。でも200億パラメータの小さい方のモデルは16GBのメモリで実行できるから、最近の一般向けGPUなら大抵動くやろう。
Perplexityで「16GB以上のVRAMを持つGPUはどれか?」って聞いてみたら、AMD Radeonのいくつかのモデル、RTX 5060、5070、5080、もちろん5090、4080s、4090s、3090s、3090 Tiなんかが出てきた。16GB必要なモデルを実行できるGPUは結構あるんや。
サム・アルトマンの詳細なコメント
サムからこの新しいモデルについてもっと詳しい考えが発表されてる。「GPT OSSは大きな出来事だ。これは最先端のオープンウェイト推論モデルで、o4 miniに匹敵する強力な実世界性能を持ち、自分のコンピューターや小さいサイズなら電話でもローカルに実行できる。これは世界で最高かつ最も使いやすいオープンモデルだと信じている」って言ってる。
できるだけ多くの人の手に届けたいし、悪いことより良いことの方がはるかに多く生まれると信じてるって言ってるわ。1200億パラメータモデルは困難な健康問題についてo3とほぼ同等の性能を発揮するし、特にバイオセキュリティ周りの最も深刻な安全性問題を軽減するよう取り組んできたんやと。
多くの人はChatGPTのような便利なサービスを使いたがるやろうけど、必要な時には自分のAIを直接コントロールして修正できるべきやし、完全にオフラインでできるからプライバシーの利点は明らかやって言ってる。この分野の革新ペースが大幅に向上して、これまでより多くの人が重要な仕事をできるようになることを期待してるんやと。
WindowsとMicrosoftとの統合
今回のリリースの一環として、MicrosoftもWindows端末にGPT OSS 20Bモデルの GPU最適化バージョンを導入するようや。これがコードに強いなら、正直多くの人にとってClaudeの代わりになりそうや。オープンモデルやから、コードを使うたびにAPI料金を払う必要がないからな。
Claudeのコード機能は料金をどんどん上げてるけど、これを全部自分のコンピューターでローカルにできるなら、API費用を心配する必要がない。自分のコンピューターの電力使用量だけ気にすればええんや。
実際にインストールして試してみよう
それじゃあ実際にこれをコンピューターにインストールしてみよう。
ブランディングに関わる仕事をしてるなら、これは作業フローを変えるで。ReCraftはデザイナー向けに作られたAI画像生成ツールや。創作コントロールを手放すことなく、一貫した高品質のイラスト、ロゴ、モックアップ、アイコンを作成できるんや。
ベクターアートが必要やとしよう。ReCraftは本物のSVGを生成する唯一のAIや。スタイルを選んで、プロンプトを入力した。「AIとテクノロジーについてのMattWolf YouTubeチャンネルメインページ用バナーを作成」って。そしたら瞬時にスケーラブルなデザインが出てきたんや。
知ってる人もいるかもしれんけど、俺はfuturetools.ioっていうウェブサイトを運営してて、AIツールをレビューして評価してるんや。結構小規模なチームで運営してるから、このロゴ以外にはあんまりブランディングがないんや。ReCraftが手伝ってくれるか試してみよう。
ロゴを参考画像としてアップロードしたら、ReCraftは瞬時に一貫したオンブランドのアセットを生成してくれた。ウェブサイトやスライド、YouTubeなんかで使えるやつをな。この機能だけで何時間もの作業が節約できたで。
ReCraftはNetflix、Ogilvy、HubSpotのチームでも使われてるから、出力品質は信頼できる。説明欄のリンクから今日無料でReCraftを使い始められるで。ReCraftのスポンサーに感謝や。さあ、動画に戻ろう。
LM Studioでのセットアップ
コンピューターに実際にインストールしてみよう。LM Studioを使うで。lmstudio.aiにアクセスして、Mac用をダウンロードする。使ってるOSに合わせてダウンロードしてな。インストーラーを実行しよう。ここにドロップして、LM Studio「ローカルAI on your computer」を開こう。始めよう。全部見たいから開発者を選択するけど、好きなのを選んでええで。
LM Studioを開くと、すぐにGPT OSS 20Bが提案されるのが分かるやろう。これは大抵の人がダウンロードして使いたいモデルや。1200億パラメータモデルは、またしてもかなり高性能なコンピューターが必要や。GPT OSS20Bをダウンロードしよう。12GB以上あるから、容量があることを確認してな。
ダウンロード中に、LM Studioの中を見てみよう。右下の設定をクリックして、それからモデル検索をクリックする。俺のコンピューターでも120Bをテストしたいんや。今まで限界まで使ったことがないハイエンドのMac Studioを持ってるからな。このモデルも取得しよう。64GBあるから時間がかかるけど、ダウンロードを始めておこう。
20Bモデルでのテスト
200億パラメータモデルのダウンロードが完了したから、これを使ってみよう。上部の「select model to load」でGPT OSS 20Bを選択する。これで基本的にChatGPTと同等のモデルがオフラインで使えるようになったんや。
念のため「strawberryという単語にRが何個含まれてる?」って聞いてみよう。1秒未満で考えてくれた。「strawberryという単語にはRが3つ含まれています」。よくできてるやん。思考プロセスも見ることができる。「strawberryのR文字を数える。Rは3回出現する」。かなり速いな。74トークン毎秒や。
下の方では画像やPDF なんかを添付できるのも分かる。JSコードサンドボックスやRAG v1なんかの追加統合を有効にできる。MCPサーバーから直接もっと統合をインストールすることもできる。推論の努力レベルも低、中、高の間で変更できる。
右上の小さなレンチアイコンをクリックすると、もっと設定がある。システムプロンプトを与えたり、推論の努力をいじったり、モデル温度を変更したり、サンプリング設定を変更したり、構造化出力について情報を与えたり、投機的デコーディングについて設定したりできる。プログラムをクリックして追加統合を有効にすることもできる。
JavaScript ゲーム制作テスト
コーディングプロンプトをテストしてみよう。新しいチャットをクリックして、ヴァンパイアサバイバーズスタイルのゲームをJavaScriptで作らせてみよう。「ブラウザでテストできるように、JavaScriptを使ってヴァンパイアサバイバーズのクローンを作成して」って言うで。推論の努力を高に設定して、JavaScriptやからJSコードサンドボックスも有効にしよう。きっとJavaScriptに役立つと思うわ。
プロンプトを送信する前にもう一つやることがある。モデルの横の設定をクリックして、コンテキスト長を高めに設定する必要がある。コードを書くのにそんなにトークンは必要ないはずやけど、コードを書き続けられるように上げておきたいんや。131,000トークン全部は必要ないやろうから、20,000トークンくらいに設定しよう。そして変更を適用するためにリロードする。
プロンプトを送信すると考え始める。これはめちゃくちゃ速かった。45秒くらいでこれだけのコードを生成したで。2つのファイルができた。index.htmlとmain.jsや。デモのために新しいフォルダを作ろう。とりあえずtempって名前にする。
tempフォルダの中にindex.htmlファイルを作る。index.htmlのテキストをコピーして、tempフォルダ内に新しいドキュメントを作って、テキストを貼り付けて、index.htmlとして保存する。新しいドキュメントを作って、main.jsをコピーして、貼り付けて、main.jsとして保存する。
理論的には、index.htmlファイルを開けばヴァンパイアサバイバーズゲームができるはずや。撃ってはないけど、敵が俺に向かってきてて、俺は逃げ回って、もっと敵が画面に現れてる。45秒間生き延びたのが分かるやろう。基本的に敵をかわすゲームを作ってくれたんや。
ヴァンパイアサバイバーズゲームとは言えんけど、めちゃくちゃ速く作ってくれたし、オープンソースのオフラインモデルでやってくれたんや。大きいモデルのダウンロードが終わったら、それがどんなことをしてくれるか楽しみやな。
120Bモデルでのテスト
ついに1200億パラメータモデルのダウンロードが完了したで。めちゃくちゃ時間がかかった。このモデルは約80GBのRAMが必要なんや。見ての通り、俺は256GBのRAMと208GBの潜在的VRAMを持ってる。理論的には実行できるはずや。どれくらい速いかは分からんけど、やってみよう。
上部でこのモデルを120Bモデルに切り替える。新しいチャットを作って、設定をクリックして、また実行できるようにコンテキスト長を上げよう。プロンプトには、またしても「ブラウザでテストできるように、JavaScriptを使ってヴァンパイアサバイバーズのクローンを作成して」って入力する。推論の努力を高に切り替えて、JSコードサンドボックスは有効にしたままにする。
結構うまく動いた。約35トークン毎秒で生成してくれて、このコードを作ってくれたんや。しかも簡単にしてくれた。全部1つのファイルにまとめてくれたから、別々のHTMLとJavaScriptファイルにする必要がない。
このテキスト全部をコピーして、新しいテキストファイルを作って、全部貼り付けて、vampire.htmlとして保存する。開いてみると、こんな感じや。めちゃくちゃ速い連射をしてるけど、20Bモデルが作ったものより、ヴァンパイアサバイバーズにはるかに近いクローンや。悪い奴らが俺に向かってきて、自動的に武器を撃ってる。
武器がちょっと攻撃的すぎるな。簡単すぎる。誰も俺に近づけない。でも、オープンソースモデルでワンショットでこれやからな。もう何回かプロンプトを送れば、しっかりしたヴァンパイアサバイバーズのコードができるやろう。
正直、これが1つのプロンプトでこんなことができるなんて、まだ信じられんわ。オープンソース、完全にオフライン。現在ある最先端のモデルとほぼ同等の性能やのに、オープンソースで完全にオフラインで実行できる。誰のサーバーにもデータを送る必要がないし、めちゃくちゃ優秀や。
このオープンソースモデルでできることに本当に感動してるし、みんながこれを手に入れて、これを基に改良して、ファインチューニングしていくのがもっと楽しみや。どんどん良くなって、検閲もなくなって、みんながいじり回すうちにもっともっと機能が増えていくやろうからな。
現在最高のChatGPTモデルと同等のものが、今すぐ無料でオフラインで手に入るなんて、めちゃくちゃワクワクするで。
今後の展望とサム・アルトマンからの予告
これでもニュースが足りんって言うなら、今週もっと来るかもしれんで。サム・アルトマンが今日Xで言ってたんや。「今後数日間で、みなさんにたくさんの新しいものをお届けします。今日は大きいけど小さなもの」って、さっき話したGPT OSSのことを指して、「そして今週後半に大きなアップグレード」って。
それってGPT-5のことか?分からんけどな。本当にワクワクする週になりそうや。これだけでもめちゃくちゃクールやのに。俺は大歓迎やで。
今週何が起ころうとも、土曜日のAIニュース解説で全部カバーするで。毎週土曜日に、その週の最新AI機能を全部デモして、最新のAIニュースについて話す完全版動画を作ってるんや。
こんな風にツールの使い方を見せる動画がもっと欲しくて、最新のAIニュースも知りたいなら、この動画にいいねして、このチャンネルを購読してな。そしたらYouTubeフィードにもっとこんな動画が表示されるようになるで。
今日俺と一緒に時間を過ごして、オタク話に付き合ってくれてありがとう。ReCraftのスポンサーにも感謝や。この新しいOSSモデルで遊んでみてな。完全に無料で使えるからな。
とりあえず今日は以上や。次の動画で会えることを願ってるで。


コメント