本動画は、大規模言語モデル(LLM)をファインチューニングして、個人の文体や話し方を完全に再現する方法を解説する実践的なチュートリアルである。AIが生成する文章は依然として人間らしさに欠けるという課題に対し、ファインチューニングという手法を用いることで、ブログ記事、SNS投稿、YouTube台本などのコンテンツを、まるで本人が書いたかのような自然な文体で生成できるようになる。動画では、RAG(検索拡張生成)との違いを明確にし、YouTubeトランスクリプトやTwitter投稿データを活用した具体的なファインチューニングのプロセスを段階的に示している。Nebiusプラットフォームを使用した実装方法、データの準備から訓練、検証、そして実際の活用まで、技術的な詳細を網羅しながらも初心者にも理解できる形で紹介されている。

AIに人間らしさを教える
AIは多くのことが得意ですが、人間らしく聞こえることは得意ではありません。アスタビスタベイビー。ですから、私たちの生活を楽にするという約束、特にブログ記事や記事、台本、ソーシャルメディアの投稿などを書くことに関して言えば、公開前にレビューや編集に膨大な時間を費やす必要があります。
しかし、それは今すぐ終わらせることができます。この動画では、LLMをあなたらしく話させる方法について、段階的なプロセスを説明していきます。ロン、すみません、私に話しかけていたんですか?もちろん、あなたが人間でない場合は別ですけど。あなたは人間ですか、ロン?とにかく、この動画は大規模言語モデルのファインチューニングに関する完全ガイドです。
コピーライティングや私自身のニーズに関連した具体的な使用例をお見せしますが、応用範囲は本当に無限です。それでは、前置きはこのくらいにして、私と一緒にこの旅に参加してください。
ファインチューニングとは何か
深く掘り下げる前に、ファインチューニングとは何かを説明させてください。ファインチューニングとは、基本的にAIに特定のことを知らせるのではなく、特定の方法で行動するように教えることです。
想像してみてください。YouTubeチャンネルのために台本を書いてくれるライターを雇ったとします。もしあなたが彼らにリサーチ資料でいっぱいのGoogle Driveを渡せば、彼らはプロジェクトに必要なすべての事実を知ることができますが、あなたのように書いたり話したりする方法はまだ知りません。ファインチューニングとは、そのライターにあなたがどのように話すかの例を繰り返し与えるプロセスです。
そして、それを大量に与えることで、最終的に彼らは自然にあなたのように聞こえ始めるのです。全然気持ち悪くないですよね。
RAGつまり検索拡張生成という言葉も聞いたことがあるかもしれません。これはモデルに追加のコンテキストや詳細を与える別の方法です。しかし、RAGとファインチューニングの違いは、RAGはライターに詳細や事実を含む巨大な参考マニュアルを渡すようなものですが、彼らが実際にスタイル的に応答する方法は変わらないということです。
彼らは単に、その追加情報を知り、取得する能力を得るだけです。モデルをファインチューニングすると、基本的には大量の情報で訓練された大きな一般的なモデルの1つから始めて、そのモデルに求める出力の具体的な例を与えます。
そのプロセスが何度も何度も繰り返されることで、あなたのトーン、構造、フォーマット、ジョーク、習慣、好みを学習していきます。最も単純な比較は、基本的にRAGはAIにノートブックへのアクセスを与えて、必要なすべての情報を持たせるようなものです。ファインチューニングは、演技のレッスンを与えるようなもので、実際にあなたにより近くなり、あなたのように応答し始めるのです。
もしモデルに特定の詳細を知り理解してもらう必要がある場合、RAGを通じてその詳細をモデルに供給できます。それは基本的に、ChatGPTの中でPDFやテキストファイルなどをアップロードするときにやっていることです。もしモデルにあなたのように話してほしい場合、RAGではまったく十分ではありません。
これを達成するには、実際にモデルをファインチューニングする必要があります。
実際のファインチューニング例
これはNebiusというプラットフォーム内にある、私がすでにファインチューニングしたモデルです。これはMW YouTubeと呼ばれていて、Llama 3.3 70B Instructの上に構築されています。この特定のモデルでは、私のすべてのYouTubeトランスクリプトで訓練しました。おそらく100時間分の訓練データ、私の動画からのトランスクリプトです。
このアイデアは、任意のトピックについて私のスタイルで台本を書くように指示すれば、私が動画で話すような台本を書いてくれるというものです。ここでプレイグラウンドに入ると、これが私のファインチューニングされたモデルで、システムプロンプトを与えて、ChatGPTとチャットするようにチャットできます。段階的な詳細は後ほど説明します。
まずは、すでに作成したこの例を見せ終えてから、ゼロから1つやってみましょう。システムプロンプトで、「あなたはMatt Wolfです。正しい句読点とマークダウンを使ってください」と入力します。そして、「NvidiaのAI支配について10分のYouTube動画のための6から8のH2セクションを含む詳細なアウトラインを作成してください」というようなプロンプトを与えることができます。
#ヘッダーでラベルを付けて、各セクションに3から5の箇条書きを入れてください。あらゆる大規模言語モデルと同様、より多くのコンテキストを与えることができれば、より良い出力が得られるので、追加の詳細を与えたいだけです。これを送信すると、理論的には私が書くであろう方法に似た台本を書いてくれるはずです。
そしてまさにここでそれを実現しました。しかし、ファインチューニングされたモデルを使わなかった場合、どのように見えたかを比較することもできます。ここで比較に移動し、右側のこの2番目のモデルをLlama 3.3 70B Instructに切り替えましょう。これは先ほどファインチューニングした同じモデルです。
左側のチャットをクリアして、プロンプトを与えます。NvidiaがAIでこれほど支配的である理由をまとめた動画のアウトロと締めくくりを書いてください。それでは、これを与えて、アウトロを書いてもらいましょう。そして、そのアウトロの書き方について並べて比較を見ることができます。
ファインチューニングされていないモデルの方がフォーマットで少し良い仕事をしましたが、実際にはそれは理にかなっています。なぜなら、私はYouTube動画からの大量のトランスクリプトを与えたからです。YouTube動画のトランスクリプトを見たことがあれば、通常フォーマットや句読点があまりないことがわかります。だから、それに過剰適合してしまったのです。
しかし、通常のLlamaの応答を見ると、「AIランドスケープにおけるNvidiaの支配についての説明を締めくくるにあたり、彼らの成功は戦略的イノベーション、先見的な投資、技術的進歩への飽くなき追求の組み合わせに起因していることは明らかです」となっています。
そして、私のように聞こえるように訓練されたバージョンです。「さて、以上です。これがNvidiaが現在AIでこれほど支配的である理由です。彼らはこの瞬間のために10年以上準備してきました。彼らはAIモデルを訓練するために必要なハードウェアのリーダーです。彼らはAI推論を実行するために必要なハードウェアのリーダーです」
そして、彼らは自分たちのAIモデルさえ構築しています。全文は読みませんが、私が昔動画で使っていた行動喚起の一部で訓練されています。私の動画をたくさん見ている方なら、これが私らしく読めることがわかるでしょう。この動画が役に立ったことを願っています。Nvidiaのエコシステム全体と、なぜみんながNvidiaについてこれほど大騒ぎしているのかについて、より理解が深まったことを願っています。
ここでは、「こういうものが好きで、AI世界の最新情報やAIツールについて知り続けたい、AIの世界で起こっているすべてのことのTL;DRを入手したいなら、futuretools.ioをチェックしてください。ご視聴いただき本当にありがとうございます。本当に感謝しています。そして、この動画のスポンサーであるWiretockに改めて感謝します」とまで続いています。
次の動画でお会いしましょう。バイバイ。面白いのは、Wiretockは2年くらい前からチャンネルのスポンサーではないのですが、それが訓練データに含まれているのです。だから、私が書いたであろう出力を書いたわけです。もちろん、フォーマットはひどいですが、それは私がデータを訓練した方法のせいです。
データをクリーンアップしませんでした。単にフォーマットされていないトランスクリプトを与えたので、フォーマットされていないトランスクリプトを返してくるのです。ゴミを入れればゴミが出る。
YouTubeトランスクリプトの訓練プロセス
それでは簡単に、どのようにしてそれを訓練したかを説明し、その後ゼロから新しい訓練を始めましょう。downloadyoutubetranscripts.comというランダムなウェブサイトを見つけました。かなり急いで作られたように見えますが、7ドルで、私のYouTubeチャンネルからすべてのトランスクリプトをワンクリックでダウンロードできました。
それはすべてのトランスクリプトを1つの巨大なテキストファイルとしてエクスポートしました。個別のテキストファイルとしてエクスポートすることもできますが、私たちの使用例では、すべてを1つの巨大なテキストファイルに入れたかったのです。その後、生成された巨大なテキストファイルを取り、ChatGPTに直接アップロードし、このプロンプトを与えました。
全文は読みませんが、一時停止して正確なプロンプトを確認してください。しかしアイデアは、この巨大なトランスクリプト文書が訓練データとして使用するために適切にフォーマットされていなかったということです。JSONL ファイルである必要があり、ユーザー入力と期待される出力を示すように特定の方法でフォーマットされる必要があるため、モデルがこの入力にはこの出力が適切だと訓練できるようにします。
そのために、ChatGPTにやってもらいました。Nebiusが要求する適切なJSONL形式で文書全体をフォーマットするよう依頼しました。最後に2つのファイルを与えてほしいと。10%を保留した訓練データセットと、追加の10%のプロンプトとトランスクリプトを含む検証セットです。これについては、ここで独自バージョンを作るときに説明します。
しかし要するに、この全トランスクリプトテキストファイルを与え、それをJSONL ファイルに変換し、Nebiusが好む方法でフォーマットするよう指示したのです。これには14分半かかりましたが、ご覧のとおり、ダウンロードする2つのファイルを与えてくれました。訓練JSONLファイルと検証JSONLファイルです。
そしてNebiusのファインチューニングに行き、ジョブを作成し、ここに訓練データセットをアップロードし、ここに検証データセットをアップロードして、訓練モデルを実行しました。必要に応じて、ここで直接ウェイトをダウンロードすることもできます。ここでエポック11のファイルをダウンロードすれば、これが最も進んだバージョン、最も訓練されたバージョンのモデルになります。
必要なファイルをダウンロードして、LM StudioやOllamaのようなツールでオフラインで使用することもできます。
さて、それが何ができるかをお見せし、YouTubeのものを取得するために何をしたかを見せることで、おそらく混乱させてしまいました。それでは今度は、段階的に一緒にやることで混乱を解消しましょう。
Twitterデータでのファインチューニング実践
次の例では、私がこれまでに書いたすべてのツイートで訓練したいと思います。任意のトピックについて私のスタイルでツイートを書くように依頼し、私がこれまでに書いた他のすべてのツイートと同じように読めるツイートを書いてもらいたいのです。
動画に戻る前に、YouTubeで実際にお金を稼ぐ方法をお見せしたいと思います。私はYouTubeチャンネルをビジネスのように運営しています。なぜなら、まあ、それが私のフルタイムの仕事だからです。Econ 101から何か学んだとすれば、それはビジネスには収益が必要だということです。
私はすべてのブランドパートナーシップ、イベント、ニュースレター投稿を管理しています。基本的に、このYouTubeカーを動かすエンジンをすべてNotionで管理しています。画面上の多くのものをぼかす必要がありますが、それはブランドが私に信頼してくれたかなり機密性の高い情報にアクセスできるからです。
しかし、Notionを使っていることをお見せしたかっただけです。Notionはプラットフォーム内にAIエージェントをリリースしたばかりで、プロジェクトやビジネスの運営がずっと簡単になります。他の多くのAIツールのようにチャットしたり提案したりするだけでなく、Notionのエージェントはエンドツーエンドでマルチステップのタスクを実際に完了できます。
たとえば、「過去3回の会議メモをチェックリストにまとめて、月曜日にリマインダーを送ってください」と言うことができます。そうすると、自動化の設定方法を学んだり、新しいボードを作成したりすることなく、Notion内で全体の操作を作成してくれます。Notionはプロジェクト全体を設定するのがずっと簡単になっただけでなく、進行中のタスクや優先事項を管理するのも簡単になりました。
これはすべてAIで動いているので、Notionのエージェントはあなたのスタイルを学習し、あなたの好みを覚え、独自の名前や個性でカスタマイズすることさえできます。私のはスティーブと呼ぶことにします。
コンテンツ制作からビジネス管理、あるいはその中間のどんなことに取り組んでいても、Notionはセットアップして、スムーズに稼働し続けるのを手伝ってくれます。説明欄のリンクから試してみて、Notionエージェントにあなたの仕事をやってもらいましょう。そして今日の動画のこの部分をスポンサーしてくれたNotionに本当に感謝します。
Twitterデータのダウンロード
それでは、ステップ1として、すべてのTwitterまたはXデータをダウンロードする必要があります。Xアカウントにログインしている状態で、「もっと見る」に移動し、「設定とプライバシー」をクリックすると、「あなたのアカウント」の下に「データのアーカイブをダウンロード」というオプションがあります。それを選択します。
パスワードを求められ、ここにアーカイブをダウンロードするボタンがあります。奇妙な理由でXがこれを行うのかわかりませんが、実際にダウンロードできるようになるまで24時間待つ必要があります。今ダウンロードボタンを押すと、24時間後に受信トレイにダウンロードの準備ができたというメールが届きます。
ばかげています。なぜそのようにするのかわかりませんが、すぐにデータを取得することはできません。処理に24時間必要なのです。幸いなことに、私は24時間前にこのボタンをクリックしていたので、アーカイブをダウンロードにクリックできます。そして生成されたことがわかり、ここでアーカイブをダウンロードできます。
大きいです。13ギガバイトですが、そこからツイートデータだけを取り出します。これが今ダウンロードしたzipファイルです。すぐに解凍します。解凍すると2つのフォルダーができます。ここでデータフォルダーに入ると、tweets.jsというファイルがあります。
ご覧のとおり、基本的にここで2番目に大きいファイルです。これをテキストエディタで開くと、実際にこれがすべての私のツイートであることがわかります。これは実際にリツイートを示しています、私のAIニュース総括です。今のところ、取り込まれたデータは最初の140から280文字だけを取り込んでいるようです。
長いツイートをした場合、全文は取り込んでいません。これは残念ですが、うまくいけば訓練に使用するのに十分近いデータです。このtweets.jsファイルをここに取ります。そして、見つけやすいようにこのフォルダーに移動します。ChatGPT内で新しいチャットを作成します。
そして、これが私が与えるプロンプトです。「添付されているのは、JSファイル内の私のXアカウントからのすべてのツイートです。これをファインチューニングモデルのための適切なJSONL形式に変換するスクリプトを作成してください。ツイートを見て、そのツイートを生成したであろうプロンプトを考えてください」
たとえば、「Matt Wolfのスタイルでperplexity Comet browserについてのツイートを作成する」というように。そして、文書全体をNebiusが要求する適切なJSONL形式にフォーマットする必要があります。最後に2つのファイルを与えてください。10%を保留した訓練データセットJSONLと、追加の10%のプロンプトを含む検証セット。
実際、これをツイートに変更する必要があります。これが私が与えるプロンプトで、先ほど見たtweets.jsファイルと一緒です。これを送信すると、再び15分かかるかもしれませんが、それらのファイルを作成し、すぐにNebiusにアップロードする準備をしてくれます。
なぜ訓練データセットが90%で、検証データセットが10%の2つのファイルに分割したのか疑問に思っているなら、基本的にモデルは私たちが与えた90%の訓練データセットで訓練され、その最後の10%はAIモデルが作業をダブルチェックするためのようなものです。
基本的に、モデルに検証データに類似した出力がある入力を与えた場合、モデルは検証モデルのように近い結果を得られるでしょうか?ここで明確に説明できているかわかりませんが、基本的には90%で訓練し、10%は作業をダブルチェックして、検証データセットにあるものと近い応答が得られるかどうかを確認するためのものです。
うまく理解できたでしょうか。そして今回は、何らかの理由で1分半しかかかりませんでした。やった。しかしご覧のとおり、ここでいくつかのファイルを与えてくれました。訓練JSONLファイルと検証JSONLファイルです。両方をダウンロードしましょう。
ChatGPTが私たちのためにちょうど何をしたかを実際に見ることができます。tweets.jsエクスポートを読み取り、ツイートを解析し、リツイートと小さなジャンクツイートをフィルタリングし、あなたのスタイルで各ツイートの合成プロンプトを生成し、80%の訓練、10%の検証、10%の保留に分割します。
私がやろうとしていたことを少し誤解しているようです。私は90対10が欲しかったのであって、80対10対10ではありませんが、これでもうまくいくはずです。それほど影響はないでしょう。そして、インストラクションスタイルのNebius JSONLを書きました。
今生成されたファイルを見てみましょう。これをテキストエディタで開いてみます。ここにクリーンアップされたファイルがあります。JSONLファイルを見ると、すべてのツイートについて作成されたプロンプトとコンプリーションがあります。
そしてすべて適切にフォーマットされています。ここでこのNebiusプラットフォームに向かうと、tokenfactory.nebius.comで見つけることができます。ここでファインチューニングをクリックすると、ここでモデルをファインチューニングできます。
これは無料ではありません。Nebiusを使用してファインチューニングを行うには、推論のためにいくらかお金がかかります。価格は、ファインチューニングするモデルと供給するデータ量に大きく依存します。しかし、これはNebiusにスポンサーされているわけではありません。文字通り、私が見つけたこのプロセスを行う最も簡単な方法です。
ファインチューニングページ内で、ジョブを作成をクリックします。訓練データセットの下で、MW tweets train JS JSONLファイルをアップロードします。検証データセットには、tweets-valをアップロードします。そして続行をクリックできます。
訓練タイプには、LoRAファインチューニングを選択します。これはより速く、より安く実行できます。モデルには、選択できるいくつかのオプションがありますが、Nebius内でモデルを直接使用できるようにするには、ワンクリックデプロイメントがあるこれらのモデルの1つをクリックする必要があります。
そうでなければ、ウェイトをダウンロードして、ローカルで実行するか、他のクラウドサービスで実行する必要があります。私はすべてを1つのプラットフォームに保持して簡単にしたいだけです。最初の例では、Llama 3.3 70DB instructを使用しました。
この特定の例では、ツイートを書いているので、長い台本ではなく小さなテキストセグメントなので、実際には8B instruct、より小さいモデルを使用します。ファインチューニングの基礎として使用するモデルを決めようとしている場合、これが役立つかもしれません。
これは8Bモデル、32Bモデル、70Bモデルの例です。これはデータセット内のパラメータ数です。モデルが大きいほど、ファインチューニングに費用がかかり、時間もかかります。モデルが小さいほど、ファインチューニングは速く安くなりますが、精度が少し失われ、長いコンテンツには適していません。
このデモで使用しているLlama 3 8B Instructは、ツイート、フック、イントロのようなものに最適です。スタイルの精度はかなり良いでしょうが、長形式の一貫性はありません。本当に長いプロンプトには苦労します。
本当に長い出力には苦労します。しかしご覧のとおり、訓練コストとデプロイメントコストは低いです。そして70Bモデルにジャンプすると、Quinn 32Bはスキップします。なぜならそれはすぐにデプロイ可能なモデルの1つではないからです。
これはドキュメンタリースタイルのストーリーテリングに優れています。小さいモデルを使用した場合よりも、スタイルの精度が向上します。あなたのスタイルにより密接に訓練されます。そして長形式の一貫性があります。入力でより長いプロンプトを与えることができ、より長い応答を出力できます。
ただし、訓練するのにより高価で、デプロイするのにより高価で、YouTube台本や非常に長いブログ投稿を行っていない限り、ほとんどの使用例には過剰です。
訓練の実行とコスト
とはいえ、ここでNebiusに戻りましょう。そして再び、ここで80億パラメータのLlama 3.1モデルに固執します。選択するモデルは価格に影響します。これは100万トークンあたり40セントしかかかりません。これを70Bに切り替えると、今度は100万トークンあたり2.80ドルになります。
だから、安くて速いものが欲しいのです。訓練タイプには、LoRAファインチューニングを使用しています。バッチサイズは8のままにしておきます。学習率の乗数には0.001を入力します。エポック数は11です。ウォームアップ比率003。重み減衰01。最大勾配ノルム1。そしてパッキングを有効にします。
これらが何をするかについて、あまり心配する必要はありません。エポック数は、訓練データを何回通過するかです。エポックの量が多いほど、おそらく出力は良くなります。しかし、収穫逓減の点があり、訓練を続けても続けても、良い出力が得られなくなる点まで過剰適合するだけです。
私のテストでは、11前後に設定するとうまくいくようです。これらの数字の残りは、どこかのブログ投稿で推奨されていたものを見ました。それらに固執してきましたが、うまく機能しています。LoRAランクには16を設定します。LoRAアルファ32。LoRAドロップアウト05。
そして、出力モデル名のサフィックスには、簡単に見つけられるようにMatt’s tweetsを設定します。ここで続行をクリックします。Weights and BiasesのAPIキーを求められます。使用していません。必要ありません。ジョブを作成をクリックします。
そして今、このジョブのステータスが実行中であることがわかります。このプロセスは、ファインチューニングしているモデル、訓練データの大きさ、およびその他のさまざまな要因に応じて、10分から4時間かかる可能性があります。設定したエポック数など、時間に影響を与える可能性のある要因はたくさんあります。
モデルのファインチューニングに45分かかったこともあります。5分かかったこともあります。繰り返しますが、多くの要因がタイミングに影響する可能性があります。
さて、そのモデルが実行を完了しました。午後5時19分にモデル訓練を開始し、午後5時26分に終了しました。したがって、そのモデルの訓練には約7分かかりました。デプロイとチェックポイントのダウンロードをクリックすると、ここで最強のウェイトをダウンロードして、好きな場所で使用できます。
そして、訓練損失が各新しいエポックで減少しているときに訓練が機能したことがわかります。ここで見ることができます。そして検証損失は各新しいエポックで増加しています。完璧です。
コストに関しては、100万トークンあたり40セントでそのモデルをファインチューニングするのに、私に2.56ドルかかりました。私はたくさんのツイートを持っています。6,43トークンを供給しました。しかし比較のために、Llama 70DBでYouTube動画を訓練したとき、75ドルかかりました。
何ですって?70Bを使用していたため、100万トークンあたり2.80ドルかかり、約2700万トークンを供給したからです。YouTube動画でファインチューニングするのは少し高価でしたが、繰り返しますが、あなたのように聞こえるモデルが欲しいなら、これは一回限りのコストです。
Twitterモデルのテスト
それでは、Twitterモデルをテストしてみましょう。ファインチューニングページに戻ります。ここでデプロイとチェックポイントのダウンロードをクリックします。そしてここでエポック11の下で、このモデルをデプロイします。これはAllora adapterに最適に訓練されたモデルになります。
これをMW tweetsと呼びます。そして、Matt Wolfのツイートで訓練されたと言います。デプロイ開始をクリックします。そして、このモデルの推論サーバーを起動します。デプロイが開始されました。カスタムモデルに移動しましょう。
ここでマイモデルエンドポイントの下で、元のLlama 3.3 70Bモデルとここで新しいモデルがあります。これは3.1 8Bです。そして、その上でMW Tweets LoRAを実行していることがわかります。まだデプロイ中ですが、使用するのに基本的にコストがかからないことがわかります。
デプロイされたら、プレイグラウンドに移動をクリックできます。さて、プレイグラウンドに入り、モデルを読み込むと、Matt WolfのスタイルでAIとVRが大きな形で交差しようとしていることについてのツイートを書くように依頼できます。ツイートは少なくとも240文字である必要があります。
そして、これが私のために書いたツイートです。「AIとVRが大きな形で交差しようとしています。CESから戻ってきたばかりですが、ショーフロアにはたくさんのヘッドトラッキングVRデバイスがありました。MetaはVRヘッドトラッキング技術のフェアシェアをオープンソース化したばかりです。今後数ヶ月で新しいVRヘッドセットのラッシュが見られます」
つまり、私のように書き、私がCESに行ったことを訓練データから得ました。少なくとも訓練データから得たと思います。では、通常のモデルを使っただけの場合と比較してみましょう。ここで比較ボタンをクリックして、ここで上のモデルを別のモデルに変更できます。
残念ながら、テストしてきたMeta Llama 3.1 8B instructモデルは、Nebiusで動作していません。このモデルを使用すると、同じプロンプトを与えます。モデルレスポンスの取得に失敗したと表示されます。
Nebiusのllama 3.1 8Bへの接続に何か問題があります。しかし、3.3 70DBに切り替えると、より大きなモデル、訓練セットにより多くのパラメータがありますが、完全にリンゴ対リンゴではありませんが、それでも私のバージョンの方が優れていると思います。
ここで同じプロンプトを与えると、このモデルが動作していることがわかります。そして、これが通常のファインチューニングされていないモデルが書いたツイートです。「警鐘を鳴らします。AIとVRは衝突コースにあり、すべてを変えようとしています。リアルタイムでフォトリアリスティックな世界を生成するニューラルネットワーク、あなたのスキルに適応する適応難易度、あなたの行動を学習するアバターを想像してください」
没入型技術の未来は急速に到来しています。#AI #VR。私はTwitterでハッシュタグを使うことはほとんどありません。だから、このファインチューニングされたモデルの私のツイートには、ハッシュタグが含まれる必要はありません。
しかし、何らかの理由で、AIはツイートだと思うものにハッシュタグを投げ込むのが好きです。これも私らしく読めず、私が書いたであろうツイートには見えません。では、両方のチャットを再びクリアしましょう。
タコスが史上最高の食べ物である理由について、Matt Wolfのスタイルでツイートを書いてください。少なくとも240文字である必要があります。これを両方のモデルに与えましょう。私のファインチューニングされたモデルと、Llama 70DB モデル。
私は単純なツイートを書きました。「なぜタコスは史上最高の食べ物なのか?」私が書きそうなものです。一方、70B instructは、「タコスは、皆さん、料理の完璧さの極致です。テクスチャ、フレーバー、温度のハーモニーのとれた結合がすべて繊細でサクサクしたシェルに収束します。フレッシュレタスのクランチ、サルサのタング、カルネアサダの豊かさ。美食のシンフォニーです。#tacosforlife」
正直なところ、これらのツイートの1つは、私が書いたであろうツイートのように見えます。さて、実際に録画していないときにやったので、スキップした簡単な落とし穴が1つあります。しかし、私はツイートを書くように依頼していました。そして、書いたすべてのツイートに実際には返信が含まれていました。
すべてがRowan Chung、Matthew Berman、Robert Scobleのようなもので始まりました。誰かをタグ付けするように始まりました。明らかに、私が書くすべてのツイートで他の人をタグ付けすることは望んでいませんでした。そして起こったことは、Nebiusが受け入れられる適切なJSONLを使用してすべてのツイートを書き直すようChatGPTに依頼したとき、すべてのツイートをスクレイプしましたが、他の人のツイートへのすべての返信もスクレイプしました。
そして、私は自分自身のツイートよりも他の人のツイートへの返信の方がはるかに多く持っています。だから、Twitterで他の人に返信することに間違いなく過剰適合しました。そのため、生成されるすべてのツイートが誰かをタグ付けするようなものでした。
そこで私がしたことは、ChatGPTに行き、Jason Lに再フォーマットするよう依頼した同じプロンプトを再度実行しましたが、今回は返信を削除し、私がメインタイムラインに書いたツイートのみをデータセットに追加するように言いました。
それをクリーンアップし、今では常にすべての人に返信しようとしないファインチューニングされたデータセットができました。
まとめと今後の展望
これで完了です。これが、私が見つけた最も簡単な方法でモデルをファインチューニングする方法です。RAGのような方法であなたのように話させることができると主張する人もいるかもしれません。しかし、それはしばしば事実ではありません。
RAGを使用していくつかの例を与え、このように書いてくださいと言うことはできます。しかし、AIモデルは依然として書きたいように書くでしょう。しかし、ブログ投稿を書いたり、YouTube動画を作成したり、ソーシャルメディアに頻繁に投稿したり、出力があなたの声やブランドの文体を知る必要があるマーケティング形式を行う必要がある場合、ファインチューニングは良い選択肢かもしれません。
明らかに、ChatGPTを起動するよりも少し技術的です。しかし、AIのパワーユーザーがどのようにしてこれらのモデルの一部を使用して、AIなしで作成するものとほとんど区別がつかないコンテンツを作成しているかを知りたい場合、それがファインチューニングが彼らのために行っていることです。
最終的には、ChatGPTやClaude、Gemini、そしてそれらすべてのプラットフォームが、ファインチューニングを組み込んで、これらのモデルをあなたのように聞こえさせるのがはるかに簡単になると確信しています。しかし、今のところ2025年では、これが私が遭遇した最もシンプルなプロセスです。
さらに簡単な方法が登場し、AIをあなたのように聞こえさせるのが超簡単になれば、おそらく別の動画を作成し、さらに簡単な方法でそれを行う方法を更新するでしょう。しかし、今のところ、これが私たちが持っているものです。
これが役に立ち、ファインチューニングとAIモデルの声を調整する方法について少しでも理解が深まったことを願っています。最新のAIニュースをフォローし、最新のツールすべてをテストすることを私のフルタイムの仕事にしています。
最新の進歩について知り続けたい、そして実際に技術を使用する方法についての詳細なチュートリアルを入手したい場合は、必ずこの動画に「いいね」をして、このチャンネルを購読してください。そうすれば、このような動画がYouTubeフィードに表示され続けるようにします。
この動画で一緒にオタクになってくれてありがとうございました。本当に感謝しています。次の動画でお会いできることを願っています。バイバイ。
今日一緒にオタクになってくれて本当にありがとうございました。このような動画が好きなら、必ず親指を立ててこのチャンネルを購読してください。このような動画がYouTubeフィードに表示され続けるようにします。
まだチェックしていない方は、futuretools.ioをチェックしてください。そこでは、すべての最高にクールなAIツールと最新のAIニュースを共有しています。そして素晴らしい無料のニュースレターがあります。改めてありがとうございました。本当に感謝しています。


コメント