Foundation Oneは音楽制作に特化した無料のオープンソースAIモデルである。テンポ、キー、小節数を正確に制御しながら、個別のステムを生成して手動でミックス・マスタリングできる点が特徴だ。低VRAMでも高速動作し、シンセサイザーを中心に幅広い楽器に対応する。リバーブやディレイなどのエフェクト指定、アルペジオやメロディといった音楽記譜の理解、さらにスタイル転送機能も搭載している。RTX 3090では1サンプルあたり7〜8秒という驚異的な生成速度を実現し、MIDIファイルのエクスポートにも対応している。

音楽制作に特化した革新的なAIツール
ついに、音楽制作に使える無料でオープンソースのAIが登場しました。これはかなり優秀なツールです。このAIを使えば、実際に組み合わせられる個別のステムを作成できるので、手動でミックスやマスタリングをして完全な楽曲を作ることができます。そして何より素晴らしいのは、低VRAMでも動作するということです。さらに、このツールは驚くほど高速なんです。
この動画では、本当にクールなデモをいくつかお見せします。もちろん、このツールを無料で何度でもオフラインで実行できるように、インストール方法も詳しく解説していきます。それでは早速始めましょう。
Foundation Oneの基本機能
このモデルはFoundation Oneと呼ばれています。本当に素晴らしいのは、指定したテンポ、キー、小節数に実際に従ってくれるという点です。さらに、プロンプトに書かれた楽器、音色、エフェクト、記譜法を理解するように訓練されています。
Foundation Oneができることについて、もう少し詳しく説明しましょう。このツールは、プロダクションワークフローのために音楽的に一貫性のあるループを生成できます。先ほど述べたように、BPMと小節数を理解し、メジャーキーとマイナーキーも理解します。また、プロンプトにリバーブ、ディレイ、ディストーション、モジュレーションといった多くの異なるエフェクトを理解することもできます。
プロンプト内でウェットまたはドライを指定することもでき、それを理解してくれます。とにかく、デモに直接入っていきましょう。
実際のデモ例を見てみよう
こちらがプロンプトです。ミディアムディレイ、ミディアムリバーブ、ローディストーション、フェイザー、サブベース、アッパーミッド、アシッド、グリッティ、ワイド、ダブステップなどを使ったベースになります。さらに、140BPMのEマイナーキーで8小節です。
どんな音になるか聴いてみましょう。確かにベースとミッドが入っています。フェイザーエフェクトもあります。それに、ミディアムディレイとリバーブもあります。そして、アシッドでグリッティな感じがします。そして、これが確かに140BPMのEマイナーキーで8小節であることを確認しました。
こちらは別の例です。もう一つのベーストラックです。サブベース、ベース、グリッティ、スモール、スクエアになります。シンセの形状まで定義できるんです。それからダーク、デジタル、シックなどなど。エピックでチョッピーなメロディ、150BPMのG#マイナーキーで4小節です。
そして確かに、これはスクエア形状のように聞こえます。かなりスモールです。それにクリーンでシンプルです。
フルートとシンセリードの例
こちらはフルートの例です。フルートで、ピチカート、パンチー、プレゼント、アンビエントなどなど。そしてこちらはハイソウのスペーシーなリード、ウォーム、シルキースムーズなどです。ピッチベンドも追加します。さらに、これらの設定でアルペジオになります。
このシンセリードがどんな音か聴いてみましょう。これは本当に美しい音です。アッパーミッドがあります。これは確かにハイソウのように聞こえます。それに、本当に明らかなピッチベンドが聞こえます。そしてこれはアルペジオです。トラックに乗せる美しいシンセリードのように聞こえます。
次はトランペットの例です。悪くないですね。それからピッコロの例です。これもかなり良いです。このトラックにはフルートとミュージックボックスの要素が聞こえました。
次はフィドルボウストリングスの例です。どんな音か聴いてみましょう。これも悪くないですね。本物のストリングオーケストラのようには聞こえませんが、トラックの背景に重ねるサンプルとしては十分使えます。
そしてこちらはカリンバ、マレット、ミディアムリバーブなどです。どんな音か聴いてみましょう。本当にクールです。
DAWで実際の楽曲を制作
これらが公式の例です。次に、私が実際にいくつかのサンプルを生成して、それらのサンプルをレイヤー化してDAWで完全な楽曲を作る方法をお見せします。
こちらがインターフェースです。心配しないでください。動画の後半で、コンピュータで無料でオフラインで実行できるように、正確なインストール方法とセットアップ方法をお見せします。
こちらがプロンプトを入力する場所です。最初のプロンプトとして、ハイソウ、スペーシー、リード、ウォーム、シルキースムーズなどなど、ピッチベンド、アルペジオといった感じでやってみましょう。これらすべての異なるキーワードを実際に理解できることに注目してください。
そしてこちらで8小節を選択します。BPMは120にしましょう。キーはGメジャーに設定します。このモデルがこれらすべての設定に従ったものを生成できることに注目してください。とにかく、生成を押してみましょう。
私は16GBのVRAMを持つRTX 5000 ADAを使っていることに注意してください。1つのオーディオトラックを生成するのに約15秒しかかからないことがわかります。すべてがローカルでオフラインであることを考えると、これは信じられないほど高速です。
こちらが結果です。まず再生してみましょう。悪くないですね。次にやることは、このファイルをダウンロードしてDAWにドラッグアンドドロップすることです。ここにドロップしましょう。そしてBPMが120に設定されていることも確認しましょう。これをシンセのようなものと呼びましょう。これが最初のトラックです。
それ自体では大したことはありませんが、これにもっと追加していきましょう。別のトラックを生成しましょう。今度は、ファスト、ローズ、ピアノ、ダンス、アップビート、エナジェティック、ピンポン、ワイドです。すべての設定を同じままにして、前のトラックとうまくブレンドできるようにします。生成を押しましょう。
これもまた超高速です。オーディオクリップを生成するのに約15秒しかかかりません。こちらが結果です。悪くないですね。これをダウンロードして、DAWの別のトラックとしてドラッグアンドドロップします。
両方のトラックを一緒に再生すると、こんな感じになります。確かに、それなりにフィットしています。同じキーで同じBPMです。もちろん、このようにただレイヤー化するだけではありません。後でもう少しうまくミックスしてマスタリングします。
さらにトラックを追加
でも次に、もう一つトラックを生成しましょう。今度は、スペーシー、フューチャリスティック、カワイイ、リード、ウォーム、シルキースムーズなどにしてみましょう。どうなるか見てみましょう。
結果がこちらです。素敵なリバーブを伴った、かなり素晴らしいアルペジオが聞こえます。これをダウンロードしましょう。そしてまた、このようにDAWにドラッグアンドドロップします。これで3つのトラックができました。
本当にクールなことに、生成されたオーディオのMIDIファイルもダウンロードできるんです。これは基本的にこのオーディオクリップの音符で、後で別の楽器をプラグインしてこれらの音符を演奏させることができます。
このMIDIファイルをダウンロードして、DAWに戻りましょう。まず新しい楽器を作成します。このチャイムズの仮想楽器を使います。参考までに、こんな音です。
今やることは、ダウンロードしたMIDIファイルを取ってここにドラッグすることです。このトラックだけをソロにすると、この音を演奏しますが、チャイムズ楽器を使います。どんな音になるか聴いてみましょう。
完璧ではありませんが、元のメロディにかなり近いです。今、すべてのトラックにミッドが多すぎます。実際にやることは、すべてを選択して1オクターブ上に移動することです。もう一度再生してみましょう。完璧です。
これまでに、このAIで生成された4つのトラックができました。次に、スタッカートストリングスも曲に追加したい気がします。プロンプトには、フィドル、ストリングス、スタッカート、ショート、パワフル、エピックなどなどを試してみましょう。
こちらが結果です。悪くないですね。次に、このトラックもダウンロードして、DAWにドラッグアンドドロップしましょう。
今、これら5つのトラックすべてがあります。まず全部を再生してみましょう。これはかなりノイジーで濁って聞こえますが、後でクリーンアップします。
こんな感じです。今やることは、手動でベースとドラムも追加することです。なぜなら、このAIでは、パーカッションとドラムサウンドは範囲外だからです。
ベースとドラムを追加して、特定のものを並べ替えて、左右にパンしてより良くミックスします。とりあえずこんな感じです。3分くらいで作った本当にシンプルな曲です。最初から最後まで聴いてみてください。
ChatLLMの紹介
特別派手なものではありませんが、このAIを使えば、同じBPMとキーに合わせた複数のサンプルを作成して、それらを自分でミックス・マスタリングして完全な楽曲を作ることができるとわかります。
MIDIファイルもダウンロードできるので、音符の情報だけを取得して、必要に応じて別の仮想楽器でこれらの音符を演奏させることもできます。既存のトラックを取って、それを参照として使用して新しいトラックを生成することもできます。これについては動画の後半でお見せします。全体的に超柔軟なツールです。
私のチャンネルでは非常に多くの異なるAIモデルやツールを紹介してきたので、圧倒されてしまうかもしれません。これらすべてのモデルを1つのプラットフォームで使えたらどうでしょうか。そこで登場するのが、この動画のスポンサーであるAbacus AIのChatLLMです。
ChatLLMは、最高のAIモデルを使うためのオールインワンプラットフォームです。チャット内で異なるモデル間をシームレスに切り替えることができます。さらに、トップの画像ジェネレーターやトップのビデオモデルもすべて1つの統合プラットフォームで使えます。そして、モデルがリリースされると、通常非常に迅速にサイトに追加されます。
さらに、何かコーディングしている場合は、生成をサイドバイサイドでプレビューできる本当に便利なアーティファクト機能があります。そして、パワーポイント、ウェブサイト、リサーチレポートの作成など、本当に複雑なタスクをすべて自律的に実行できるディープエージェント機能があります。生産性を大幅に向上させます。
何より素晴らしいのは、これらすべてのAIモデルと画像・ビデオジェネレーター、そしてディープエージェントに月額わずか10ドルでアクセスできることです。これは、各ツールに個別に支払うよりもはるかに安いです。下の説明欄にあるディープエージェント付きのChatLLMをぜひチェックしてみてください。
Foundation Oneの詳細仕様
インストール方法を説明する前に、このメインページにあるこのモデルの追加仕様についても説明しましょう。説明欄にリンクを貼っておきます。これには、Foundation Oneが訓練されたすべての楽器が含まれています。
私の例から聞いたように、特にシンセが得意です。キーボード、ベース、ボウストリングス、マレット、ウィンド、ギター、ブラス、ボーカル、プラックストリングスなどもできます。これらが主な楽器のカテゴリーです。
さらに細かく分類すると、これらすべてが含まれます。異なるタイプのシンセが含まれています。デジタルピアノやプラック、グランドピアノ、ベル、パッド、アトモスフィア、デジタルストリングス、バイオリンなどもできます。ここにはローズピアノ、チェロ、フルート、マリンバ、トランペット、パンフルート、クワイア、ハープ、チャーチオルガン、アコースティックギターなどがあります。これらがサポートされているすべての楽器です。
リストに楽器が載っていない場合、良いサンプルを生成できない可能性が高いです。参考までに、訓練データからの楽器の内訳がこちらです。ほとんどがシンセリードとシンセベースであることがわかります。だからシンセサンプルの生成が本当に得意なんです。
そして、サンプルの音色もコントロールできます。ウォーム、ブライト、ワイド、エアリー、シック、リッチなどなど、サンプルをさらに形作るために使用できる多くの異なるキーワードがあります。
そして先ほどお見せしたように、サンプルに追加のエフェクトを追加することもできます。例えば、リバーブやディレイ、ディストーション、フェイザー、ビットクラッシュをコントロールできます。
そして、サンプルの音楽記譜や構造もコントロールできます。例えば、コード進行やメロディ、アルペジオなどにすることができます。これらすべてが、音楽構造をさらにコントロールするためにプロンプトに追加できるキーワードです。
そして先ほど言ったように、指定した小節の長さとBPMにも従います。ただし、現在これらのBPMでのみ機能することに注意してください。これより速くしたり遅くしたりすることはできません。
こちらが推奨されるプロンプト構造です。楽器ファミリーを追加して、次に特定の楽器を追加します。そして、ウォーム、スムーズなどの音色タグを追加したい場合は追加します。そして、メロディやアルペジオなどの記譜法を追加します。そして、リバーブ、ディレイなどのエフェクトを追加します。それでほぼ完成です。
インストール手順の解説
次に、これをインストールする方法について説明しましょう。このメインページへのリンクを説明欄に貼っておきます。一番下までスクロールすると、インストール手順があります。
まず、これは一般的なGPUで非常に高速に実行できるように設計されていることに注意してください。通常のVRAM使用量は約9GBです。これを実行するには少なくとも8GBのVRAMが必要です。それが最小要件です。
これはオープンソースなので、人気が出れば、より低いVRAMに適合するより多くの量子化バージョンもあるかもしれません。しかし、公式バージョンには8GBのVRAMが必要であることに注意してください。
これは驚くほど高速です。RTX 3090では、サンプルあたり7〜8秒しかかからないと言っています。ここでは、このstable audioフォークを使用することを推奨しています。まずこれをダウンロードする必要があります。このリンクをクリックします。説明欄にもリンクを貼っておきます。
これはRC stable audio toolsと呼ばれています。インターフェースは本当にシンプルで、こちらが手順です。本当に簡単に説明しましょう。
最初の行については、まずコンピュータにGitがインストールされている必要があります。Gitがインストールされていない場合は、インストール方法をお教えします。すでにGitがインストールされている場合は、次のセクションまでスキップしてください。
Gitのインストール方法
このページへのリンクを説明欄に貼っておきます。使用しているオペレーティングシステムに応じてリリースを選択するだけです。私はWindowsを使用しているので、Windowsのダウンロードをクリックします。
64ビットを実行しているので、これをクリックしてダウンロードします。これで.exeファイルがダウンロードされます。完了したら、その.exeファイルを開いて手順に従うだけです。
次へをクリックします。デフォルトのインストール場所、つまりプログラムファイル/gitで行きます。次へをクリックします。デフォルトのままにします。そして次へをもう一度クリックします。次へをクリックします。これらすべてにデフォルト設定を使用します。
たくさんの設定があります。これらすべてについて次へをクリックします。そして、すべてのファイルをインストールするはずです。数分かかるかもしれません。完璧です。これでGitがインストールされました。
リポジトリのクローン作成
Gitがインストールされていると仮定して、次のステップは、コンピュータのどこにこれをダウンロードするかを選択することです。私の場合、デスクトップにダウンロードします。デスクトップフォルダの上部に、cmdと入力してデスクトップをコマンドプロンプトで開きます。
その後、この行をコピーして、gitを使用してこのリポジトリをクローンするだけです。エンターを押します。これで、これらすべてのファイルとフォルダをデスクトップのフォルダにクローンします。
完了すると、デスクトップにこの新しいフォルダが表示されるはずです。これを開くと、GitHubリポジトリからのすべてのファイルとフォルダが含まれています。
今、コマンドプロンプトターミナルでは、デスクトップフォルダ内にいます。ダウンロードしたばかりのこの新しいRC stable audio toolsフォルダにディレクトリを変更する必要があります。
この行をコピーして、ここに貼り付けます。今、ダウンロードしたばかりのこの新しいフォルダ内にいることがわかります。
仮想環境の作成
次のステップは仮想環境を作成することです。コンピュータにPythonをダウンロードして、この方法で仮想環境を作成することもできます。しかし、代わりにCondaを使用して仮想環境を作成することを強くお勧めします。
Condaを使用すると、指定したPythonバージョンを使用して仮想環境を作成できます。これは特に他のAIツールをコンピュータにダウンロードするときに、多くの頭痛を節約します。
Condaがインストールされていない場合は、インストール方法をお教えします。すでにCondaがインストールされている場合は、次のセクションまでスキップしてください。
Minicondaのインストール
Anacondaは、データサイエンスと機械学習のための多くの異なるPythonライブラリをインストールするパッケージです。しかし、Anacondaはかなり大きいので、サイズが数ギガバイトになります。
代わりにMinicondaをインストールすることをお勧めします。これはAnacondaの最小限のパッケージで、必須のパッケージのみをインストールします。後で必要に応じて追加のパッケージをいつでもインストールできます。これにより多くのスペースが節約され、インストールも高速です。
Minicondaインストーラーページへのリンクを説明欄に貼っておきます。下にスクロールすると、このリンク、anaconda.com/downloadをクリックするだけです。まず無料でサインアップする必要がありますが、その後、このminicondaインストーラーをダウンロードできます。
これをクリックして、どこにでも保存できます。.exeをダウンロードした後、これを開いてこのインストーラーを起動します。次へをクリックして、同意します。そして、これをすべてのユーザーに設定しましょう。
デフォルトの宛先フォルダで行きます。そして、これもチェックします。完了時にパッケージキャッシュをクリアします。これにより、機能に影響を与えることなく、さらにディスクスペースを取り戻すことができます。
完了したら、次へをクリックして、完了です。まだ終わっていません。コマンドプロンプトを開いてconda –versionと入力しても、condaが認識されないと表示されます。これは、まだAnacondaをパスに追加していないためです。
これを終了しましょう。パスに追加するには、この機能、システム環境変数の編集を検索するだけです。これをクリックして、環境変数をクリックして、pathと書かれているものをクリックして、編集をクリックします。
ここがAnacondaのパスを追加する場所です。Anacondaをどこにインストールしたかによります。私の場合、プログラムデータにインストールしました。プログラムデータ/minicondaになります。
スクリプトをダブルクリックすると、conda.exeがここにあることがわかります。これが貼り付けたいフォルダです。これを右クリックして、パスとしてコピーします。環境変数ウィンドウに戻って、新規をクリックして、ここにパスを貼り付けます。そしてOKをクリックします。
そしてOK。そしてまたOK。今、コマンドプロンプトをもう一度開いてconda –versionと入力すると、コンピュータにインストールされているcondaのバージョンが表示されるはずです。これで、condaが正常にインストールされたことを示します。
Python仮想環境のセットアップ
Condaがインストールされていると仮定して、ここではPython 3.10を使用することが推奨されていることに注意してください。3.11以降のような新しいバージョンでは、依存関係の解決に失敗する可能性があるためです。
この新しいフォルダ内のターミナルに戻って、これを入力します。condaを使用してstable audioという名前の新しい仮想環境を作成し、Python 3.10を使用します。エンターを押します。
stable audioという名前のこの仮想環境を作成します。仮想環境を作成する目的は、これをコンピュータ上の別のハードドライブのように考えることができ、このツールを実行するために必要なすべてのパッケージと依存関係を格納することです。
異なる依存関係や異なるバージョンのPythonを使用する可能性のある既存のAIツールや他のものと競合しないように、別々にしたいのです。
とにかく、その後、エラーメッセージなしでこの行が再び表示されるはずです。次のステップは、condaを使用してstable audioという名前のこの新しい仮想環境をアクティブ化することです。
この行をコピーして、ここに貼り付けましょう。行の先頭に括弧内に仮想環境の名前stable audioが表示されるはずです。これは、仮想環境内にいることを示しています。
依存関係のインストール
次のステップは、pipを使用してstable audio toolsとすべての他の依存関係とパッケージをインストールすることです。今はこのステップをスキップして、まずこれを進めます。
CUDA GPUを持っている場合は、他の依存関係を進める前に、まずCUDAバージョンのTorchをインストールするのが最善です。最初にやることは、この行をコピーして、ここに貼り付けることです。
これはCUDA環境用にtorch、torchvision、torchaudioをインストールします。これは2GB以上のサイズなので、インターネットの速度によっては時間がかかります。
その後、エラーメッセージなしでこの行が再び表示されるはずです。これは、CUDA用のtorchを正常にインストールしたことを意味します。次のステップは、ここに戻って、これらの追加の依存関係をすべてインストールすることです。
この最初の行を選択して、ここに貼り付けます。これはstable audio toolsのインストールを進めますが、これもダウンロードに時間がかかります。その後、エラーメッセージなしでこの行が再び表示されるはずです。これは、stable audio toolsを正常にインストールしたことを意味します。
次のステップは、残りのパッケージもインストールすることです。この行をコピーして、ここに貼り付けましょう。そして再び、これは多くの依存関係のインストールを進めますが、時間がかかります。数分待ちましょう。
その後、この行が再び表示されるはずです。これは、RC Stable Audioを正常にインストールしたことを意味します。
インターフェースの起動方法
次に、翌日からこれを最初から起動する方法をお見せします。このターミナルを終了して、やるべきことは、この新しくダウンロードしたstable audio toolsフォルダをクリックして、上部にcmdと入力してコマンドプロンプトで開くだけです。
その後、conda activateと入力して、仮想環境に名前を付けたものを入力します。私たちの場合、stable-audioと名付けました。この行を入力した後、stable audio仮想環境内にいます。
次のステップは、この行をコピーして貼り付けるだけです。これはPythonを使用してこのrun_gradio.pyファイルを開き、基本的にインターフェースを起動します。これを入力して読み込みを待ちましょう。
その後、このリンクが表示されるはずです。Ctrlキーを押しながらこれをクリックすると、ウェブブラウザでこのインターフェースが開きます。
モデルのダウンロード
このインターフェースが表示された後、実際には最初にモデルをダウンロードするように促されます。はい、このFoundation 1モデルを選択します。ダウンロードをクリックすると、このモデルのダウンロードが進みます。
モデルは約2.4GBであることに注意してください。ダウンロードには数分かかります。その後、ダウンロード完了と表示されるはずです。
最初からこのインターフェースを再度起動する必要があります。これを終了して、これも終了しましょう。もう一度起動しましょう。stable audio toolsフォルダの上部にcmdと入力して、conda activate stable-audioと入力して仮想環境を開き、python run_gradio.pyと入力します。
Ctrlキーを押しながらこのリンクをクリックしましょう。モデルをダウンロードしたので、この新しいインターフェースが表示され、オーディオクリップの生成を開始できます。
インターフェースの使い方
仕組みを説明しましょう。すべての設定を説明します。ここが生成したいオーディオを説明するプロンプトを入力する場所です。そしてこちらが、オーディオを生成するために使用するモデルを選択する場所です。
私の場合、このFoundation 1モデルしかダウンロードしていないので、これを使用します。そしてこちらが、生成する小節数とビートパーミニット、使用するキーを指定する場所です。
そしてこちらがシードを設定する場所です。シードという用語に馴染みがない場合、これは基本的に生成の出発点のようなものです。まったく同じプロンプトとまったく同じ設定を使用しても、異なるシードを使用すると、わずかに異なるバリエーションが得られます。これは通常望ましいことです。
私の場合、これをマイナス1のままにしておくと、シードがランダムな値に設定されるので、毎回少し異なるバリエーションが得られます。
このサンプラーパラメータコンポーネントを展開すると、微調整できるいくつかの追加設定があります。ステップ数は、モデルがオーディオを生成するために必要なステップ数です。
一般的に、ステップが多いほど品質が高くなりますが、ある時点で収穫逓減が発生します。もちろん、ステップが多いほど生成に時間がかかります。逆に、これを低い数値に設定すると、生成は速くなりますが、品質が犠牲になります。
スイートスポットは75のようです。これをそのままにしておきましょう。そしてCFGは、AIがここのプロンプトにどれだけ文字通り従うかのようなものです。
これを高い値に設定すると、プロンプトをより聞くようになり、低く設定すると、よりクリエイティブになり、プロンプトにランダム性が増します。そしてこちらが、実際にオーディオを生成するために使用されるさまざまなアルゴリズムを選択できる場所です。
私の場合、これらすべての設定をデフォルトのままにする傾向があります。それでほぼ完成です。プロンプトには、シンセパッドのような簡単なものを試してみましょう。それから生成を押します。
私は16GBのVRAMを持つRTX 5000 ADAを使用していることに注意してください。8小節の場合、これは実際にかなり高速です。約20秒もかかりません。
こちらが結果です。これはかなりシンプルなものでしたが、確かに128BPMのFマイナーキーで8小節です。こちらに素敵なピアノロールもあるので、このサンプルで演奏された正確なキーを見ることができます。
さらに、MIDIファイルをダウンロードしてDAWにドラッグアンドドロップすることもできます。例えば、このMIDIファイルをダウンロードして、DAWにドラッグアンドドロップしましょう。
MIDIファイルはこんな感じです。オーディオサンプルからの音符です。任意の楽器を選択して、これらの音符を演奏させることができます。例えば、ここにシンプルなシンセがあります。デフォルトの音はこんな感じです。
このMIDIファイルを再生しましょう。本当にクールです。生のオーディオクリップをダウンロードするだけでなく、MIDIファイル経由で音符をダウンロードして、自分で楽器を変更することもできます。
スタイル転送機能
こちらはスタイル転送と呼ばれる本当にクールな機能です。こちらが、編集したりスタイルをコピーしたりするための参照クリップをアップロードする場所です。例えば、このクリップをアップロードします。
まず再生してみましょう。それが元のクリップです。はい、スタイル転送に使用するためにこれをチェックします。こちらが基本的にこのクリップの影響度を設定する場所です。
この設定を低くするほど、影響が大きくなるか、出力がこのクリップにより似るようになります。右にドラッグすると、このクリップの影響が少なくなります。例えば2.5くらいに設定しましょう。
簡単な例を示すために、このクリップにもっとリバーブとピンポンディレイを追加しましょう。生成を押しましょう。これも私にとっては超高速です。8小節のオーディオクリップを生成するのに約16秒しかかかりません。
こちらが結果です。聞いてわかるように、確かに元のトラックにもっとリバーブとピンポンディレイが追加されました。
別のことを試してみましょう。追加のエフェクトを追加するだけでなく、楽器を別のものに変えましょう。グランドピアノと入力します。
そして下の方で、新しい楽器で完全に置き換えるので、元のものを実際に保持しないように、これを高い値にドラッグした方が良いです。それでほぼ完成です。生成を押しましょう。
こちらが結果です。このオーディオクリップを再生できましたが、プロンプトで指定した新しい楽器を使用しています。本当に柔軟なツールです。
このデフォルトインターフェースのすべての設定をまとめました。そしてもちろん、動画の冒頭でお見せしたように、多くの異なるクリップを作成して、DAWでレイヤー化して実際に完全な楽曲を作曲する方法があります。
ComfyUIノードについて
このインターフェースはダウンロードして使用するのが本当に簡単です。これを強くお勧めします。しかし、ComfyUIファンの方々のために、すでにFoundation 1用のComfyUIノードがあることに注意してください。こんな感じです。
現在、このComfyワークフローにはスタイル転送が含まれていないと思います。参照オーディオなしで、テキストプロンプトからのみオーディオを生成できます。
だから私はこのgradioインターフェースを使用することを好みます。しかし、ComfyUIでこれを試すことに興味がある場合は、このページへのリンクも説明欄に貼っておきます。
まとめと追加情報
とにかく、Foundation Oneのレビューとチュートリアルをまとめました。完璧ではありません。シンセには最適ですが、他の楽器では、それほどリアルに聞こえません。
アルペジオには最適ですが、メロディや、よりスローでよりアンビエントなサンプルにはあまり適していないことがわかります。しかし、これはバージョン1に過ぎません。うまくいけば、これを繰り返し続けるでしょう。
また、興味があれば、私のチャンネルでAEP 1.5やHeart Muolaなど、他の本当に便利な音楽ジェネレーターをたくさん紹介しています。興味があれば、これらの動画をぜひチェックしてください。説明欄にすべてへのリンクを貼っておきます。
いつものように、皆さんと共有するトップのAIニュースとツールを探し続けます。この動画を楽しんでいただけたら、いいね、シェア、チャンネル登録を忘れずに、さらなるコンテンツをお楽しみに。
また、AI の世界では毎週本当にたくさんのことが起こっています。YouTubeチャンネルですべてをカバーすることは不可能です。AIで起こっているすべてのことを本当に最新の状態に保つには、私の無料の週刊ニュースレターを必ず購読してください。そのリンクは下の説明欄にあります。視聴ありがとうございました。次回お会いしましょう。


コメント