AIを使ったリアルタイムボイスチェンジャー
AIを使ったリアルタイムボイスチェンジャー「MMVC(RealTime-Many to Many Voice Conversion)」
の本体です。
MMVC_Trainerで学習したモデルを使ってリアルタイムでVCを行います。
https://github.com/isletennos/MMVC_Trainer
「簡単」「だれでも」「好きな声に」「リアルタイムで」
・MMVC_Trainerで学習したモデルとそのコンフィグ
下記URLからダウンロードして、自己解凍形式ファイルを実行して展開してください。(ファイルサイズが非常に大きいので注意)
MMVC_client v0.3.1.0
MMVC_client v0.3.0.0(GPU ver)
ファイルサイズが大きすぎてDLできない人向けの分割版
MMVC_client v0.3.0.0(GPU ver)
MMVC_client v0.2.0.1(GPU ver)
MMVC_client 無印(CPU_ver) (現在非推奨)
MMVC_client 無印(GPU ver)
MMVC Trainer ver | v1.2.x.x | v1.3.0.x | 1.3.2.x | 1.3.2.x(ONNX) |
---|---|---|---|---|
MMVC Client 無印(CPU/GPU) | 〇 | × | × | × |
MMVC Client v0.2.0.x(GPU) | 〇 | × | × | × |
MMVC Client v0.3.0.x(GPU) | × | 〇 | 〇 | × |
MMVC Client v0.3.1.x | × | 〇 | 〇 | 〇 |
このリポジトリをダウンロードして、展開してください。
また、下記.exeの実行を.pyの実行に置き換えて実行してください。
「output_audio_device_list.exe」を実行します。
「audio_device_list.txt」が実行ファイルと同じディレクトリに出力されます。
こちらに入出力のオーディオデバイス名およびIDが出力されており、下記セクション以降で利用します。
conf/myprofile.confの下記項目を環境に合わせて変更します。
"device": {
"input_device1": "マイク (Realtek(R) Audio), MME",
"input_device2": false,
"output_device": "スピーカー (Realtek(R) Audio), MME",
"gpu_id": 0
},
"vc_conf": {
"frame_length": 8192,
"delay_flames": 4096,
"overlap": 1024,
"dispose_stft_specs": 2,
"dispose_conv1d_specs": 10,
"source_id": 107,
"target_id": 100,
"onnx": {
"use_onnx": true,
"onnx_providers": ["DmlExecutionProvider", "CPUExecutionProvider"]
}
},
"path": {
"json": ".\\logs\\20220306_24000\\config.json",
"model": ".\\logs\\20220306_24000\\G_latest_99999999.onnx",
"noise": ".\\noise.wav"
},
"others": {
"use_nr": false,
"voice_selector": false,
"voice_list": [100, 108, 107, 6, 30, 108],
"voice_label": ["ずんだもん", "目標話者", "自分の声", "女性の声", "男性の低い声", "女性の高い声"]
}
このセクションでは、下記項目の変更方法について記載します。
"device": {
"input_device1": "マイク (Realtek(R) Audio), MME",
"input_device2": false,
"output_device": "スピーカー (Realtek(R) Audio), MME",
"gpu_id": 0
},
各要素はそれぞれ
input_device1 : マイク入力のデバイスID or デバイス名を指定します。
input_device2 : 背景音声の入力のデバイスID or デバイス名を指定します。
主にカラオケ等背景のBGMと自分の変換後の音声のラグを0にしたいときに使います。
output_device : 変換した音声の出力先のデバイスID or デバイス名を指定します。
gpu_id : 複数GPUをPCに搭載している場合、数字で指定できます。
使い分けが不要な場合は0のまま変更は不要です。
ONNXを利用しない設定にして、gpu_idを -1 に指定すると、torchでCPUでの変換になります。
このセクションでは、下記項目の変更方法について記載します。
"vc_conf": {
"frame_length": 8192,
"delay_flames": 4096,
"overlap": 1024,
"dispose_stft_specs": 2,
"dispose_conv1d_specs": 10,
"source_id": 107,
"target_id": 100,
"onnx": {
"use_onnx": true,
"onnx_providers": ["DmlExecutionProvider", "CPUExecutionProvider"]
}
},
この項目では、下記4項目のみ変更します。それ以外の項目については割愛します。
source_id : 変換元の音声の話者IDになります。
Trainerで特に弄っていなければ、107のままで問題ありません。
target_id : 変換先の音声の話者IDになります。
学習時に生成した「./filelists/train_config_Correspondence.txt」を参考に話者IDを指定してください。
チュートリアルもんであれば100のままで問題ありません。
onnx.use_onnx : 変換にONNXを使うか指定します。
ONNXを使って変換する場合trueにします。
従来のtorchを使って変換する場合はfalseにします。この場合、onnx_providersの設定は無視されます。
ONNXを利用する場合、学習したモデルは「~.onnx」形式のファイルを指定します。
従来のtorchを利用する場合、「~.pth」形式のファイルを指定します。
onnx.onnx_providers : ONNXが使う実行エンジンと優先順位を指定します。
記述されている順番に優先して利用されます。
- DmlExecutionProvider
DirectMLを利用します。GPUを利用したい場合はこの項目を先に入れてください。 - CPUExecutionProvider
CPUを利用します。ONNXでCPUでの変換をしたい場合は、この項目だけを入れます。
このセクションでは、下記項目の変更方法について記載します。
"path": {
"json": ".\\logs\\20220306_24000\\config.json",
"model": ".\\logs\\20220306_24000\\G_latest_99999999.onnx",
"noise": ".\\noise.wav"
},
※ここで指定するパスは必ず「\」ではなく「\\」で区切ってください。
学習済みフォルダ内に config.json, G_latest_99999999.pth, G_latest_99999999.onnx 等のファイルがあります。
これらのファイルをコピーして、この例の場合、logsフォルダ内に「20220306_24000」フォルダを作って、その中にファイルを置きます。
json : 学習時に生成したconfigファイルのパスを指定します。
学習時の設定ファイル ./logs/xxxx/config.json を指定します。
model : 学習したモデルのパスを指定します。
学習済みモデルファイル ./logs/xxxx/G_xxxx.pth といった感じのファイルを指定します。
ONNXを使って変換する場合は ./logs/xxxx/G_xxxx.onnx といったONNX形式ファイルを指定します。
noise : 現在非推奨で使わないのでそのままでいいです。
使いたい方は下記おまけセクションを参考ください。
このセクションでは、下記項目の変更方法について記載します。
"others": {
"use_nr": false,
"voice_selector": false,
"voice_list": [100, 108, 107, 6, 30, 108],
"voice_label": ["ずんだもん", "目標話者", "自分の声", "女性の声", "男性の低い声", "女性の高い声"]
}
各要素はそれぞれ
use_nr : ノイズリダクションを有効化するかしないか指定します。
現状は品質が下がるため、自前で用意することを推奨します。
この機能を使う場合、 true に書き換えてください。
voice_selector : MMVC起動中にターゲット話者をリアルタイムで変更する機能を有効化するかしないか指定します。
この機能を十全に使うには、複数話者の同時学習を行う必要があります。
複数話者の同時学習を行っていない場合はfalseのままにしておいてください。
voice_list : voice_selectorを有効化したときに利用する項目です。学習した話者IDを記載します。
voice_label : voice_selectorを有効化したときに利用する項目です。話者IDのラベルになります。
パターン1
「mmvc_client.bat」を実行
正しく「myprofile.conf」が設定されていればそのまま起動します。
パターン2
「bin\mmvc_client.exe」を実行してください。
起動に少しだけ時間がかかります。
起動すると「myprofile.conf」のパスを聞かれるので、パスを指定して下さい。
「rec_environmental_noise.exe」を実行します。
実行したら、モデルを学習したときに設定したサンプリングレートを入力してください。
(MMVC_Trainerの設定を変えていなければ24000です)
次にmyprofile.confのパスを聞かれるため、編集したmyprofile.confのパスを入力してください。
以下の入力パスの例のように、.confファイルまで含めて入力して下さい。
.\conf\myprofile.conf
※注意として、入力パスの両端に”(ダブルクォーテーション)は付けないでください。
パスの入力とmyprofile.confに問題が無ければ、ノイズの録音が開始されます。
ノイズの録音が完了するまで、マイクに話しかけたり等しないで、待ちます。
「noise.wav」が実行ファイルと同じディレクトリに出力されます。
"path": {
"path": {
"json": ".\\logs\\20220306_24000\\config.json",
"model": ".\\logs\\20220306_24000\\G_latest_99999999.onnx",
"noise": ".\\noise.wav"
},
上記項目の"noise"に 1. ノイズ音取得の実行 で作成した「noise.wav」のパスを入力します。
"others": {
"use_nr": true,
"voice_selector": false,
"voice_list": [100, 108, 107, 6, 30, 108],
"voice_label": ["ずんだもん", "目標話者", "自分の声", "女性の声", "男性の低い声", "女性の高い声"]
}
上記項目の"use_nr"をtrueに変えます。
https://arxiv.org/abs/2106.06103
https://github.com/jaywalnut310/vits
https://github.com/timsainb/noisereduce
Isle Tennos
Twitter : https://twitter.com/IsleTennos