🚀 一键部署(含离线整合包)!基于 ChatTTS ,支持音色抽卡、长音频生成和分角色朗读。简单易用,无需复杂安装。。
版本 | 地址 | 介绍 |
---|---|---|
在线Colab版 | 可以在 Google Colab 上一键运行,需要 Google账号,Colib 自带15GB的GPU | |
离线整合版 | 百度网盘 提取码: h3c5 | 下载本地运行,支持 GPU/CPU,适用 Windows 10 及以上 |
离线整合版 | 夸克网盘 | 下载本地运行,支持 GPU/CPU,适用 Windows 10 及以上 |
欢迎关注 氪学家频道 ,获取更多有趣的科技视频。
- Colab 一键运行:无需复杂的环境配置,只需点击上方的 Colab 按钮,即可在浏览器中直接运行项目。
- 音色抽卡功能:批量生成多个音色,并可保存自己喜欢的音色。
- 支持生成长音频:适合生成较长的语音内容。
- 字符处理:对数字和朗读错误的标点做了初步处理。
- 分角色朗读功能 :支持对不同角色的文本进行分角色朗读,并支持大模型一键生产脚本。
- 点击最上方的 "Open In Colab" 按钮,打开 Colab 笔记本。
- 点击菜单栏的–代码执行程序–全部运行即可
- 执行后在下方的日志中找到类似 Running on public URL: https://**********.gradio.live
- https://**********.gradio.live 就是可以访问的公网地址
- 安装 Conda(如果尚未安装)。
- 打开终端,创建一个新的 conda 环境:
conda create -n "ChatTTS_colab" python=3.11
- 激活刚创建的环境:
conda activate ChatTTS_colab
- 克隆本项目仓库到本地:
git clone git@github.com:6drf21e/ChatTTS_colab.git
- 手动安装 ChatTTS 依赖到项目目录:
cd ChatTTS_colab git clone https://github.com/2noise/ChatTTS cd ChatTTS git checkout -q f4c8329 cd .. mv ChatTTS temp mv temp/ChatTTS ./ChatTTS rm -rf temp
- 在项目目录安装 ChatTTS_colab 所需的依赖:
pip install -r requirements-macos.txt
- 运行项目,等待自动下载模型:
一切正常的话会自动打开浏览器。
python webui_mix.py # Loading ChatTTS model...
-
第一次运行项目,ChatTTS 会自动从 huggingface 下载模型,如果因为网络问题下载失败,那么 ChatTTS 是无法自行重新下载的,需要清除缓存后重新触发下载。 错误信息示例:
FileNotFoundError: [Errno 2] No such file or directory: '~/.cache/huggingface/hub/models--2Noise--ChatTTS/snapshots/d7474137acb4f988874e5d57ad88d81bcb7e10b6/asset/Vocos.pt'
清除缓存的方法:
rm -rf ~/.cache/huggingface/hub/models--2Noise--ChatTTS
清除缓存后,再次执行
python webui_mix.py
,就会重新下载模型。如果多次下载都无法成功,可以手动将离线包里的 models 拷贝到项目目录,从本地加载模型
python webui_mix.py --source local --local_path models
-
如果下载模型速度慢,建议使用赛博活菩萨 @padeoe 的镜像加速 https://hf-mirror.com/
export HF_ENDPOINT=https://hf-mirror.com
欢迎对本项目提出建议或贡献代码。请通过 GitHub Issues 提出问题,或提交 Pull Request。
本项目使用 MIT 许可证。