文字转语音chat-tts-ui

去年已经使用过chattts了,但是昨晚想用的时候却记怎么打开了,找了一下以前的笔记

MacOS 下源码部署chat-tts-ui

  1. 配置好 python3.9-3.11 环境,安装git ,执行命令 brew install libsndfile git

  2. python@3.10 继续执行

    brew install ffmpeg
    ​
    export PATH="/usr/local/opt/python@3.10/bin:$PATH"
    ​
    source ~/.bash_profile 
    ​
    source ~/.zshrc

  3. 创建空目录 /data/chattts 执行命令 cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .

  4. 我的路径是/Users/lin/Documents/chattts/data/chatts/chatTTS-ui

  5. 创建虚拟环境 python3.10 -m venv venv

  6. 激活虚拟环境 source ./venv/bin/activate

  7. 安装依赖 pip3 install -r requirements.txt

  8. 安装torch pip3 install torch==2.2.0 torchaudio==2.2.0

  9. 执行 python3 app.py 启动,将自动打开浏览器窗口,默认地址,如果跳转到了0.0.0.0:9966没联网的情况下可以输入 http://127.0.0.1:9966 (注意:默认从 modelscope 魔塔下载模型,不可使用代理下载,请关闭代理)

 

Linux 下容器部署

安装

  1. 拉取项目仓库

    在任意路径下克隆项目,例如:

    git clone https://github.com/jianchang512/ChatTTS-ui.git chat-tts-ui

  2. 启动 Runner

    进入到项目目录:

    cd chat-tts-ui

    启动容器并查看初始化日志:

    gpu版本
    docker compose -f docker-compose.gpu.yaml up -d 
    ​
    cpu版本    
    docker compose -f docker-compose.cpu.yaml up -d
    ​
    docker compose logs -f --no-log-prefix

  3. 访问 ChatTTS WebUI

    启动:['0.0.0.0', '9966'],也即,访问部署设备的 IP:9966 即可,例如:

    • 本机:http://127.0.0.1:9966

    • 服务器: http://192.168.1.100:9966

更新

  1. Get the latest code from the main branch:

    git checkout main
    git pull origin main

  2. Go to the next step and update to the latest image:

    docker compose down
    ​
    gpu版本
    docker compose -f docker-compose.gpu.yaml up -d --build
    ​
    cpu版本
    docker compose -f docker-compose.cpu.yaml up -d --build
    ​
    docker compose logs -f --no-log-prefix

Linux 下源码部署

  1. 配置好 python3.9-3.11环境,安装 ffmpeg。 yum install ffmpegapt-get install ffmpeg

  2. 创建空目录 /data/chattts 执行命令 cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .

  3. 创建虚拟环境 python3 -m venv venv

  4. 激活虚拟环境 source ./venv/bin/activate

  5. 安装依赖 pip3 install -r requirements.txt

  6. 如果不需要CUDA加速,执行

    pip3 install torch==2.2.0 torchaudio==2.2.0

    如果需要CUDA加速,执行

    pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118
    ​
    pip install nvidia-cublas-cu11 nvidia-cudnn-cu11
      

    另需安装 CUDA11.8+ ToolKit,请自行搜索安装方法 或参考 https://juejin.cn/post/7318704408727519270

    除CUDA外,也可以使用AMD GPU进行加速,这需要安装ROCm和PyTorch_ROCm版本。AMG GPU借助ROCm,在PyTorch开箱即用,无需额外修改代码。

    1. 请参考Quick start installation guide — ROCm installation (Linux) 来安装AMD GPU Driver及ROCm.

    2. 再通过PyTorch 安装PyTorch_ROCm版本。

    pip3 install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/rocm6.0

    安装完成后,可以通过rocm-smi命令来查看系统中的AMD GPU。也可以用以下Torch代码(query_gpu.py)来查询当前AMD GPU Device.

    import torch
    ​
    print(torch.__version__)
    ​
    if torch.cuda.is_available():
        device = torch.device("cuda")          # a CUDA device object
        print('Using GPU:', torch.cuda.get_device_name(0))
    else:
        device = torch.device("cpu")
        print('Using CPU')
    ​
    torch.cuda.get_device_properties(0)

    使用以上代码,以AMD Radeon Pro W7900为例,查询设备如下。

    $ python ~/query_gpu.py
    ​
    2.4.0.dev20240401+rocm6.0
    ​
    Using GPU: AMD Radeon PRO W7900

### 部署文字语音TTS)模型的本地环境方法 为了实现文字语音(Text-to-Speech, TTS)功能,可以按照以下方式在本地环境中部署相关模型和服务。以下是基于 Windows 和 Linux 的两种常见部署方案。 #### 1. 在 Windows 系统上部署 ChatTTS 文字语音模型 对于 Windows 用户来说,可以通过详细的教程完成 ChatTTS 开源项目的本地化部署[^1]。具体操作如下: - **安装依赖项** 确保已安装 Python 及其开发环境,并配置好 pip 工具链。此外还需要安装 Git 来克隆项目仓库。 - **下载并初始化项目** 使用命令行工具执行以下指令来获取最新版本代码以及所需资源文件: ```bash git clone https://github.com/your-repo-url/chat-tts.git cd chat-tts python setup.py install ``` - **运行服务端程序** 启动服务器之前可能需要调整部分参数设置,默认情况下会监听 localhost 地址上的特定端口提供 API 接口调用支持。 ```python from app import create_app if __name__ == "__main__": app = create_app() app.run(host='0.0.0.0', port=8080) ``` - **利用 Cpolar 实现外网访问** 如果希望突破局域网限制,则可借助第三方软件如 Cpolar 设置动态域名映射从而允许外部设备连接至内部主机实例。 #### 2. 基于 Linux 平台构建 Chat-TTS-UI 应用场景 针对熟悉 Unix-like 操作系统的开发者而言,官方文档也提供了详尽指导帮助他们顺利迁移至此类架构之上[^2]。主要流程概括如下: - 安装必要的包管理器组件; - 获取目标存储库副本并通过虚拟环境隔离生产环境影响; - 修改默认配置适配实际硬件条件差异; - 测试最终成果确认无误后再投入正式运营阶段。 上述两套解决方案均能有效达成预期目的——即让个人计算机具备独立处理自然语言输入进而输出对应音频片段的能力。不过需要注意的是,在实践过程中可能会遇到各种意想不到的技术难题,因此建议提前查阅相关资料做好充分准备。 ```python import os from flask import Flask app = Flask(__name__) @app.route('/') def home(): return 'Server is running!' if __name__ == '__main__': host_ip = os.getenv('HOST_IP', '127.0.0.1') server_port = int(os.getenv('SERVER_PORT', 5000)) app.run(debug=True, host=host_ip, port=server_port) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值