当前位置: 首页 > news >正文

文字转语音chat-tts-ui

去年已经使用过chattts了,但是昨晚想用的时候却记怎么打开了,找了一下以前的笔记

MacOS 下源码部署chat-tts-ui

  1. 配置好 python3.9-3.11 环境,安装git ,执行命令 brew install libsndfile git

  2. python@3.10 继续执行

    brew install ffmpeg
    ​
    export PATH="/usr/local/opt/python@3.10/bin:$PATH"
    ​
    source ~/.bash_profile 
    ​
    source ~/.zshrc

  3. 创建空目录 /data/chattts 执行命令 cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .

  4. 我的路径是/Users/lin/Documents/chattts/data/chatts/chatTTS-ui

  5. 创建虚拟环境 python3.10 -m venv venv

  6. 激活虚拟环境 source ./venv/bin/activate

  7. 安装依赖 pip3 install -r requirements.txt

  8. 安装torch pip3 install torch==2.2.0 torchaudio==2.2.0

  9. 执行 python3 app.py 启动,将自动打开浏览器窗口,默认地址,如果跳转到了0.0.0.0:9966没联网的情况下可以输入 http://127.0.0.1:9966 (注意:默认从 modelscope 魔塔下载模型,不可使用代理下载,请关闭代理)

 

Linux 下容器部署

安装

  1. 拉取项目仓库

    在任意路径下克隆项目,例如:

    git clone https://github.com/jianchang512/ChatTTS-ui.git chat-tts-ui

  2. 启动 Runner

    进入到项目目录:

    cd chat-tts-ui

    启动容器并查看初始化日志:

    gpu版本
    docker compose -f docker-compose.gpu.yaml up -d 
    ​
    cpu版本    
    docker compose -f docker-compose.cpu.yaml up -d
    ​
    docker compose logs -f --no-log-prefix

  3. 访问 ChatTTS WebUI

    启动:['0.0.0.0', '9966'],也即,访问部署设备的 IP:9966 即可,例如:

    • 本机:http://127.0.0.1:9966

    • 服务器: http://192.168.1.100:9966

更新

  1. Get the latest code from the main branch:

    git checkout main
    git pull origin main

  2. Go to the next step and update to the latest image:

    docker compose down
    ​
    gpu版本
    docker compose -f docker-compose.gpu.yaml up -d --build
    ​
    cpu版本
    docker compose -f docker-compose.cpu.yaml up -d --build
    ​
    docker compose logs -f --no-log-prefix

Linux 下源码部署

  1. 配置好 python3.9-3.11环境,安装 ffmpeg。 yum install ffmpegapt-get install ffmpeg

  2. 创建空目录 /data/chattts 执行命令 cd /data/chattts && git clone https://github.com/jianchang512/chatTTS-ui .

  3. 创建虚拟环境 python3 -m venv venv

  4. 激活虚拟环境 source ./venv/bin/activate

  5. 安装依赖 pip3 install -r requirements.txt

  6. 如果不需要CUDA加速,执行

    pip3 install torch==2.2.0 torchaudio==2.2.0

    如果需要CUDA加速,执行

    pip install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/cu118
    ​
    pip install nvidia-cublas-cu11 nvidia-cudnn-cu11
      

    另需安装 CUDA11.8+ ToolKit,请自行搜索安装方法 或参考 https://juejin.cn/post/7318704408727519270

    除CUDA外,也可以使用AMD GPU进行加速,这需要安装ROCm和PyTorch_ROCm版本。AMG GPU借助ROCm,在PyTorch开箱即用,无需额外修改代码。

    1. 请参考Quick start installation guide — ROCm installation (Linux) 来安装AMD GPU Driver及ROCm.

    2. 再通过PyTorch 安装PyTorch_ROCm版本。

    pip3 install torch==2.2.0 torchaudio==2.2.0 --index-url https://download.pytorch.org/whl/rocm6.0

    安装完成后,可以通过rocm-smi命令来查看系统中的AMD GPU。也可以用以下Torch代码(query_gpu.py)来查询当前AMD GPU Device.

    import torch
    ​
    print(torch.__version__)
    ​
    if torch.cuda.is_available():
        device = torch.device("cuda")          # a CUDA device object
        print('Using GPU:', torch.cuda.get_device_name(0))
    else:
        device = torch.device("cpu")
        print('Using CPU')
    ​
    torch.cuda.get_device_properties(0)

    使用以上代码,以AMD Radeon Pro W7900为例,查询设备如下。

    $ python ~/query_gpu.py
    ​
    2.4.0.dev20240401+rocm6.0
    ​
    Using GPU: AMD Radeon PRO W7900

相关文章:

  • 分布式锁—Redisson的同步器组件
  • MySQL中 IN 到底走不走索引?
  • win10安装部署DB-gpt,坑多
  • mac使用Homebrew安装miniconda(mac搭建python环境),并在IDEA中集成miniconda环境
  • 20天 - TCP 和 UDP 有什么区别?说说 TCP 的三次握手?TCP 是用来解决什么问题?
  • Python中很常用的100个函数整理
  • React基础之类组件
  • XSENS:科幻电影《Love me》使用动作捕捉技术将未来AI拟人化
  • STM32初始安装
  • 2019年蓝桥杯第十届CC++大学B组真题及代码
  • Python 机器学习小项目:手写数字识别(MNIST 数据集)
  • Neo4j 数据库备份
  • 1分钟看懂React的那些Hook‘s
  • GaussDB安全配置指南:从认证到防御的全方面防护
  • 深入剖析顺序存储二叉树与线索化二叉树:数据结构的灵活转换与优化
  • 常用的gpt
  • 通过大视觉模型实现的多维方向性增强分割|文献速递-医学影像人工智能进展
  • Hive函数、外部表和分区表
  • 培训讲师管理系统(源码+文档+讲解+演示)
  • 【面试】Java 多线程
  • 私家车跑“顺风”出事故,意外险赔不赔?
  • 中国旅马大熊猫“福娃”和“凤仪”启程回国
  • 人民网:激发博物馆创新活力,让“过去”拥有“未来”
  • 外交部驻港公署正告美政客:威胁恫吓撼动不了中方维护国家安全的决心
  • 年在沪纳税350亿人民币,这些全球头部企业表示“对上海承诺不会变”
  • 普京召开俄乌谈判筹备会议,拉夫罗夫、绍伊古等出席