天数卡服务器部署musetalk

MuseTalk服务器部署指南

face

使用 corex 作为基础镜像启动容器:

sudo docker run --name jyd_face --shm-size="32g" -it -v /opt/jyd01/wangruihua/jyd_face:/opt/jyd01/wangruihua/jyd_face/ --privileged --cap-add=ALL --pid=host --network host --restart always corex:4.4.0

进容器后首先执行一下这个命令:

source /usr/local/corex/enable
 pip install --upgrade pip
 pip install -r requirements.txt 

 启动测试:

python3 test_face.py

运行服务:

 CUDA_VISIBLE_DEVICES=4 nohup python3 face_flask.py > logs/8000.log 2>&1 &

jyd_indextts

使用 corex 作为基础镜像启动容器:

sudo docker run --name jyd_indextts --shm-size="32g" -it -v /opt/jyd01/wangruihua/jyd_indextts:/opt/jyd01/wangruihua/jyd_indextts/ --privileged --cap-add=ALL --pid=host --network host --restart always corex:4.4.0
 pip install --upgrade pip
apt-get update
apt-get install ffmpeg

启动测试:

python3 test_flask_indextts.py 

运行服务:

 CUDA_VISIBLE_DEVICES=4 nohup python3 flask_indextts_new.py > logs/8001.log 2>&1 &

jyd_musetalk

使用 corex 作为基础镜像启动容器:

sudo docker run --name jyd_musetalk --shm-size="32g" -it -v /opt/jyd01/wangruihua/jyd_musetalk:/opt/jyd01/wangruihua/jyd_musetalk/ --privileged --cap-add=ALL --pid=host --network host --restart always corex:4.4.0
pip install timm
pip install --upgrade pip
pip install -r requirements.txt
pip install --no-cache-dir -U openmim
mim install mmengine
pip install setuptools==60.9.0

下载天数版本mmcv

账号:iluvatar_corex 
密码: c494vp8F9
sftp -P 29880 iluvatar_corex@iftp.iluvatar.com.cn
get /client_tmp/hck/jyd/apps/mmcv-2.1.0+corex.4.4.0.20250908-cp310-cp310-linux_x86_64.whl

安装天数版本mmcv

pip install mmcv-2.1.0+corex.4.4.0.20250908-cp310-cp310-linux_x86_64.whl

安装mmdet(需要高版本)

mim install "mmdet==3.2.0"


安装mmpose

安装 Python 包 chumpy,版本固定为 0.70。不要使用 pip 的独立构建环境(build isolation)

pip install chumpy==0.70 --no-build-isolation
mim install "mmpose==1.1.0"

或者使用源码编译

git clone https://github.com/open-mmlab/mmpose.git
cd mmpose
pip install -e .

安装ffmpeg

apt-get update
apt-get install ffmpeg

修改部分源码

修改 musetalk/utils/preprocessing.py  第一行加入:

import torch

# monkey patch 强制关闭安全模式
_old_torch_load = torch.load
def _patched_torch_load(*args, **kwargs):
    kwargs['weights_only'] = False
    return _old_torch_load(*args, **kwargs)

torch.load = _patched_torch_load

下载一个必备文件

https://www.adrianbulat.com/downloads/python-fan/s3fd-619a316812.pth

下载后放到这个目录下(注意如果创建容器,这个目录是容器中的目录,宿主机没有)

/root/.cache/torch/hub/checkpoints/s3fd-619a316812.pth

遇到目录权限问题可以跳过,运行程序会自动下载(网络比较慢)


启动测试

CUDA_VISIBLE_DEVICES=4 sh inference.sh v1.5 normal

CUDA_VISIBLE_DEVICES=5 python flask_musetalk.py

运行服务

 CUDA_VISIBLE_DEVICES=5 nohup python3 flask_musetalk.py > logs/8002.log 2>&1 &

### 天数智凯与清华智普的部署方案概述 #### 关于天数智凯的部署方案 天数智凯作为一家专注于人工智能技术的企业,在其项目中采用了多种先进的软硬件解决方案来实现高效的模型训练和推理能力。具体而言,该公司可能利用了类似于昇腾系列的人工智能计算平台[^2],通过全栈 AI 软件和硬件的支持,能够显著提升模型性能并优化资源利用率。 此外,天数智凯还借鉴了一些国际领先的技术成果,例如 Arizona State Artificial Intelligence Guide Dog 的经验[^1],这表明他们在实际应用过程中注重结合国内外先进技术以提高产品竞争力和服务质量。 ```python # 示例代码展示如何调用华为昇腾AI平台进行模型推理 import mindspore as ms from mindspore import Tensor, context context.set_context(device_target="Ascend") def load_model_and_inference(model_path, input_data): net = ms.load_checkpoint(model_path) output = net(Tensor(input_data)) return output.asnumpy() input_sample = [[0.5], [1.0]] result = load_model_and_inference('path_to_your_model', input_sample) print(result) ``` #### 清华智普的部署策略分析 清华智普依托清华大学强大的科研背景和技术积累,在人工智能领域有着深厚的研究基础和发展潜力。针对不同场景下的需求,该机构可能会采用多样化的部署方式,比如借助海光处理器完成高性能计算任务的同时也积极尝试与其他厂商合作探索更多可能性[^3]。 值得注意的是,“DeepSeek-R1/V3”这类预训练语言模型被成功移植到多个平台上运行良好,证明了跨平台兼容性和灵活性的重要性。对于希望快速搭建起稳定可靠系统的用户来说,选择合适的基础架构至关重要。 #### 综合比较两者的异同点 尽管两家公司在业务方向上存在差异,但在构建高效能AI系统方面均表现出色。他们都重视技术创新以及合作伙伴关系建立,并且都倾向于选用经过市场验证过的成熟技术和工具链来进行各自项目的实施与发展。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值