腾讯混元开源Hunyuan 3D 2.0家族新模型 推动3D UGC生态发展

2025年3月18-19日 腾讯混元在开源日活动上正式开源基于Hunyuan 3D 2.0技术框架的5款三维生成模型,进一步丰富了3D AIGC社区。

本次开源的Turbo加速系列、多视图推理模块及轻量级mini模型,均基于Hunyuan 3D 2.0模型,组成了包含6大模型的Hunyuan 3D 2.0 家族。

图丨腾讯混元 Hunyuan 3D 2.0 家族已有 6 款模型(来源:腾讯混元)


● 轻量级模型 Hunyuan3D-2mini:通过模型剪枝大幅度减少模型参数,与 1 月份开源版本相比参数量从 11 亿下降到 6 亿,并且具有更高的隐空间压缩率。该轻量版模型为低算力设备提供了高效解决方案,够大幅降低了 GPU 显存的占用,因此显著降低了硬件需求,最低支持 4060等消费级显卡。


● 多视图版本模型 Hunyuan3D-2mv:支持多视图输入信息(2 到 4 张图片),能够更精准地捕捉细节,更加符合原画师、设计师用户生产习惯,大幅降低游戏制作、3D 用户生成内容创作等场景的制作成本。

为了保持灵活性与鲁棒性,在训练过程中首先使用固定图片数量、固定角度的多视图训练模型;然后逐步增加渲染输入图的角度变化,提升鲁棒性;最后随机drop部分视图,以支持不同图片数量输入的3D生成。通过这种渐进式的训练方式,可以使得多视图版本模型支持不同数量的多视图输入,用户使用更加灵活便捷,对输入视角的角度敏感性更低。

多视图输入

生成结果

多视图模型生成效果对比 - 可输入不标准三视图(如第一行,输入侧后方视角)

● Turbo 系列模型:基于FlashVDM的3D原生模型加速框架,分别对DiT模型和VAE模型进行优化,大幅减小几何模型生成耗时,实现了数十倍的生成速度提升,将高精度模型的生成的时间压缩至秒级。通过将该加速框架应用到轻量的 mini 模型上,甚至最快可以做到 0.5 秒内生成白模。此外,通过加速后的模型可以在 Apple M1 Pro 等芯片上进行部署,速度与标准版在显卡上部署的速度相当。

FlashVDM加速框架 - 对3D生成中的关键模型DiT和VAE分别进行加速

生成速度对比 - Hunyuan3D-2(左)和 Hunyuan3D-2-turbo(右) 生成速度对比明显,其中 turbo 模型在点击操作后很快生成

通过对Hunyuan3D-2 加速版模型(Turbo模型)和标准版(Hunyuan3D-2)进行用户双盲对比测试。结果显示,在5步迭代条件下,87.3%的生成结果对比组中,测试参与者无法从视觉上区分Turbo模型与标准版的输出差异。当迭代步数提升至8步时,无法区分差异的结果对比组比例上升至90.2%。

用户盲测 - 87%的生成结果用户无法区分

总结

以上Hunyuan 3D系列模型已全部完成开源,模型代码和权重均可直接通过文末链接查看下载。

同时,除去以上开源模型,混元3D AI创作引擎平台提供了更丰富的一站式、低门槛3D UGC创作平台,更多能力和功能均可在混元3D AI创作引擎平台免费体验。

此次腾讯混元的开源标志着3D UGC生态的进一步繁荣,无论专业工作室还是个人创作者都可以选择合适的模型进行部署,更为高效便捷地进行3D模型创作。

未来,腾讯混元将继续拥抱开源,推进三维生成技术普惠化,降低三维内容创作的算法门槛,让 3D 生成技术惠及更多创作者。

混元3D创作引擎平台

https://3d.hunyuan.tencent.com/

混元3D 2.0开源仓库

https://github.com/tencent/Hunyuan3D-2

混元3D FlashVDM开源仓库

https://github.com/Tencent/FlashVDM

多视图版模型权重仓库

https://huggingface.co/tencent/Hunyuan3D-2mv

轻量版模型权重仓库

https://huggingface.co/tencent/Hunyuan3D-2mini

混元2.0模型体验页面

https://huggingface.co/spaces/tencent/Hunyuan3D-2

混元2.0多视图模型体验页面

https://huggingface.co/spaces/tencent/Hunyuan3D-2mv

关注腾讯开源公众号

获取更多最新腾讯官方开源信息!

加微信进群即可了解更多“腾讯开源新动态”

图片

添加微信请备注:腾讯开源

<think>好的,用户想了解如何部署腾讯混元HunYuan3D模型。首先,我需要整理已有的引用信息,看看有没有相关的部署步骤。引用[3]提到了在Linux环境下部署腾讯混元AI大模型的步骤,包括克隆仓库、安装依赖、下载模型库等。引用[4]也提到了本地部署的一些步骤,比如安装特定的包和下载模型。引用[1]和[2]则更多是关于项目概览和框架的介绍,可能对部署的上下文有帮助。 接下来,我需要将这些步骤系统化,按照逻辑顺序排列。用户可能需要先准备环境,比如安装Git、Python、CUDA等。然后克隆代码仓库,安装依赖项,处理可能出现的依赖问题,比如flash_attn的安装。之后下载预训练模型,可能涉及Git LFS的使用。最后,运行示例代码进行验证。 需要注意引用中的具体命令,例如在引用[3]中,git clone的地址可能需要替换成官方的GitHub链接,但用户可能遇到网络问题,所以镜像地址可能有用。安装依赖时,requirements.txt和flash_attn需要特别注意,因为后者可能需要特定版本的CUDA和PyTorch。 另外,用户可能会遇到的问题包括依赖冲突、模型下载慢或失败,以及环境配置错误。需要提前给出解决建议,比如使用镜像源、安装Git LFS、检查CUDA版本等。 最后,生成相关问题时要围绕部署过程中可能涉及的扩展话题,比如环境准备、依赖问题、模型应用和性能优化。需要确保每个问题都能在提供的引用中找到相关线索,或者属于合理的扩展方向。</think>### 腾讯混元HunYuan 3D模型部署教程 以下是基于引用内容的部署流程整理,主要分为环境准备、代码部署、模型下载和验证运行四个步骤: --- #### **1. 环境准备** - **操作系统**:推荐Linux系统(如Ubuntu 20.04+)[^3] - **依赖工具**: - 安装Git和Git LFS(用于大文件下载): ```bash sudo apt-get install git git-lfs git lfs install ``` - Python 3.8+ 和 pip - CUDA 11.7+ 和对应版本的PyTorch(建议通过官方文档安装) --- #### **2. 代码部署** - **克隆代码仓库**: ```bash cd /workspace/ git clone https://github.com/Tencent/HunyuanDiT # 官方仓库 # 若网络受限,可使用镜像地址:git clone https://github.moeyy.xyz/https://github.com/Tencent/HunyuanDiT ``` - **安装Python依赖**: ```bash cd HunyuanDiT pip install -r requirements.txt # 安装基础依赖 pip install flash_attn # 需注意CUDA与PyTorch版本匹配[^3][^4] ``` --- #### **3. 下载预训练模型** - **通过ModelScope下载模型**: ```bash git clone https://www.modelscope.cn/modelscope/HunyuanDiT.git mv HunyuanDiT ckpts # 将模型移动到项目目录的ckpts文件夹 ``` > 注:若下载缓慢,可尝试使用代理或镜像源。 --- #### **4. 运行示例验证** - 根据官方提供的示例脚本(如`demo.py`)测试生成能力: ```bash python demo.py --config configs/default.yaml --ckpt ckpts/HunyuanDiT.pt ``` > 需根据实际路径调整参数[^2]。 --- ### **常见问题解决** 1. **依赖冲突**:确保PyTorch版本与CUDA匹配,优先使用`requirements.txt`中指定版本[^3]。 2. **模型下载失败**:使用Git LFS完整拉取模型文件,或手动下载后放置到`ckpts`目录。 3. **生成速度慢**:参考[^1]中的推理优化指南,调整批处理大小或启用混合精度训练。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值