腾讯混元视频生成再升级,发布图生视频、音频与动作驱动等能力

腾讯混元图生视频模型目前已经上线,企业和开发者可在腾讯云申请使用API接口;用户通过混元AI视频官网即可体验。混元视频生成开源模型目前在Github、HuggingFace等主流开发者社区均可下载体验。

279097fa8e50bc745a829ce2cb429f46.jpeg

腾讯混元发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及2K高质量视频。

基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成5秒的短视频,还能自动配上背景音效。此外,上传一张人物图片,并输入希望“对口型”的文字或音频,图片中的人物即可“说话”或“唱歌”;使用“动作驱动”能力,还能一键生成同款跳舞视频。

目前用户通过混元AI视频官网(https://video.hunyuan.tencent.com/)即可体验,企业和开发者可在腾讯云申请使用API接口使用。

此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持 130 亿,模型适用于多种类型的角色和场景,包括写实视频制作、动漫角色甚至CGI角色制作的生成。

开源内容包含权重、推理代码和LoRA训练代码,支持开发者基于混元训练专属LoRA等衍生模型。目前在Github、HuggingFace等主流开发者社区均可下载体验。

图生视频提示词:Van Gogh lifts a glass of red wine to his lips and takes a sip.

图生视频提示词(配背景音效):他吃苹果

图生视频提示词(配背景音效):A horse is walking

音频驱动能力,让虚拟人物念绕口令

动作驱动能力,让图中人物跳舞

拥抱LoRA模型

捏扁特效LoRA模型

混元开源技术报告披露,混元视频生成模型具备灵活的扩展性,图生视频和文生视频在相同的数据集上开展预训练工作。在保持超写实画质、流畅演绎大幅度动作、原生镜头切换等特性的基础上,让模型能够捕捉到丰富的视觉和语义信息,并结合图像、文本、音频和姿态等多种输入条件,实现对生成视频的多维度控制

混元视频生成模型开源以来,一直保持较高的热度,去年12月登顶huggingface全站趋榜第一,目前Github平台上Star数超过8.9K。多位开发者自发制作基于社区Hunyuanvideo的插件与衍生模型,积累超过 900 个衍生版本。更早开源的混元DiT文生图模型,在国内外衍生模型数量多达1600多个。

目前,混元开源系列模型已经完整覆盖文本、图像、视频和3D生成等多个模态,在Github 累计获得超 2.3 万开发者关注和star。

混元图生视频模型目前已经在腾讯云上线,企业和开发者可扫描下方二维码或点击【阅读原文】申请使用API接口

a425699192563902811bd8613f28f041.png

附  混元图生视频开源链接

Github: https://github.com/Tencent/HunyuanVideo-I2V

Huggingface:https://huggingface.co/tencent/HunyuanVideo-I2V

-END-

想关注更多“腾讯开源新动态”,加微信进群即可了解更多!

图片

添加微信请备注:腾讯开源

### 混元视频的技术实现 混元视频功能的核心在于其独特的 **像到视频生成框架**,即 HunyuanVideo-12V。该框架利用了先进的多模态技术以及扩散模型的能力来完成高质量的视频生成任务。 #### 多模态大型语言模型 (MLLM) 的作用 输入像会先经过一个多模态大型语言模型 (MLLM) 进行处理[^1]。这一阶段的主要目标是提取并编码像中的语义信息,将其转化为一系列可操作的 token 表达形式——称为语义像 token。这些 tokens 能够捕捉原始像的关键特征和上下文关系,从而为后续的跨模态融合提供基础支持。 #### 像潜在拼接技术 为了将静态片转换成动态连续的画面效果,在上述基础上引入了一种名为“像潜在拼接”的机制。具体而言,由 MLLM 提取出来的语义像 tokens 将会被预先准备好的视频潜在 tokens 结合起来形成一个新的混合表示结构。这种组合方式允许系统在整个计算流程中维持全局一致性的注意力建模能力,进而促进更加自然流畅的结果呈现。 #### 扩散模型的作用于视频生成 除了基于像的内容外扩之外,HunyuanVideo-12V 同样依赖 Diffusion 模型去构建帧间的时序关联特性[^2]。借助此类方法可以有效解决传统独立帧预测可能带来的不协调现象,并最终产出具备高度逻辑性和真实感的新颖片段集合。 以下是简化版伪代码展示如何应用以上原理来进行实际开发: ```python def generate_video_from_image(input_image, model_mllm, diffusion_model): # Step 1: Extract semantic image tokens using pre-trained MLLM. semantic_tokens = model_mllm.encode_to_semantic_tokens(input_image) # Step 2: Concatenate with video latent tokens and perform cross-modal attention computation. concatenated_representation = concatenate_with_video_latents(semantic_tokens) # Step 3: Apply the diffusion process to create coherent frames over time. generated_frames = diffusion_model.generate_coherent_sequence(concatenated_representation) return assemble_into_final_video(generated_frames) ``` 此函数概括了一个典型的工作流:从单张静止画面出发直至获得完整的运动影像序列为止。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值