数字人视频生成技术正迅速成为增强人机交互体验的核心手段之一。然而,现有方法在实现低延迟、多模态控制与长时序一致性方面仍存在显著挑战。大多数系统要么计算开销巨大,无法实时响应,要么只能处理单一模态输入,缺乏真正的交互能力。
为了解决这些问题,快手可灵团队(Kling Team) 提出了一种名为 MIDAS(Multimodal Interactive Digital-human Synthesis)的新型框架,通过自回归视频生成结合轻量化扩散去噪头,实现了多模态条件下实时、流畅的数字人视频合成。该系统具备三大核心优势:
-
64×高压缩比自编码器,将每帧压缩至最多60个token,大幅降低计算负荷;
-
低于500ms端到端生成延迟,支持实时流式交互;
-
4步扩散去噪,在效率与视觉质量间取得最佳平衡。
该项研究已被广泛实验验证,在多语言对话、歌唱合成甚至交互式世界建模等任务中表现出色,为数字人实时交互提供了全新解决方案。

-
论文地址:https://arxiv.org/pdf/2508.19320
-
主页地址:https://chenmingthu.github.io/milm/
一、核心创新
多模态指令控制机制
MIDAS 支持从音频、姿态到文本等多种输入信号。通过一个统一的多模态条件投影器,将不同模态编码到共享潜在空间,形成全局指令令牌,构建 frame-by-frame 的 chunk 注入,引导

最低0.47元/天 解锁文章
4462

被折叠的 条评论
为什么被折叠?



