阿里妈妈技术

阿里妈妈官方技术号,关于阿里妈妈的技术创新均呈现于此~ 欢迎关注

  • 博客(582)
  • 收藏
  • 关注

原创 隐私信息检索(PIR)技术 | 查询者与数据库的隐形博弈

受益于安全多方计算技术的快速进步,PIR的计算效率和实用性显著提升,已广泛应用于跨机构数据协作、医疗隐私查询、区块链智能合约等高安全场景,成为平衡数据利用与隐私保护的关键基础设施。PIR 从“能否安全检索”的理论可行性,逐步走向“如何高效可用”的工程实践,再到“面向业务部署”的多场景融合。双侧PIR(Double-sided PIR 或 Symmetric PIR):同时保护查询方与数据提供方的隐私,防止用户获取除目标数据外的任何额外信息,也防止服务器获知查询内容,常用于对数据暴露敏感的场景。

2025-08-20 19:01:40 520

原创 隐私集合运算(PSO)技术

2022年,Vos等人实现了集合元素的安全“与”运算,基于椭圆曲线密码学(ECC)的高性能与群运算交换性优势,提出了迄今针对大规模数据集效率最高的多方 PSI 协议。,将多种协议的实现整合到一个系统化结构内,通过引入多查询反向成员测试(multi-query Reverse Private Membership Test, mq-RPMT)的新型基础协议,同时使用OT协议实现协同计算,支持快速构建 PSI-Card、PSI-Card-Sum以及 PSU 等协议。,用于表示对方元素是否属于交集。

2025-08-13 19:00:29 926

原创 隐私增强技术(PETs)综述 | 一文了解隐私计算技术发展脉络

早期的差分隐私技术应用于交互式数据库查询(如统计查询),并由起初的中心化差分隐私(Central Differential Privacy,CDP)衍化出了本地化差分隐私(Central Differential Privacy,LDP),随后各类差分隐私机制(如拉普拉斯机制、高斯机制)不断涌现和完善,又衍生出近似差分隐私、Renyi差分隐私、零集中差分隐私等多种变体,支持不同场景下的实际应用。在确保数据安全合规和隐私保护的前提下,如何释放多方数据融合的价值,已成为推动行业发展的关键。

2025-08-06 19:00:23 926

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

摘要作为支撑平台核心商业价值的关键基础设施,淘宝展示广告系统每日需处理数以亿计用户的高并发广告请求。系统推荐质量与资源利用效率直接影响平台营收与用户体验。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。为此,我们提出了ComRecycle智能算力回收框架:通过缓存与复用召回、粗排、精排阶段的透出广告集合,在保障推荐效果的前提下实现算力资源的精细化调度,从而提升计算资源利用效

2025-08-06 19:00:23 753

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 777

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 737

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 545

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 724

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 515

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 787

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 926

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 957

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 709

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 1007

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 709

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 786

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 725

原创 KDD‘25 | 在线广告系统的智能算力资源回收框架

如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。

2025-08-06 19:00:23 727

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 590

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 651

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 869

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 876

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

本文分享阿里妈妈智能创作与AI应用团队在扩散生成模型上提出的快速采样方法。借助精心设计的可微分求解器搜索方法,可获取不同模型在给定步数下的高质量采样路径。基于该项工作总结的论文已被 ICML 会议录用,欢迎阅读交流。论文:Differentiable Solver Search for Fast Diffusion Sampling作者:Shuai Wang, Zexian Li, Qipeng zhang, Tianhui Song, Xubin Li, Tiezheng Ge, Bo Zheng, Li

2025-07-23 18:01:08 679

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 939

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 931

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 714

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 852

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 1027

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 563

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 819

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 720

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 730

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 597

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 1002

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 866

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 992

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 349

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 817

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 902

原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索

实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。

2025-07-23 18:01:08 996

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除