- 博客(582)
- 收藏
- 关注
原创 隐私信息检索(PIR)技术 | 查询者与数据库的隐形博弈
受益于安全多方计算技术的快速进步,PIR的计算效率和实用性显著提升,已广泛应用于跨机构数据协作、医疗隐私查询、区块链智能合约等高安全场景,成为平衡数据利用与隐私保护的关键基础设施。PIR 从“能否安全检索”的理论可行性,逐步走向“如何高效可用”的工程实践,再到“面向业务部署”的多场景融合。双侧PIR(Double-sided PIR 或 Symmetric PIR):同时保护查询方与数据提供方的隐私,防止用户获取除目标数据外的任何额外信息,也防止服务器获知查询内容,常用于对数据暴露敏感的场景。
2025-08-20 19:01:40
520
原创 隐私集合运算(PSO)技术
2022年,Vos等人实现了集合元素的安全“与”运算,基于椭圆曲线密码学(ECC)的高性能与群运算交换性优势,提出了迄今针对大规模数据集效率最高的多方 PSI 协议。,将多种协议的实现整合到一个系统化结构内,通过引入多查询反向成员测试(multi-query Reverse Private Membership Test, mq-RPMT)的新型基础协议,同时使用OT协议实现协同计算,支持快速构建 PSI-Card、PSI-Card-Sum以及 PSU 等协议。,用于表示对方元素是否属于交集。
2025-08-13 19:00:29
926
原创 隐私增强技术(PETs)综述 | 一文了解隐私计算技术发展脉络
早期的差分隐私技术应用于交互式数据库查询(如统计查询),并由起初的中心化差分隐私(Central Differential Privacy,CDP)衍化出了本地化差分隐私(Central Differential Privacy,LDP),随后各类差分隐私机制(如拉普拉斯机制、高斯机制)不断涌现和完善,又衍生出近似差分隐私、Renyi差分隐私、零集中差分隐私等多种变体,支持不同场景下的实际应用。在确保数据安全合规和隐私保护的前提下,如何释放多方数据融合的价值,已成为推动行业发展的关键。
2025-08-06 19:00:23
926
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
摘要作为支撑平台核心商业价值的关键基础设施,淘宝展示广告系统每日需处理数以亿计用户的高并发广告请求。系统推荐质量与资源利用效率直接影响平台营收与用户体验。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。为此,我们提出了ComRecycle智能算力回收框架:通过缓存与复用召回、粗排、精排阶段的透出广告集合,在保障推荐效果的前提下实现算力资源的精细化调度,从而提升计算资源利用效
2025-08-06 19:00:23
753
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
777
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
737
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
545
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
724
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
515
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
787
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
926
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
957
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
709
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
1007
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
709
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
786
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
725
原创 KDD‘25 | 在线广告系统的智能算力资源回收框架
如表1 所示,从重复请求的时间间隔分布(当前请求与前次请求的间隔)来看,绝大多数请求呈现高频短周期特征:46%的重复请求间隔小于10秒,75%集中在2分钟内。基于淘宝平台的真实数据分析发现,大量用户在浏览完整系统返回的商品卡片时会发起大量重复请求,导致系统重复执行召回、粗排、精排等多阶段计算,但最终仅获得少量广告曝光,造成显著算力资源浪费。以未实施任何回收策略的原广告系统为基线,通过调节效率衰减阈值,ComRecycle在维持与基线相当的投放效率的同时,节省了23%CPU与22%GPU的推理资源。
2025-08-06 19:00:23
727
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
590
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
651
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
869
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
876
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
本文分享阿里妈妈智能创作与AI应用团队在扩散生成模型上提出的快速采样方法。借助精心设计的可微分求解器搜索方法,可获取不同模型在给定步数下的高质量采样路径。基于该项工作总结的论文已被 ICML 会议录用,欢迎阅读交流。论文:Differentiable Solver Search for Fast Diffusion Sampling作者:Shuai Wang, Zexian Li, Qipeng zhang, Tianhui Song, Xubin Li, Tiezheng Ge, Bo Zheng, Li
2025-07-23 18:01:08
679
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
939
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
931
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
714
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
852
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
1027
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
563
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
819
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
720
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
730
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
597
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
1002
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
866
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
992
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
349
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
817
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
902
原创 ICML‘25 | 扩散模型的快速采样:可微分求解器搜索
实验表明,我们搜索到的求解器极大地提升了预训练模型的性能,并且遥遥领先于传统的求解器。在 ImageNet-256x256 数据集上,仅用10步,我们的求解器就使 SiT-XL/2 和 FlowDCN-XL/2 这类校正流模型(Rectified-Flow model)达到了 2.40 和 2.35 的FID分数,在经典的DDPM/VP模型上,我们的求解器帮助 DiT-XL/2 模型在 10 步内达到了 2.33 的FID,大幅超越了 DPMSolver++ 和 UniPC 等现有方法。
2025-07-23 18:01:08
996
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人