2025KDD-runner up-Put Teacher in Student’s Shoes: Cross-Distillation for Ultra-compact Model Compres

一、文章主要内容总结

该研究针对移动边缘设备等资源受限场景下NLP模型部署的核心痛点(隐私合规、实时响应、多任务支持),提出了EI-BERT(Edge ultra-lIte BERT)框架,通过“硬令牌剪枝+交叉蒸馏+参数量化”的全流程压缩方案,实现了超紧凑的BERT-based模型。核心成果包括:

  1. 极致压缩性能:最终模型仅1.91MB,相比BERT-base压缩99.5%,是目前已知最小的NLU任务专用模型,且在CLUE基准和支付宝内部数据集上保持稳健性能;
  2. 核心技术 pipeline
    • 学生模型预训练:基于tiny ALBERT2,通过因子化嵌入和跨层参数共享简化架构;
    • 硬令牌剪枝:基于注意力概率计算令牌重要性,剔除冗余令牌以降低存储负担;
    • 交叉蒸馏:创新地让教师模型“换位思考”,通过参数整合(复用教师任务特定层)和师生动态交互(交替更新、双损失函数对齐)实现高效知识迁移;
    • 模块级INT8量化:在关联层间全局最小化量化误差,适配移动硬件;
  3. 工业级部署验证:已成功应用于支付宝生态三大核心场景(边缘推荐系统、智能助手、小程序隐私NLU),支持840万日活设备,实现低延迟(95分位延迟<80ms)、隐私保护(本地处理)和业务指标提升(如优惠券推荐CTR提升3.3%)。

二、文章创新点

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值