NAS-Bert——确保One-shot与Task-agnostic

NAS-Bert在Bert的预训练阶段采用权重共享的One-shot NAS,旨在满足跨平台资源限制的模型压缩和下游任务的迁移学习。通过Block-wise搜索和知识蒸馏提高效率,使用渐进式Shrinking策略降低搜索空间。在GLUE Benchmark上展示了优于手工设计和其它压缩策略的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Paper地址:https://arxiv.org/abs/2105.14444

概述

NAS-Bert在大规模预训练阶段(Bert自监督预训练),通过实施权重共享形式的One-shot NAS,实现了Once for all与Task-agnostic两个目的,分别满足不同平台资源约束的压缩需求、以及不同下游任务的迁移训练需求。

Method

  • 搜索空间:基于Weight-sharing的特点(Single-path One-shot形式),每个Bert layer(进一步细分为2个Sub-layer)由一系列候选的Block-choice并排而成,共同构成了超网络。这些Block-choice包括MHA、FFN、SepConv与Identity四个基本模块结构,且由不同的Attention heads数、Hidden size与kernel size决定了26个候选的Operations。搜索空间具体如下所示:

    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值