目前确实仅支持分类任务,目前在工业界中很多任务都可以转换成分类任务,例如双句匹配等。其他任务的支持还需要进一步研究,欢迎持续关注。
而且这个加速优势只在测试阶段明显,训练时候所有branch都要训练反而增加负担
2-我觉得分类、序列标注、句间关系等判别任务都可以用,但论文中确实只验证了分类和句间关系


https://github.com/autoliuweijie/FastBERT
Reducing Transformer Depth on Demand with Structured Dropout:
https://zhuanlan.zhihu.com/p/127869267
FastBERT: a Self-distilling BERT with Adaptive Inference Time:
https://arxiv.org/abs/2004.02178
K-BERT: Enabling Language Representation with Knowledge Graph:
https://arxiv.org/abs/1909.07606
FastBERT是一种改进的BERT模型,它通过自我蒸馏和结构化dropout策略实现自适应推理时间,从而在保证精度的同时显著提高推理速度。这种方法在分类和句间关系任务上表现出色,尤其在测试阶段加速效果明显。尽管如此,FastBERT在训练阶段由于所有分支都需要训练,可能会增加计算负担。
2150





