我可以给你一些关于 BERT 压缩的一些资料和模型的链接,但是我无法直接提供 30 个 BERT 压缩模型的源码。
- BERT 的一个压缩方法是通过重新训练小型的 BERT 模型来实现。您可以在 TensorFlow 官方文档中了解有关如何训练 BERT 模型的更多信息:https://www.tensorflow.org/tutorials/text/bert
- Hugging Face 公司提供了一个叫做 DistilBERT 的开源 BERT 压缩模型。你可以在这里找到它的源码:https://github.com/huggingface/transformers/tree/mas
文章讨论了BERT模型的压缩技术,提到了通过重新训练小型BERT模型以及使用HuggingFace的DistilBERT开源压缩模型的方法。读者可以参考TensorFlow官方文档学习训练BERT,或在HuggingFace的GitHub仓库获取DistilBERT的源代码。
5万+

被折叠的 条评论
为什么被折叠?



