
1
简介
主要讲解了transfer learning 和 NLP 的原理会用到大量的callbacks
MixUp:一个数据增强技术,用更少的数据,更少的训练时间,实现同样的效果
Label Smoothing:和MixUp搭配使用,适用于label中有噪音的情况(即错误数据)
Mixed Precision Traing:混合精度的训练,在许多场景下都能快3倍以上
XResNet:ResNet的升级版本,重新部署下
ULMFiT:文本分类 的通用语言模型 微调 Universal Language Model Fine-tuning for Text Classification
LSTM RNN
处理NLP数据
2
MixUp
就是随机把2张图重叠到一起,让机器去识别这两种的可能性,最终可以实现用更少的数据得到更好的效果。
调用方式 Learner.mixup( )如下图:70%是高尔夫球 30%是狗

3
Label Smoothing
训练时有些数据被错误的标记,尤其是数据量很大时,很难一个

本文介绍了深度学习中的进阶训练技术,包括LSTM、MixUp、Label Smoothing、Mixed Precision Training和XResNet。重点讲解了ULMFiT,这是一个用于文本分类的通用语言模型微调方法。同时,阐述了如何处理NLP数据,如使用TextList、Tokenize Processor和Numericalize Processor。文章还涉及了AWD-LSTM,一种结合Dropout的LSTM模型,并提供了数据准备和模型训练的详细步骤。

最低0.47元/天 解锁文章
1837





