腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈
产生背景
工作原理
可以看出,损失比之前增加了,他的标签平滑的原理是对真实标签做了改变,
源码里的公式为:
new_onehot_labels = onehot_labels * (1 - label_smoothing) + label_smoothing / num_classes
腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈
