- 预处理
减均值->zscore->白化
- LRN(norm1), BN, Drop-ou
确实 LRN 做的是一种局部竞争的作用,所以会有某类型的增强效果。因为效果有限所以近年来渐渐用得较少,大体被其他技巧如 dropout 和 batch normalization 取代了。
这里有些相关资料: http://stats.stackexchange.com/questions/145768/importance-of-local-response-normalization-in-cnn
本文探讨了预处理技术在卷积神经网络(CNN)中的应用,特别是介绍了减均值、Z-Score标准化、白化、局部响应归一化(LRN)等技术的作用与效果。文中提到LRN虽能带来局部的竞争效应,但因其效果有限,近年来已被Dropout和Batch Normalization等其他技术所替代。
减均值->zscore->白化
3461

被折叠的 条评论
为什么被折叠?