面经杂谈(1)
8/27,今天刷牛客看到的搜狐面经,为了准备面试,我把看到的面经被问到的问题也自己整理回答下,吸取经验:
1.说说过拟合
首先,在随着训练过程的进行,模型复杂度增加,在训练集上误差逐渐减小,但是在验证集上误差反而越来越大。因为训练出来的网络过度拟合了训练集,对训练集以外的数据不起作用,这就称之为泛化性能不好,泛化性能是训练效果评价中的首要目标。
过拟合则是泛化的反面,实际过程中,降低过拟合的方法一般有:
(1)正则化
L1正则化:目标函数中增加所有权重w参数的绝对值之和, 逼迫更多w为零,也就
原创
2020-08-27 21:30:54 ·
221 阅读 ·
0 评论