1. 模型深且瘦,要优于 矮且胖?
在参数一样的前提下,是模型深且瘦好些,还是矮且胖好些???
**
答案:在参数一样的前提下,模型越深越好
。**
2. 在参数不变前提下,为什么模型越深越好???
其实,“加大深度”就相当于函数中的模块化。
也就是“并不急于解决问题,而是把问题切成比较小的问题,再解决”。
而且这样的好处是:“数据集要求低,并不需要太多的数据”
比如:

而“加大深度”就 相当于 模块化。每一层的神经元,就相当于进行了一次“将问题划分为几个小问题。”后面的一层网络就相当于前面一层网络的小问题划分结果。
那么根据上面所说,可得:
deep 就相当于 模块化 。模块化就可以减少数据的需求量。所以deep 只需要比较少的需求量。
为什么我们要做deep learning ,就是因为我们没有足够的data,才会考虑deep learning。
很多人认为玩deep learning 就需要很多很多的数据,其实并不是,deep learning 需要少的数据也可以达到很好的效果。


本文探讨了在参数相同的情况下,为何深层且窄的神经网络模型相较于浅层宽模型更优。文章指出,深层模型通过模块化的方式能更好地分解复杂问题,且在数据需求上更为灵活,适合数据量不足的情况。
1万+





