前天粗略看了GAN论文,今天看到一个关于L1可以使网络变稀疏的办法,一直疑惑L1和L2的作为是什么,以及为什么可以这样用。
看了很多解释,大概了解了一点,下面总结一下自己的看法。(本来想打字的,发现公式和图太麻烦了,就偷懒了一下~)

本文探讨了L1和L2正则化的应用及其如何影响神经网络的稀疏性。通过对比两种方法的作用原理,作者分享了个人见解,并讨论了它们在实际场景中的运用。
前天粗略看了GAN论文,今天看到一个关于L1可以使网络变稀疏的办法,一直疑惑L1和L2的作为是什么,以及为什么可以这样用。
看了很多解释,大概了解了一点,下面总结一下自己的看法。(本来想打字的,发现公式和图太麻烦了,就偷懒了一下~)

1万+
867

被折叠的 条评论
为什么被折叠?