分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.youkuaiyun.com/jiangjunshow
也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴!
二项分布(binomial distribution):
比如denoising autoencoder对原始输入的加噪机制这想法真的很酷,通过学习(特指监督学习)的方式,获得对含噪输入较强的鲁棒结果。
def get_corrupted_input(self, input, corruption_level): return self.theano_rng.binomial( size=input.shape, n=1, p=1-corruption_level, dtype=theano.config.floatX)*input
- 1
- 2
- 3
- 4
- 5
再比如避免overfitting的dropout机制(这时屏蔽的是神经网络的部分节点也就是神经元neuron):
def dropout_layer(layer, p_dropout): mask = theano_rng.binomial(n=1, p=1-p_drop_out, size=layer.shape) return layer*T.cast(mask, theano.config.floatX)
- 1
- 2
- 3
给我老师的人工智能教程打call!http://blog.youkuaiyun.com/jiangjunshow
本文深入探讨了二项分布如何应用于神经网络训练中,包括dropout和输入加噪等技术,以增强模型鲁棒性和防止过拟合。
848

被折叠的 条评论
为什么被折叠?



