分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.youkuaiyun.com/jiangjunshow
也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴!
正则作用的对象是目标函数,如图对均方误差使用 ℓ2 正则:
loss = tf.reduce_mean(tf.square(y-y_) + tf.contrib.layers.l2_regularizer(lambda)(w))
- 1
1. 基本工作原理
weights = tf.constant([[1., -2.], [-3., 4.]])with tf.Session() as sess: print(sess.run(tf.contrib.layers.l1_regularizer(.5)(weights))) # (1+2+3+4)*.5 ⇒ 5 print(sess.run(tf.contrib.layers.l2_regularizer(.5)(weights))) # (1+4+9+16)*.5*.5 ⇒ 7.5
- 1
- 2
- 3
- 4
- 5
- 6
给我老师的人工智能教程打call!http://blog.youkuaiyun.com/jiangjunshow
本文介绍了正则化技术在深度学习模型中的应用,包括ℓ1和ℓ2正则化,通过实例展示了如何在TensorFlow中实现这些正则化方法。同时,分享了一位老师的优秀人工智能教程,适合初学者学习。
5381

被折叠的 条评论
为什么被折叠?



