tf.random_normal与tf.truncated_normal的区别

本文详细对比了TensorFlow中tf.random_normal与tf.truncated_normal两种随机数生成方式的差异,阐述了使用截断正态分布生成随机数如何避免神经网络训练中的饱和问题,尤其是在使用如sigmoid这样的激活函数时。
部署运行你感兴趣的模型镜像

tf.random_normal与tf.truncated_normal的区别

  1. 定义
    The generated values follow a normal distribution with specified mean and standard deviation, except that values whose magnitude is more than 2 standard deviations from the mean are dropped and re-picked.

  2. 与tf.random_normal的不同之处

tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)outputs random values from a normal distribution.
tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)outputs random values from a truncated normal distribution.

在这里插入图片描述

  1. 价值在于:
    The point for using truncated normal is to overcome saturation of tome functions like sigmoid (where if the value is too big/small, the neuron stops learning).
    即为了克服神经网络在利用某些激活函数学习时,例如sidmoid,会在值过大活过小时停止学习的缺点。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

在学习莫烦tensorflow过程中,您可能会遇到tf.random_normal被取代的情况。tf.random_normal函数用于生成符合正态分布的随机张量。然而,根据引用和引用的说法,有时候人们会使用numpy库下的random模块中的normal函数来代替tf.random_normal函数,可能是因为对两者的区别不太清楚。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [tf.random_normal()和numpy.random.normal()区别](https://blog.csdn.net/pcy1127918/article/details/81270921)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [tf.truncated_normaltf.random_normal的详细用法](https://download.csdn.net/download/weixin_38677806/12870233)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [tf.random_normal()函数](https://blog.csdn.net/weixin_30278237/article/details/95614943)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值