深度学习的数学原理

在网络中,假定输入为X,输出为Y,其网络结构的参数为W和b,每次训练的损失函数为L(w,b),Cost函数J(w,b)

则:Y= W*X+b

也就是W和b与网络模型的好坏的直接相关;同时训练就是训练的W和b参数让J最小

 

参数修正

TF图:

在tf中存在计算图的前向传导和BP(后向传导)修正参数,假定计算:F(a,b,c) =  3(a+bc)

d代表计算梯度,则:


由上图知:计算图是从前向后计算,而计算梯度则是从后向前计算(故叫BP)。


损失函数及其代价函数:





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值