L1神经网络与深度学习-2.3logistic回归损失函数

y^{(i)}\widehat{y}^{(i)}是针对一个训练样本来说的,有圆括号的上标可以区分是哪个样本,方便引用说明,比如你的第i个训练样本x^{(i)}对应的预测值是\widehat{y}^{(i)}


loss(error) function 损失函数:

损失函数通常不定义为这个形式,因为当你学习这些参数的时候,你会发现之后讨论的优化问题,会变成非凸的,最后会得到很多个局部最优解,梯度下降法可能找不到全局最优值【课程后面会讲】

用这个损失函数:

含义解释
y只可能为0或1

如果y等于1,函数变为如上形式
为了让损失函数足够小,那么\widehat{y}就要尽可能大,但是\widehat{y}在0-1之间,所以\widehat{y}要接近于1,也就接近y

如果y等于0

-log(1-\widehat{y})尽可能小,(1-\widehat{y})尽可能大,\widehat{y}尽可能接近0

loss function定义在单个训练样本中,衡量在单个训练样本的表现
cost function 衡量全体样本上的表现

根据之前得到的参数w和b,对损失函数求和取平均

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值