昇思25天学习打卡营第11天|初学入门-函数式自动微分

昇思25天学习打卡营第11天|初学入门-函数式自动微分

训练使用的反向传播算法:

模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)

下面是大概得计算图:z=wx+b,然后z和y进入损失函数计算loss,这里的w和b为参数,有点像高中的线性回归,但是w是一个矩阵,里面的参数有很多。
在这里插入图片描述

梯度的获取:

  1. grad 是一个可以计算梯度的函数
  2. 元组(2,3)代表对函数funtion的第3、4个参数作为w和b进行求导
  3. 返回的梯度即使对w和b求导后的导数
  4. w的shape为(5,3)其中 5 是输入 x 的特征数,3 是输出 z 的特征数(即输出类别数)(input_size, output_size)
  5. b的shape为(3,)),偏置值(output_size)

在这里插入图片描述

梯度的选取

  1. grad函数会对函数的所有返回值进行求导工作,所以,可以的function函数设置多个return值进行求导
  2. ops.stop_gradient(z)可以阻断梯度的传播,从而消除某个输出项对梯度的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值