autograd库测试笔记-(一个基于Numpy的自动求导库)

本文介绍Autograd自动求导库的使用方法,包括如何定义和计算线性变换及logistic回归等常见机器学习任务中的梯度。通过具体实例展示了Autograd在处理矩阵运算时的特殊规则。

导入 autograd 库,同时导入这个库里的numpy(应该是作者自己把numpy放入了这个库的命名空间里面)以及逐项求导elementwise_grad

from autograd import grad
import autograd.numpy as np
from autograd import elementwise_grad

接下来定义第一个函数,这个函数非常简单,其实就是一个线性变换:

y n × l = X n × d w d × l \mathbf{y}_{n\times l} = \mathbf{X}_{n\times d} \mathbf{ w} _{d\times l} yn×l=Xn×dwd×l

这个变换也常用于神经网络的输入层。

def lin_func(x,w):
  return np.dot(x,w)

x = np.array([[1,2,3],[4,5,6]])
w = np.array([1,1,1]).astype(float)

print(lin_func(x,w))

[ 6. 15.]

这里也要注意一个问题:autograd并不能支持numpy的所有操作。比如上面的线性变换其实也可以用 x.dot(w) 来实现,但这种方式下就不能再用autograd自动求导了。因此在使用时也要注意看看文档。

接下来写出这个函数的导数 ∂ y ∂ X \frac{\partial \mathbf{y}}{\partial \mathbf{X}} X

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

半个冯博士

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值