李沐笔记+课后习题(自动求导)

这篇博客深入探讨了自动求导的概念,包括向量链式法则,以及其在计算函数导数中的应用。通过介绍计算图,解释了自动求导的正向和反向模式,并讨论了它们的复杂度。此外,文中提出了一些课后练习,如比较一阶和二阶导数的计算开销,以及在不同输入情况下反向传播的影响,强调了在控制流中分析梯度的重要性。最后,通过一个具体的例子展示了如何绘制sin(x)及其导数的图像,不依赖于标准导数公式。

向量链式法则:

自动求导:(计算一个函数在指定值上的导数)

计算图:

 

 

 自动求导的两种模式:(正向和反向)

### 关于深度学习自动求导的内容 #### 自动求导的概念与重要性 自动求导是一种用于高效计算函数导数的技术,尤其适用于复杂的多层神经网络中的梯度计算。对于含有大量训练参数的模型来说,手动推导和编程实现这些导数既耗时又容易出错。因此,现代深度学习框架通常内置了高效的自动微分工具来简化这一过程。 #### 反向传播算法及其工作原理 反向模式即所谓的BP(Backpropagation)算法,它依赖于链式法则来进行误差信号沿网络传播的操作。通过一次完整的前向遍历以及随后的一次反向遍历,该方法能够有效地计算出所有权重相对于损失函数的变化率——也就是所需的梯度信息[^3]。 #### 动手实践:基于PyTorch的手动构建自定义Layer并应用自动求导机制 为了更好地理解如何利用现有的库特性实现自己的模块化组件,下面给出一段简单的Python代码片段作为示范: ```python import torch.nn as nn from d2l import torch as d2l class CustomLinear(nn.Module): def __init__(self, input_dim, output_dim): super(CustomLinear, self).__init__() self.weight = nn.Parameter(torch.randn(output_dim, input_dim)) self.bias = nn.Parameter(torch.zeros(output_dim)) def forward(self, X): linear_output = torch.matmul(X, self.weight.t()) + self.bias return linear_output # 测试自定义线性层 if __name__ == "__main__": layer = CustomLinear(input_dim=5, output_dim=3) inputs = torch.rand((4, 5)) # 创建随机输入张量 (batch_size=4, feature_num=5) outputs = layer(inputs) print(outputs.shape) loss_fn = nn.MSELoss() target = torch.ones_like(outputs) loss = loss_fn(outputs, target) # 计算梯度 loss.backward() # 打印部分参数梯度 print(layer.weight.grad.mean(), layer.bias.grad.mean()) ``` 这段程序展示了怎样创建一个继承自`nn.Module`类的新类型,并重写其中的关键成员函数以适应特定需求;同时说明了当调用`.backward()`之后,系统会自动完成相应的梯度累积操作,从而使得后续优化器更新变得简单可行。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值