《Pytorch深度学习实践》P4 反向传播(Back Propagation) 代码+笔记+作业:非线性函数、Tensor、反向传播图、y=w1·x^2+w2·x+b的计算图与代码

b站的up主刘二大人的《PyTorch深度学习实践》P3作业+笔记+代码,视频链接

目录

1、为什么要加激活函数(非线性函数)?

2、Tensor(张量)

3、两个计算图绘制

4、PPT中代码:y=x*w

5、作业y=w1·x^2+w2·x+b的计算图与代码

计算图:

代码:


1、为什么要加激活函数(非线性函数)?

介绍:激活函数(Activation Function)是神经网络中用于引入非线性特性的函数,它帮助神经网络处理和学习复杂的非线性关系。激活函数的主要作用是在神经元的加权输入基础上进行非线性转换,使得神经网络能够拟合任意复杂的函数和模式。

一个解释:

所以要加一个非线性函数,使得网络能够拟合任意复杂的函数和模式 。 

常用激活函数:Sigmoid函数、Tanh(双曲正切)函数、ReLU、Leaky ReLU、Softmax函数

2、Tensor(张量)

介绍:在深度学习框架中,张量(Tensor)是数据的基本结构,它是多维数组的扩展形式,可以看作是标量、向量、矩阵的高维推广。张量可以包含不同的维度,并支持多种操作,如加法、乘法、转置、切片等。深度学习框架(如PyTorch和TensorFlow)将张量作为数据存储和运算的核心结构。

Tensor和tensor:

  • torch.Tensor 是 PyTorch 中张量类的名称。可以使用这个类来直接创建一个张量,但不常这样做,因为它没有指定默认的数据类型(dtype),具体的行为取决于 PyTorch 的默认设置。
  • torch.tensor() 是一个函数,用来创建张量。这是 PyTorch 中最常用的方式,允许更灵活地指定数据类型、设备(CPU 或 GPU)等。与 torch.Tensor 不同,torch.tensor() 会默认将传入的数据转换为精确类型(默认是 torch.float32)。

创建张量:通过torch.tensor()创建张量。

import torch

# 创建一个1维张量
tensor_1d = torch.tensor([1.0, 2.0, 3.0])
# tensor([1., 2.,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值