- 博客(6)
- 收藏
- 关注
原创 Pytorch深度学习笔记(04)--Numpy与Tensor
目录一、Tensor概述二、创建Tensor1、表1 常见的新建tensor方法2、创建张量的方法3、torch.Tensor与torch.tensor的几点区别三、修改Tensor形状表2 tensor常用修改形状的函数 四、索引操作表3 常用选择操作函数五、广播机制六、逐元素操作表4 常见逐元素操作七、归并操作表5 常见的归并操作八、比较操作表6 常用的比较函数 九、矩阵操作 表7 常用矩阵函数十、Pytorch与Numpy比较表8 Pytorch与Numpy函数对照表1、对tensor的操作很多,从接
2022-06-04 18:02:57
671
原创 Pytorch深度学习笔记(03)--Numpy
一、生成Numpy数组二、获取元素三、NumPy的算术运算 四、数组变形五、批量处理(mini-batch)
2022-06-02 20:58:58
778
原创 Pytorch深度学习笔记(02)--损失函数、交叉熵、过拟合与欠拟合
一、损失函数损失函数(loss function)是用来估量你模型的预测值与真实值的差异程度,损失函数越小,模型的鲁棒性就越好。常用损失函数小结平方损失 0-1损失 Log损失 Hinge损失 指数损失 感知损失二、交叉熵损失函数详解一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数。交叉熵主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解下面几个概念。信息量信息量的大小与信息发生的概率成反比。概率越大,信息量越小。概率越小,信息量
2022-04-19 22:14:42
2369
原创 Pytorch深度学习笔记(01)--自动求导、梯度下降、反向传播
目录工具一、Pytorch是什么?张量Tensors二、Autograd: 自动求导(automatic differentiation)1、变量(Variable)核心类2、函数(Function)3、梯度(Gradients)梯度(可简单理解为导数)4、反向传播工具dir():打开,查看里面内容 help():说明书一、Pytorch是什么?他是一个基于Python的科学计算包,目标用户有两类为了使用GPU来替代numpy 一个深度学习援
2022-04-19 22:11:42
1668
原创 安装Node.js,vue时,到webpack出错:npm ERR syscall mkdir
安装文本标注工具doccano时,需要安node和vue,到webpack执行nmp install命令时,出现错误
2022-03-23 20:06:15
949
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人