
Pytorch深度学习
文章平均质量分 74
Pytorch深度学习
张怼怼√
懒就是懒吧!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
3. 非线性回归和逻辑回归(pytorch)
文章目录1.非线性回归1.1激活函数1.2人工神经网络2.逻辑回归 上节看点: 线性回归 1.非线性回归 在生活中大多数的现象都不是线性的,而且更加复杂的曲线或曲面,我们拟合的函数也就不再是直线或者平面。在处理这种非线性的问题方面,人工神经网络发挥了重大的作用。 1.1激活函数 在线性模型中忽略了激活函数的存在,而激活函数的作用是为了让神经网络能够更好的去拟合复杂的函数。 常用的激活函数有:sigmoid、tanh、ReLU、Maxout等,以ReLU为例进行讲解 它的函数表达式为: 图像为: Pyt原创 2021-07-13 21:31:28 · 713 阅读 · 2 评论 -
2. 线性回归
2. 线性回归 将线性回归作为深度学习第一个入门的模型,让我们一起来实现吧! 因为要用到画图,数据制图,所以需要安装matplotlip,使用pip或者anaconda安装都可以。 pip install matplotlib 我们可以利用**scatter( )**方法制作散点图,但是需要注意,使用matplotlib制图时,**传入的Tensor数据格式必须转换成Numpy格式的数据。**示例如下: import torch import matplotlib.pyplot as plt #数据 x=原创 2021-06-01 10:32:48 · 562 阅读 · 2 评论 -
1. Tensor基础
Tensor基础 1. Tensor Tensor又叫做张量,实际上标量、向量和矩阵都是张量。只是标量是0维张量,向量是一维张量,矩阵是二维张量,除此以外,张量还可以向更高维度扩展,四维五维等等。 张量的创建方法 首先需要导入torch的包,使用**torch.Tensor( )**函数创建,传入的参数(2,4)是构造一个2*4的矩阵 import torch x = torch.Tensor(2,4) 使用**torch.DoubleTensor( )**函数创建一个234的64位浮点数 y =原创 2021-05-30 20:49:35 · 421 阅读 · 1 评论