
Pytorch
文章平均质量分 65
Dontla
这个作者很懒,什么都没留下…
展开
-
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(4)线性神经网络(暂停)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/pytorch中文文档(哪个函数不明白用法查询非常好用)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深原创 2021-08-20 15:01:24 · 3690 阅读 · 0 评论 -
pytorch C++部署模型 ONNX tensorRT
(1)C++部署pytorch模型(上)(2)TensorRT5介绍及Pytorch转TensorRT5代码示例TensorRT的使用步骤:(假设以及有一个训练好的模型)(1) 根据模型创建TensorRT网络定义(2) 调用TensorRT构建器从网络创建优化的运行引擎(3) 序列化和反序列化引擎,以便在运行时快速创建引擎(4) 为引擎提供数据以执行计算(3)一般流程是这样的。cpu: pytorch -> onnx -> onnxruntimegpu:pytorc原创 2021-08-18 22:40:34 · 2286 阅读 · 0 评论 -
pytorch torch.nn.MSELoss(size_average=True)(均方误差【损失函数】)Mean Squared Error(MSE)、SSE(和方差)
class torch.nn.MSELoss(size_average=True)[source]创建一个衡量输入x(模型预测输出)和目标y之间均方误差标准。x 和 y 可以是任意形状,每个包含n个元素。对n个元素对应的差值的绝对值求和,得出来的结果除以n。如果在创建MSELoss实例的时候在构造函数中传入size_average=False,那么求出来的平方和将不会除以n参考文章:https://pytorch-cn.readthedocs.io/zh/latest/packa原创 2021-08-16 14:55:19 · 2419 阅读 · 0 评论 -
pytorch torch.nn.Sequential(* args)(嘎哈用的?构建神经网络用的?)
class torch.nn.Sequential(* args)一个时序容器。Modules 会以他们传入的顺序被添加到容器中。当然,也可以传入一个OrderedDict。为了更容易的理解如何使用Sequential, 下面给出了一个例子:# Example of using Sequentialmodel = nn.Sequential( nn.Conv2d(1,20,5), nn.ReLU(), nn.Conv2d(20,64,5)原创 2021-08-16 11:33:14 · 171 阅读 · 0 评论 -
pytorch nn.Linear(对输入数据做线性变换:y=Ax+b)(全连接层?)
Linear layersclass torch.nn.Linear(in_features, out_features, bias=True)对输入数据做线性变换:y=Ax+b参数:in_features - 每个输入样本的大小out_features - 每个输出样本的大小bias - 若设置为False,这层不会学习偏置。默认值:True形状:输入: (N,in_features)输出: (N,out_features)变量:weight -形状为(out_featu原创 2021-08-16 11:03:36 · 1231 阅读 · 0 评论 -
pytorch zero_()函数(将tensor清零)
用0填充该tensor。可用于梯度清零原创 2021-08-15 20:57:59 · 3088 阅读 · 2 评论 -
pytorch torch.no_grad()函数(禁用梯度计算)(当确保下文不用backward()函数计算梯度时可以用,用于禁用梯度计算功能,以加快计算速度)
Context-manager that disabled gradient calculation.Disabling gradient calculation is useful for inference, when you are sure that you will not call Tensor.backward(). It will reduce memory consumption for computations that would otherwise have requires_gr原创 2021-08-15 20:42:47 · 2936 阅读 · 0 评论 -
pytorch torch.detach函数(返回一个新的`Variable`,从当前图中分离下来的)
detach()[source]Returns a new Variable, detached from the current graph. 返回一个新的Variable,从当前图中分离下来的。返回的Variable requires_grad=False,如果输入 volatile=True,那么返回的Variable volatile=True。注意:返回的Variable和原始的Variable公用同一个data tensor。in-place修改会在两个Variable上同时体现(因为它原创 2021-08-14 13:48:04 · 1068 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(3)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅲ(概率)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/pytorch中文文档(哪个函数不明白用法查询非常好用)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深原创 2021-08-13 10:46:21 · 2113 阅读 · 0 评论 -
pytorch torch.cumsum(input, dim, out=None)函数(沿轴逐级累加)
torch.cumsum(input, dim, out=None) → Tensor返回输入沿指定维度的累积和。例如,如果输入是一个N元向量,则结果也是一个N元向量,第i 个输出元素值为 yi=x1+x2+x3+…+xi参数:input (Tensor) – 输入张量dim (int) – 累积和操作的维度out (Tensor, optional) – 结果张量例子:>>> a = torch.randn(10)>>> a-0.6039-0原创 2021-08-12 10:25:16 · 2478 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(3)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅱ(线性代数、微分、自动求导)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(2)前言(介绍各种机器学习问原创 2021-08-11 19:31:15 · 1112 阅读 · 0 评论 -
pytorch torch.norm(input, p=2) → float、torch.norm(input, p, dim, out=None) → Tensor(求范数)
torch.norm用法1:torch.norm(input, p=2) → float返回输入张量input 的p 范数。参数:input (Tensor) – 输入张量p (float,optional) – 范数计算中的幂指数值例子:(3阶范数就是把各个元素绝对值的三次方求和sum,再对sum开三次根号)>>> a = torch.randn(1, 3)>>> a-0.4376 -0.5328 0.9547[torch.FloatT原创 2021-08-11 10:53:53 · 776 阅读 · 0 评论 -
pytorch 1.9.0 backward函数解释以及报错(RuntimeError: grad can be implicitly created only for scalar outputs)
torch._tensor.Tensor def backward(self, gradient: Optional[Tensor] = None, retain_graph: Any = None, create_graph: Any = False, inputs: Any = None) -> AnyComputes the gradient of current tensor w.r.t. graph leaves.The graph is differentiated usin原创 2021-08-11 09:47:16 · 6108 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(2)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅰ
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)文章目录前言(35)前言(35)...原创 2021-08-06 17:04:53 · 2303 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)
开源项目地址:d2l-ai/d2l-zh书及代码下载链接:https://github.com/d2l-ai/d2l-zh/releases本笔记基于2021年7月26日发布的版本,下载地址在github网页的最下面ps. 本文只挑重点记录文章目录序言序言原创 2021-08-03 22:27:37 · 2103 阅读 · 0 评论 -
pytorch torch.Tensor.numpy()(从张量创建一个numpy数组,数组和张量共享相同内存)
https://pytorch.org/docs/1.1.0/tensors.html?highlight=numpy#torch.Tensor.numpynumpy() → numpy.ndarrayReturns self tensor as a NumPy ndarray. This tensor and the returned ndarray share the same under...原创 2020-04-29 17:39:46 · 1171 阅读 · 0 评论 -
pytorch torch.from_numpy()(从numpy数组创建一个张量,数组和张量共享相同内存)
https://pytorch.org/docs/1.1.0/torch.html?highlight=numpy#torch.from_numpytorch.from_numpy(ndarray) → TensorCreates a Tensor from a numpy.ndarray.从numpy.ndarray创建一个张量。The returned tensor and ndar...原创 2020-04-29 17:37:09 · 2644 阅读 · 0 评论 -
pytorch torch.item()(返回此张量的值作为标准Python数字。 这仅适用于具有一个元素的张量。)
https://pytorch.org/docs/1.1.0/tensors.html?highlight=item#torch.Tensor.itemitem() → numberReturns the value of this tensor as a standard Python number. This only works for tensors with one element....原创 2020-04-29 11:26:26 · 767 阅读 · 0 评论 -
pytorch torch.Tensor.clone()(返回张量自身的副本。 副本具有与自身相同的大小和数据类型。)
https://pytorch.org/docs/1.1.0/tensors.html?highlight=clone#torch.Tensor.cloneclone() → TensorReturns a copy of the self tensor. The copy has the same size and data type as self.返回张量自身的副本。 副本具有与自身相...原创 2020-04-29 11:18:33 · 836 阅读 · 0 评论 -
pytorch torch.device类(表示在其上或将要分配torch.Tensor的设备)
from https://pytorch.org/docs/1.1.0/tensor_attributes.html?highlight=torch%20device#torch.torch.deviceCLASS torch.deviceA torch.device is an object representing the device on which a torch.Tensor is...原创 2020-03-05 16:14:58 · 4085 阅读 · 1 评论 -
pytorch torch.Tensor.new_ones()(返回一个与size大小相同的用1填充的张量。 默认返回的Tensor具有与此张量相同的torch.dtype和torch.device)
from https://pytorch.org/docs/1.1.0/tensors.html?highlight=new_ones#torch.Tensor.new_onesnew_ones(size, dtype=None, device=None, requires_grad=False) → TensorReturns a Tensor of size size filled wit...原创 2020-03-05 15:33:14 · 12744 阅读 · 0 评论 -
pytorch torch.empty()函数(返回填充有未初始化数据的张量。 张量的形状由可变的参数大小定义)
from https://pytorch.org/docs/1.1.0/torch.html#torch.emptytorch.empty(*sizes, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False, pin_memory=False) → TensorReturns a tens...原创 2020-03-05 14:33:46 · 22527 阅读 · 10 评论 -
python pip如何安装wheel文件?.whl(pip install [wheel])
如图,下载了一个pytorch wheel安装文件,如何安装它呢?像我的话,只需要在文件所在文件夹打开控制台窗口,输入:pip install torch-1.1.0-cp36-cp36m-win_amd64.whl即可如参考文章:Python模块 使用pip安装wheel文件...原创 2020-03-01 14:03:31 · 5870 阅读 · 0 评论 -
绘制不同光照条件下识别率多项式拟合曲线图(暂未找到最佳拟合曲线)
@[toc]## 第一种方法```python# -*- coding: utf-8 -*-"""@File : plot.py@Time : 2020/2/24 8:55@Author : Dontla@Email : sxana@qq.com@Software: PyCharm"""import matplotlib.pyplot as pltimport numpy as np# 如发现格式不对可用记事本或notepad批量替换keyword =原创 2020-02-24 09:33:33 · 363 阅读 · 0 评论 -
PyTorch 《动手学深度学习》学习笔记(Dive-into-DL-Pytorch)
参考文章:PyTorch版《动手学深度学习》PDF 版开源了原创 2020-02-23 23:04:49 · 1920 阅读 · 0 评论