深度学习
我的史迪仔
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Tensorflow基于MNIST数据集识别自己的手写数字(读取和测试自己的模型)
转载https://blog.youkuaiyun.com/qq_38269418/article/details/78991649转载 2019-12-05 15:33:31 · 329 阅读 · 0 评论 -
设立计算图并自动计算
【Task2(2天)】设立计算图并自动计算(给代码截图参考) numpy和pytorch实现梯度下降法 设定初始值 求取梯度 在梯度方向上进行参数的更新 numpy和pytorch实现线性回归 pytorch实现一个简单的神经网络 1. numpy和pytorch实现梯度下降法 numpy实现梯度下降 import numpy as np #构造一个函数 def func(x,y): ...原创 2019-05-14 16:16:57 · 260 阅读 · 0 评论 -
PyTorch实现多层网络
用PyTorch实现多层网络(给代码截图参考) 引入模块,读取数据 构建计算图(构建网络模型) 损失函数与优化器 开始训练模型 对训练的模型预测结果进行评估 引入模块 import torch import numpy as np from torch import nn from torch.autograd import Variable import torch.nn.functiona...原创 2019-05-19 20:22:59 · 1590 阅读 · 0 评论 -
PyTorch的基本概念
PyTorch的基本概念 为了完成作业任务,做了以下几个内容的笔记: 1、什么是Pytorch,为什么选择Pytroch? 2、Pytroch的安装 3、配置Python环境 4、准备Python管理器 5、通过命令行安装PyTorch 6、PyTorch基础概念 7、通用代码实现流程(实现一个深度学习的代码流程) 首先介绍一下什么是pytorch,为什么现在开始流行pytorch了。 什么是Py...原创 2019-05-10 16:49:19 · 430 阅读 · 0 评论 -
PyTorch神经网络优化方法
PyTorch神经网络优化方法 了解不同优化器 书写优化器代码 Momentum 二维优化,随机梯度下降法进行优化实现 Ada自适应梯度调节法 RMSProp Adam PyTorch种优化器选择 了解不同优化器 书写优化器代码 Momentum 二维优化,随机梯度下降法进行优化实现 Ada自适应梯度调节法 RMSProp Adam PyTorch种优化器选择 ...原创 2019-05-24 15:11:34 · 693 阅读 · 0 评论 -
PyTorch实现L1,L2正则化以及Dropout
PyTorch实现L1,L2正则化以及Dropout 了解知道Dropout原理 用代码实现正则化(L1、L2、Dropout) Dropout的numpy实现 PyTorch中实现dropout dropout是指在深度学习网络的训练过程中,对于神经网络单元, 按照一定的概率将其暂时从网络中丢弃。(注意是暂时) 对一层神经网络的实施dropout代码实现 d = np.ra...原创 2019-05-21 17:14:42 · 1406 阅读 · 1 评论 -
PyTorch实现逻辑回归
PyTorch实现逻辑回归 线性回归是解决回归问题的,逻辑回归和线性回归很像, 但是它是解决分类问题的(一般 二分类问题:0 or 1)。 也可以多分类问题(用softmax可以实现)。 import torch from torch.autograd import Variable x_data = Variable(torch.Tensor([[0.6], [1.0], [3.5],...原创 2019-05-16 15:16:36 · 935 阅读 · 0 评论 -
用PyTorch完成手写数字识别
pytorch手写数字识别 import torch import torchvision as tv import torchvision.transforms as transforms import torch.nn as nn import torch.optim as optim import argparse # 定义是否使用GPU device = torch.device("cud...原创 2019-05-26 15:49:56 · 3359 阅读 · 0 评论
分享