
深度学习
文章平均质量分 88
记录一些深度学习的基本知识
拜阳
搞算法开发最困难的事情不是推公式,也不是写代码,而是配环境!
展开
-
Pytorch获取特征图
pytorch如何获取多个特征图原创 2022-09-02 14:58:29 · 1883 阅读 · 0 评论 -
TensorFlow1.x如何使用官方预训练模型
文章目录模型下载环境:tensorflow1.13模型:使用vgg19作为例子模型下载官方的预训练模型在tensorflow的model仓库中,完整路径是tensorflow/models/research/slim,请注意选择tf1.13分支:https://github.com/tensorflow/models/tree/r1.13.0/research/slimvgg19的模型下载地址:http://download.tensorflow.org/models/vgg_19_2016_原创 2021-08-27 23:14:59 · 1152 阅读 · 1 评论 -
基于深度学习的图像篡改识别
文章目录不同篡改类型的训练和测试结果高斯模糊中值滤波亮度未完成util.py# -*- coding: utf-8 -*-import osimport cv2import numpy as npdef uniform_random(low, high, shape=None): """ Get uniform random number(s) between low and high Parameters ---------- low: low原创 2021-03-05 00:02:03 · 8201 阅读 · 17 评论 -
基于深度学习的图像超分辨率文献和常用数据
文章目录文献常用数据未完成文献论文简称论文名称文章地址源码地址SRCNNImage Super-Resolution Using Deep Convolutional Networkshttps://arxiv.org/abs/1501.00092http://mmlab.ie.cuhk.edu.hk/projects/SRCNN/SRCNN_train.zip (caffe),http://mmlab.ie.cuhk.edu.hk/projects/SRCNN/SRCN原创 2021-02-10 23:46:01 · 420 阅读 · 2 评论 -
python numpy实现PixelShuffle及其逆变换(depth_to_space,space_to_depth)
文章目录PixelShuffle简介作用与来源特点PixelShuffle的原理numpy的reshape和transpose简介PixelShuffle简介作用与来源PixelShuffle(PyTorch中的方法)的作用主要是增大特征图的空间分辨率,将Tensor的shape从(N,C∗r2,H,W)(N, C*r^2, H, W)(N,C∗r2,H,W)变为(N,C,H∗r,W∗r)(N, C, H*r, W*r)(N,C,H∗r,W∗r),其中rrr必需是整数,所以它只能实现上采样,而不能做到原创 2021-02-08 00:17:39 · 7099 阅读 · 4 评论 -
Pytorch可视化特征图
文章目录未完成未完成# -*- coding: utf-8 -*-import osimport shutilimport timeimport torchimport torch.nn as nnfrom torchvision import transformsfrom torch.utils.data import DataLoaderfrom torchvision import datasetsimport torchvision.utils as vutilimport原创 2020-11-10 00:30:16 · 23990 阅读 · 11 评论 -
CIFAR10攻略:基于TensorFlow2.1
文章目录CIFAR10数据介绍CIFAR10数据介绍原创 2020-06-19 21:51:46 · 638 阅读 · 0 评论 -
MNIST攻略:原始数据解析和基于numpy的全连接网络实现
文章目录数据背景介绍数据下载数据编码格式数据解析单层全连接网络三层全连接网络本文档最后两部分单层全连接网络和三层全连接网络仅有代码实现,没有相应的公式推导,公式推导可参考以下两个文档,配合阅读更容易理解:Softmax以及Cross Entropy Loss求导全连接神经网络公式推导:含正向和反向数据背景介绍MNIST,一般被称为手写数字,读法可能是 /‘em nist’/,是CNN界的...原创 2020-04-22 21:36:08 · 805 阅读 · 0 评论 -
全连接神经网络公式推导:含正向和反向
文章目录符号表示公式推导前向过程反向过程梯度更新Loss层的梯度L2 LossCross Entropy Loss该文档将以含有两个隐藏层的神经网络为基础进行正向和反向的公式推导,因为一个隐藏层的网络太简单,多个隐藏层与两个隐藏层在推导上没有本质区别,所以综合平衡知识性与文档撰写的便捷性,两个隐藏层比较合适。整个文档主要包含以下内容或者特点:符号表示要足够清晰中间步骤尽量详细把batc...原创 2020-04-20 23:07:16 · 3884 阅读 · 0 评论 -
Softmax以及Cross Entropy Loss求导
文章目录Softmax公式及求导Cross Entropy Loss公式及求导示例本文档只讨论Softmax和Cross Entropy Loss两公式的求导,不讨论两公式的来源。Softmax公式及求导记网络在SoftmaxSoftmaxSoftmax之前的输出是 zi,i=1,2,…,nz_i, i=1,2,\ldots,nzi,i=1,2,…,n,也就是说分为nnn类,那么各个类的S...原创 2020-04-17 00:02:02 · 938 阅读 · 0 评论