
深度学习
文章平均质量分 80
assassin_sword
愿得一人心白首不分离
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NCNN INT8实现
2.4 INT8量化实现-校准实现(python)下一篇详细说说代码实现的细节部分,以及相关的知识,比如我们为什么要做分布的smooth处理。第三章INT8移动端实现在这部分,我将以自顶向下的方式叙述INT8的kernel实现原理及过程,其中包括开源的NCNN INT8版本以及我优化后INT8版本(QNNPACK INT8版本在《QNNPACK调研》中有详细论述,此文略过仅在最后做数据对比)。3.1 NCNN INT8实现3.1.1 底层量化处理整体流程在每层计算时是需要..转载 2021-03-24 02:13:13 · 1889 阅读 · 0 评论 -
Ubuntu 20.04安装CUDA 11.0、cuDNN 8.0.5、PyTorch 1.7.0
Ubuntu 20.04安装CUDA 11.0、cuDNN 8.0.5、PyTorch 1.7.0转载请注明出处 BooTurbohttps://www.cnblogs.com/booturbo/p/13960935.html因为电脑漏洞的缘故,前几天将Ubuntu18.04换成了20.04,无奈要重装PyTorch等环境,只有CUDA11.0以上版本才支持Ubuntu20.04,所以安装了CUDA11.0、cuDNN8.0.5及PyTorch1.7.0。这里记录下过程,以...转载 2021-02-07 23:03:47 · 1690 阅读 · 0 评论 -
Convert ONNX model file to Caffe2 model file(pb)
Convert ONNX model file to Caffe2 model file(pb)onnx-caffe2 has bundled a shell command convert-onnx-to-caffe2 for converting ONNX model file to Caffe2 model file.$ convert-onnx-to-caffe2 assets/squeezenet.onnx --output predict_net.pb --init-net-output i原创 2021-01-29 00:03:02 · 288 阅读 · 0 评论 -
run onnx model with tf-backend and onnxruntime-gpu
onnx.__version__'1.8.0'import torchvision.models as modelsresnet18 = models.resnet18(pretrained=True)Downloading: "https://download.pytorch.org/models/resnet18-5c106cde.pth" to C:\Users\KangningCAI/.cache\torch\hub\checkpoints\resnet18-5c106cde.pt..原创 2021-01-23 08:23:16 · 1113 阅读 · 3 评论 -
ONNX结构分析
ONNX结构分析onnx将每一个网络的每一层或者说是每一个算子当作节点Node,再由这些Node去构建一个Graph,相当于是一个网络。最后将Graph和这个onnx模型的其他信息结合在一起,生成一个model,也就是最终的.onnx的模型。onnx.helper----node、graph、model在构建onnx模型这个过程中,这个文件至关重要。其中make_node、make_graph、make_model是不可或缺的。make_tensor_value_info和make_tensor转载 2021-01-20 23:09:58 · 2383 阅读 · 0 评论 -
转换&优化 onnx模型
1. tf 转onnx使用TensorFlow框架训练模型,然后导出为ONNX格式,一般需要经历以下几个步骤:训练(Training)转PB文件(Graph Freezing)模型格式转换(Model Conversion)1.1 训练(Training)为了成功将TF model转成ONNX model,需要准备3部分信息:TF的图定义,即只包含网络拓扑信息(不含权重信息)。获取方法为在inference代码中,插入以下代码进行输出:with open("net.proto", "原创 2021-01-17 20:08:15 · 4366 阅读 · 1 评论 -
onnx内部结构 -- 摘录
1. onnx 结构分析onnx将每一个网络的每一层或者说是每一个算子当作节点Node,再由这些Node去构建一个Graph,相当于是一个网络。最后将Graph和这个onnx模型的其他信息结合在一起,生成一个model,也就是最终的.onnx的模型...原创 2021-01-17 20:03:56 · 1635 阅读 · 0 评论 -
onnx修改教程
1. 载入ONNX文件输出该模型的节点个数,还有节点中的属性信息,当然也包含静态图的链路形状。import onnxonnx_model = onnx.load("test.onnx")graph = onnx_model.graphnode = graph.nodefor i in range(len(node)): print(node[i])2. 搜索目标节点for i in range(len(node)): if node[i].op_type == 'Con原创 2021-01-16 23:46:10 · 8545 阅读 · 1 评论 -
卷积原理:几种常用的卷积(标准卷积、深度卷积、组卷积、扩展卷积、反卷积)
转载自:https://blog.youkuaiyun.com/chenyuping333/article/details/82531047?utm_source=blogxgwz60、标准卷积默认你已经对卷积有一定的了解,此处不对标准卷积细讲。举个例子,假设有一个3×3大小的卷积层,其输入通道为16、输出通道为32。那么一般的操作就是用32个3×3的卷积核来分别同输入数据卷积,这样每个卷积核需要3×3×16个参数,得到的输出是只有一个通道的数据。之所以会得到一通道的数据,是因为刚开始3×3×16的卷积核转载 2021-01-10 22:47:18 · 2422 阅读 · 0 评论 -
面向边缘设备的轻量神经网络 --报告
黄高 清华大学自动化系助理教授2020.12.10在这里插入图片描述轻量化的模型神经网络结构搜索动态模型transformer在视觉里面的结构设计右边三个 是 结构搜索出来的模型,更大的搜索空间NAS四个关键问题离散搜索问题怎样将神经网络结构的设计问题 转换为 搜索问题?搜索集定义的很好,即使随便挑一个出来 也能做的非常好~基于可微分的方法进行优化动态神经网络的工作imageNet大模型到底比小模型好在哪里?总有一些不典型的照片~正确预测原创 2020-12-31 01:31:00 · 656 阅读 · 2 评论 -
图像检索简介--笔记
1. 图像检索入门定义,典型应用,使用流程文字检索 TBIR从内容检索 CBIR应用场景:拍照购服装检索人脸识别内容审核成熟的图像检索不仅是算法问题,也是一个工程问题不同的检索任务有不同的检索逻辑和排序逻辑;检索的本质:特征提取:如何将图像的内容进行有效表示相似度计算:如何衡量图像的相似性2. 图像检索特征2.1 挑战:相差万里的图像也有可能是相似的;相同物体检索面临的挑战:光照变化角度变化视角变化遮挡背景杂乱相似类别图像检索面临的挑战:类内变化巨大原创 2020-12-13 22:54:34 · 2634 阅读 · 0 评论 -
yolo目标检测系列--综述--v3
Joseph Redmon , Ali Farhadi.YOLOv3: An Incremental Improvement. 2018https://arxiv.org/abs/1804.02767yolo v3性能类别预测多尺度特征融合YOLO v3 网络结构Feature Pyramid Networks (FPN) like Feature PyramidDarknet-53 Feature extractor边界框预测和代价函数计算 (Bounding box原创 2020-09-10 00:01:37 · 384 阅读 · 0 评论 -
yolo目标检测系列--综述--v2
Joseph Redmon , Ali Farhadi.YOLO9000: Better, Faster, Stronger. CVPR 2017 (Best Paper Honorable Mention)https://arxiv.org/abs/1612.08242YOLO v2 简述•YOLOv2是YOLO的第二个版本,其目标是在提高速度的同时显著提高准确度。改进之处(1) YOLO v2: 使用一系列的方法对YOLO v1进行了改进,在保持原有速度的同时提升准确度(2) YOLO9原创 2020-09-10 00:01:18 · 345 阅读 · 0 评论 -
yolo目标检测系列--综述--v4
网络结构CSPNetMish激活函数每经过一个CSPn,有一次下采样。Feature Pyramid Networks (FPN)SPP (Spatial Pyramid Pooling)PANet (Path Aggregation Network)YOLOv4损失函数IOUGIoU (Generalized Intersection over Union)DIoUCIoU (Complete IoU) Loss...原创 2020-09-10 00:00:47 · 328 阅读 · 0 评论 -
yolo目标检测系列--综述--v1
YOLO目标检测系列发展史一、yolo v1Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi.You Only Look Once: Unified, Real-Time Object Detection. CVPR 2016https://arxiv.org/abs/1506.026401.1 You Only Look Once: Unified, Real-Time Object Detection• YOLO将全图划原创 2020-09-09 23:59:44 · 1496 阅读 · 0 评论 -
增强CNN学习能力的Backbone:CSPNet
增强CNN学习能力的Backbone:CSPNetCSPNet全称是Cross Stage Partial Network,主要从一个比较特殊的角度切入,能够在降低20%计算量的情况下保持甚至提高CNN的能力。CSPNet开源了一部分cfg文件,其中一部分cfg可以直接使用AlexeyAB版Darknet还有ultralytics的yolov3运行。1. 简介Cross Stage Partial Network(CSPNet)就是从网络结构设计的角度来解决以往工作在推理过程中需要很大计算量转载 2020-09-09 14:57:23 · 633 阅读 · 0 评论 -
简单认识Adam优化器
简单认识Adam优化器基于随机梯度下降(SGD)的优化算法在科研和工程的很多领域里都是极其核心的。很多理论或工程问题都可以转化为对目标函数进行最小化的数学问题。按吴恩达老师所说的,梯度下降(Gradient Descent)就好比一个人想从高山上奔跑到山谷最低点,用最快的方式(steepest)奔向最低的位置(minimum)。SGD基本公式动量(Momentum)参考链接:https://distill.pub/2017/momentum/基本的mini-batc.转载 2020-09-08 15:55:11 · 4093 阅读 · 0 评论 -
为什么“梯度下降法的神经网络容易收敛到局部最优”是个错觉--笔记
一、我们可能从来没有找到过“局部最优”,更别说全局最优了。作者:五楼whearer链接:https://www.zhihu.com/question/68109802/answer/262143638深度神经网络“容易收敛到局部最优”,很可能是一种想象,实际情况是,我们可能从来没有找到过“局部最优”,更别说全局最优了。很多人都有一种看法,就是“局部最优是神经网络优化的主要难点”。这来源于一维优化问题的直观想象。在单变量的情形下,优化问题最直观的困难就是有很多局部极值,如人们直观...原创 2020-09-05 16:20:51 · 4007 阅读 · 1 评论 -
深度学习--局部最优(The problem of local optima)
局部最优的问题(The problem of local optima)ref:https://blog.youkuaiyun.com/qq_38742161/article/details/86739010初学深度学习,总是担心优化算法会困在极差的局部最优。本文介绍如何正确看待局部最优以及深度学习中的优化问题。如上图,平面的高度就是损失函数。在图中似乎各处都分布着局部最优。梯度下降法或者某个算法可能困在一个局部最优中,而不会抵达全局最优。但是,问题的关键在于,低维特征(图示两维)让我们对局部最..原创 2020-09-05 15:35:37 · 9917 阅读 · 0 评论 -
从TensorFlow Lite源码入门CNN量化
从TensorFlow Lite源码入门CNN量化前言从2012年AlexNet夺得当年ImageNet冠军开始,深度学习就开始呈爆破式发展,这个过程中迭代出很多优秀的深度学习代码框架,随着技术逐渐成熟,工业界对技术落地的需求越来越迫切,近几年的论文也慢慢分为两大派系,一派主要研究如何提高performance,另一派研究如何提高computational efficiency,当下已经诞生了很多模型压缩和加速方法,这些方法降低了服务器的运行负担甚至可以让高performance网络运行在移动.转载 2020-09-05 12:45:31 · 1109 阅读 · 0 评论 -
CNN超参数优化和可视化技巧详解
在深度学习中,有许多不同的深度网络结构,包括卷积神经网络(CNN或convnet)、长短期记忆网络(LSTM)和生成对抗网络(GAN)等。在计算机视觉领域,对卷积神经网络(简称为CNN)的研究和应用都取得了显著的成果。CNN网络最初的诞生收到了动物视觉神经机制的启发,目前已成功用于机器视觉等领域中。技术博客Towards Data Science最近发布了一篇文章,作者Suki Lau。文章讨论了在卷积神经网络中,该如何调整超参数以及可视化卷积层。为什么用卷积神经网络?首先,我们想要计算机具有什么能转载 2020-09-04 16:10:02 · 1818 阅读 · 0 评论 -
神经网络参数优化–基于CNN的验证
神经网络参数优化–基于CNN的验证转自:https://ziyubiti.github.io/2016/11/20/cnnpara/ 当使用多层更深的隐藏层全连接网络时,参数量会变得非常巨大,达到数十亿量级;而采用CNN结构,则可以层间共享权重,极大减小待训练的参数量;同时可采用二维卷积,保留图像的空间结构信息;采用池化层,进一步减少参数计算。 一般来说,提高泛化能力的方法主要有: 正则化、增加神经网络层数、改变激活函数与代价函数、使用好的权重初始化技术、人为扩展训练集、弃权技术。 下面以MN转载 2020-09-04 16:03:15 · 516 阅读 · 0 评论 -
如何训练深度神经网络?老司机的 15 点建议
如何训练深度神经网络?老司机的 15 点建议导语:印度深度学习专家 Rishabh Shukla 对开发深度神经网络的经验总结。本文为印度深度学习专家、创业者 Rishabh Shukla 在 GitHub 上发表的长博文,总结了他过去的开发经验,旨在给新入门的开发者提供指导。雷锋网做了不改变原意的编译。在深度学习领域,为了高效训练深度神经网络,有些实践方法被过来人强烈推荐。在这篇博文中,我会覆盖几种最常使用的实践方法,从高品质训练数据的重要性、超参数(hyperparameters)到更快创建 D转载 2020-09-04 15:02:01 · 847 阅读 · 0 评论 -
神经网络调参笔记
在训练神经网络的时候,需要调的参数很多,选一组最适合自己模型的参数。实际训练的时候如果不按照一定的顺序,会很乱。因此正确有序地调参很重要,需要调节的参数大概有如下几个[1]:神经网络的层数每层神经元的个数如何初始化Weights和biasesloss函数选择哪一个选择何种Regularization?L1,L2Regularization parameter lambda 选择多大合适激励函数如何选择是否使用dropout训练集多大比较合适mini-batch选择多大学习率多少合适转载 2020-09-04 14:42:06 · 386 阅读 · 0 评论 -
Hyperparameter optimization for Neural Networks
Hyperparameter optimization for Neural NetworksContentsHyperparameter optimization for Neural Networks Introduction Hyperparameter optimization Grid Search Random Search Hand-tuning Bayesian Optimization Gaussian Process Acquisition...转载 2020-09-03 20:31:35 · 1078 阅读 · 0 评论 -
深度学习模型压缩与加速综述
深度学习模型压缩与加速综述其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习-原理、算法与应用》,清华大学出版社,雷明著,由SIGAI公众号作者倾力打造。书的购买链接 书的勘误,优化,源代码资源PDF全文链接:深度学习模型压缩与加速综述本文作者:东尼大佬摘要目前在深度学习领域分类两个派别,一派为学院派,研究强大、复杂的模型网络和实验方法,为了追求更高的性能;另...转载 2020-03-28 18:57:31 · 645 阅读 · 2 评论 -
python3.7+windows10+conda install caffe
为了跑通pose estimation : Realtime Multi-Person Pose Estimation 的demohttps://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation.git需要安装caffe,使用多种办法进行快速安装无效,未尝试本地编译,最终发现下面的方法有效,分享出来:https://stac...原创 2019-12-07 19:17:21 · 1715 阅读 · 1 评论 -
目标检测--笔记2: Faster R-CNN && R-FCN
目录R-CNN 历史回顾Faster R-CNNR-FCN R-CNN 历史回顾 Faster R-CNN R-FCN ...原创 2019-03-04 20:11:55 · 365 阅读 · 0 评论 -
tensorflow--深入MINIST
目录 深入MNIST构建一个多层卷积网络权重初始化卷积和池化第一层卷积第二层卷积密集连接层输出层训练和评估模型深入MNISTTensorFlow是一个非常强大的用来做大规模数值计算的库。其所擅长的任务之一就是实现以及训练深度神经网络。在本教程中,我们将学到构建一个TensorFlow模型的基本步骤,并将通过这些步骤为MNIST构建一个深度卷积神经...转载 2019-02-21 23:50:37 · 336 阅读 · 0 评论 -
深度学习网络调参技巧
深度学习网络调参技巧转载请注明:炼丹实验室之前曾经写过一篇文章,讲了一些深度学习训练的技巧,其中包含了部分调参心得:深度学习训练心得。不过由于一般深度学习实验,相比普通机器学习任务,时间较长,因此调参技巧就显得尤为重要。同时个人实践中,又有一些新的调参心得,因此这里单独写一篇文章,谈一下自己对深度学习调参的理解,大家如果有其他技巧,也欢迎多多交流。好的实验环境是成功的一半由于深度学...转载 2019-04-01 00:08:32 · 250 阅读 · 0 评论 -
mnist数据集
import numpy as npimport tensorflow as tfimport matplotlib.pyplot as plt#from tensorflow.examples.tutorials.mnist import input_dataimport input_dataprint ("packs loaded")print ("Download...转载 2019-02-14 10:44:59 · 218 阅读 · 0 评论 -
tensorflow-basic---线性回归
"""Created on Sat Jul 7 17:30:15 2018@author: """import numpy as npimport tensorflow as tfimport matplotlib.pyplot as plt#随机生成1000个点,围绕再y=0.1x+0.3的直线范围num_points=1000vectors_set=[]for ...原创 2019-02-14 10:29:51 · 175 阅读 · 0 评论 -
tensorflow-basic
import tensorflow as tfa=3#创建变量w=tf.Variable([[0.5,1.0]])#把这个行向量转化为tensorflow的格式x=tf.Variable([[2.0],[1.0]])#列向量y=tf.matmul(w,x)#进行矩阵的乘法print (w)#简单的w*x这么麻烦,对tf也是醉了 int_top=tf.global_variab...原创 2019-02-14 10:24:18 · 177 阅读 · 0 评论 -
计算机视觉 -- 三代物体检测(简要总结)
R-CNN 构建网络模型 特征提取: selective search: 小区域 合并 大区域 ;小框 合并 大框 ; 所有的框 都跑一遍 卷积神经网络 特征提取 固化 分类,回归(定位) 慢,开篇之作,低效 问题:时间很长,每个小框都要跑一次神经网络,加上分类器 解决:先进行卷积(共享) ...原创 2019-02-27 19:24:16 · 340 阅读 · 0 评论 -
tensorflow---使用训练好的VGG模型加载图片并提取每一层特征
# -*- coding: utf-8 -*-"""Created on Sat Feb 16 12:01:19 2019@author: """import scipy.ioimport numpy as npimport tensorflow as tfimport osimport scipy.miscimport matplotlib.pyplot as plt...原创 2019-02-22 19:49:19 · 4751 阅读 · 5 评论 -
Tensorflow--alexNet 手写数字识别
网络结构 layer1:conv+relu+maxpooling+lrn(针对channel) layer2:conv+relu+maxpooling+lrn(针对channel) layer3:conv+relu+maxpooling+lrn(针对channel) layer4:conv+relu layer5:conv+relu+maxpooling+...转载 2019-02-16 09:44:56 · 450 阅读 · 0 评论 -
RNN-循环神经网络-02Tensorflow中的实现
文章导航关于基本的RNN和LSTM的概念和BPTT算法可以查看这里 参考文章: https://r2rt.com/recurrent-neural-networks-in-tensorflow-i.html https://r2rt.com/styles-of-truncated-backpropagation.html 一、源代码实现一个binary例子1、例子描述(1)...转载 2019-02-21 16:21:33 · 306 阅读 · 0 评论 -
TensorFlow中RNN实现的正确打开方式
TensorFlow中RNN实现的正确打开方式本文作者:汪思颖 2017-09-04 14:46 导语:一起来练练手雷锋网(公众号:雷锋网) AI科技评论按:本文作者何之源,原文载于知乎专栏AI Insight,雷锋网 AI科技评论获其授权发布。上周写的文章《完全图解RNN、RNN变体、Seq2Seq、Attention机制》介绍了一下RNN的几种结构,今天就来聊一聊如何在T...转载 2019-02-21 15:23:45 · 2066 阅读 · 2 评论 -
tensorflow--CNNLeNet实现手写数字识别
网络结构:#28*28 图片,n_input = 784#输出的大小n_output = 10 # one_hot 5 0000010000# 权重# weights = { 'wc1': tf.Variable(tf.random_normal([5, 5, 1, 20], stddev=0.1)), 'wc2': tf.Varia...转载 2019-02-15 16:45:05 · 320 阅读 · 0 评论 -
谈谈Tensorflow的dropout
转载自: https://www.jianshu.com/p/c9f66bc8f96c Dropout这个概念已经推出4年了,它的详细描述见论文。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述,但解释的含糊不清,这里呢,我也不打算解释清楚,只是通过tensorflow来看一看dropout的运行机理。文章分两部分,第一部分介绍tensorflow中...转载 2019-02-15 11:13:37 · 252 阅读 · 0 评论