
神经网络与相关技术
文章平均质量分 76
Emma1997
一个努力想要做到更好的学渣。
展开
-
linux命令行连接百度网盘快速上传下载数据(bypy)
摘要现在的深度学习代码基本都是在服务器上运行,而大部分的服务器都是远程服务器,只支持命令行操作,所以有些在图形界面上比较容易下载的文件,在服务器上使用命令行很难下载。而且由于远程服务器和本地之间数据通讯速度不稳定,在大部分情况下通讯速度较慢,所以即使本地使用图形界面下载好数据,使用scp命令直接从本地上传数据到服务器耗时长。本文基于以上问题,讲解了基于百度网盘和bypy工具快速下载或上传数据到只能使用命令行操作的远程服务器的方法。同时还讲解了bypy工具的其他使用方式。方法介绍在远程服务器安装byp原创 2021-06-18 17:00:26 · 7072 阅读 · 0 评论 -
CNN中一些特殊环节的反向传播(池化层+relu)
转载自:https://blog.youkuaiyun.com/qq_21190081/article/details/72871704在深度学习笔记(2)——卷积神经网络(Convolutional Neural Network)中我们介绍了CNN网络的前向传播,这一篇我们介绍CNN的反向传播,讲到反向传播的时候实质就是一大堆求梯度的数学公式,这些公式其实已经在深度学习笔记(1)——神经网络(neural network)那篇博客中介绍过了,所以这里就不再介绍。但是传统的神经网络无论是隐层还是激活函数的导数都转载 2020-12-14 12:31:54 · 1364 阅读 · 0 评论 -
Google提出的新型激活函数: Swish激活函数
一个实验效果很好的激活函数。。。。。可能是单纯试出来的。。。。。简介Swish是Google在10月16号提出的一种新型激活函数,其原始公式为:f(x)=x * sigmod(x),变形Swish-B激活函数的公式则为f(x)=x * sigmod(b * x),其拥有不饱和,光滑,非单调性的特征,而Google在论文中的多项测试表明Swish以及Swish-B激活函数的性能即佳,在不同的数据集上都表现出了要优于当前最佳激活函数的性能.论文地址:https://arxiv.org/abs/1710转载 2020-11-12 16:43:51 · 1501 阅读 · 0 评论 -
smooth L1损失和L1、L2损失区别和优势
作者:知乎用户链接:https://www.zhihu.com/question/58200555/answer/621174180来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。为了从两个方面限制梯度:当预测框与 ground truth 差别过大时,梯度值不至于过大;当预测框与 ground truth 差别很小时,梯度值足够小。考察如下几种损失函数,其中x为预测框与 groud truth 之间 elementwise 的差异:L2(x)=x2(1)L_转载 2020-09-24 15:14:13 · 1712 阅读 · 0 评论 -
卷积神经网络系列之softmax loss对输入的求导推导
转载自:https://blog.youkuaiyun.com/u014380165/article/details/79632950我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对损失函数求梯度是怎么求的真的了解吗?相信很多人不一定清楚。虽然网上的资料很多,但是质量参差不齐,常常看得眼花缭乱。为了让大家少走弯路,特地整理转载 2020-09-22 17:08:14 · 919 阅读 · 0 评论 -
数学原理解释resnet缓解梯度弥散问题
转载自:https://blog.youkuaiyun.com/weixin_42662358/article/details/88593545前言本文是一位职场小白在百度实习面试被虐,发现基本的大公司都会问到网络的数学原理解释,之后学习很多的博客。对残差网络的一些深入理解,开始写人生的第一篇博客,如有差错,还请各位大佬多多指正,多多交流产生梯度弥散的原因深度学习的本质是找到一个复杂的函数来拟合输入数据和输出数据之前的转换关系。简单的说:y = f(x),这里的x和y可能是向量,也可能是矩阵。复杂的网络就是函转载 2020-09-22 10:17:12 · 661 阅读 · 1 评论 -
目标检测部分知识点总结
目录一、focal loss:二、bounding box regression三、IoU计算四、NMS(non-maximum suppression,非极大值抑制)五、yolov3的loss1. conf和cls的bce loss(Binary cross-entropy loss)2. 候选框回归的MSE loss3. 最终loss六、交叉熵损失函数(cross-entropy loss)七、Faster RCNN的loss八、RoI Align和RoI Pool一、focal loss:pt=原创 2020-09-15 20:03:21 · 616 阅读 · 0 评论 -
概率统计、数值优化算法
一、概率统计:样本空间:一个随机试验(或随机事件)所有可能结果的集合样本点:随机试验中的每个可能结果随机变量:本质上是一个实值函数映射,即为每一个实验的结果映射为一个数值。注意区别“随机变量”的定义与“随机变量取值的概率”的定义.Eg:在抛一枚均匀的硬币过程中,将正面映射为1,反面映射为0,则随机变量X的定义为X(正面)=1,X(反面)=0。此时,随机变量取值的概率定义为P(X(正面)=1)=P(X(反面)=0)=0.5。很显然,随机变量X的定义时存在一个映射,随机变量取值的概率定义时又存在一个转载 2020-09-07 00:40:39 · 763 阅读 · 0 评论 -
YOLOv3: An Incremental Improvement 整体介绍及部分细节讲解(部分基于飞桨课程)
本篇笔记部分基于飞桨课程:https://aistudio.baidu.com/aistudio/education/group/info/1297一、整体总结yolov3网络输出分候选框回归、objectness(是否有目标)检测、候选框内物体类别三部分。其中候选框回归部分的损失采用的是平方误差损失的和,objectness检测采用的是logistic regression,类别检测采用的是logistic分类器,训练时用的binary cross-entropy loss。主要就是快(不是两阶原创 2020-09-01 15:36:55 · 420 阅读 · 0 评论 -
飞桨论文复现课笔记(论文复现步骤)
目录一、读论文二、论文代码解读1. ReadMe2. 代码结构3. 核心代码三、论文复现四、评估模型五、小结一篇论文的复现步骤如下一、读论文一篇论文的abstract、applications、method、quantitative evaluation部分比较重要,着重看。在这一阶段对网络的架构等做一定的了解。二、论文代码解读1. ReadMe了解网络实现功能,前期环境准备,如何开始训练网络,网络所需参数等。2. 代码结构程序入口文件:train.py、main_train.py等类似文原创 2020-08-28 16:05:55 · 4579 阅读 · 0 评论 -
飞桨AI识虫竞赛直播讲解笔记(目标检测模型选择及调优等信息)
目录一、数据分析处理二、模型设计与选择三、模型改进方法1. backbone2. 特征融合3. 损失四、注意事项1. 防止梯度消失、梯度爆炸2. 过拟合解决3. 参数调优其他方法4. 在线难例挖掘五、后处理六、调优基本原则——快速试错七、答疑心得感受一、数据分析处理数据增强方式:改亮度、对比度、饱和度,左右上下翻转,模糊,mixup(将多张图像融合在一张图像上)二、模型设计与选择Yolo系列SSDFaster R-CNN系列(其中faster rcnn最经典)anchor-free方法,如原创 2020-08-28 12:14:20 · 654 阅读 · 0 评论 -
目标检测mAP计算详解
转载自:https://blog.youkuaiyun.com/l297969586/article/details/89918672首先说明计算mAP有多个版本,每个数据集和比赛用的版本和方式也不同,下以VOC与COCO举例说明。精确度(precision),召回率(recall)分别为:常规的mAP计算为(这是一个N类检测任务):1、计算单张图片中class1的精度P(VOC默认IOU大于0.5即为TP,COCO稍复杂些,下文再说)2、循环所有测试集图片,重复1过程求所有图片P的均值即为class1转载 2020-08-27 20:23:02 · 1083 阅读 · 0 评论 -
Focal Loss for Dense Object Detection整体介绍及部分细节讲解
1. 多类别交叉熵给定两个概率分布:p(理想结果即正确标签向量)和q(神经网络输出结果即经过softmax转换后的结果向量),则通过q来表示p的交叉熵为:H(p,q)=−∑xp(x)logq(x)H(p,q)=−∑_xp(x)logq(x)H(p,q)=−x∑p(x)logq(x)注意:既然p和q都是一种概率分布,那么对于任意的x,应该属于[0,1]并且所有概率和为1∀x,p(X=x)∈[0,1]且∑xp(X=x)=1 ∀x,p(X=x)\in[0,1]且∑_xp(X=x)=1∀x,p(X=x)∈原创 2020-08-03 19:08:29 · 633 阅读 · 0 评论 -
RetinaNet
作者:小松qxs链接:https://www.jianshu.com/p/596e4171f7ad来源:简书著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。动机one-stage方法,速度快但不如two-stage精度高。分析原因:正负样本不均衡。内容提出Focal Loss:改进标准交叉熵损失,hard examples对损失的贡献变大。RetinaNet: based on a ResNet-101-FPN backbone, achieves a COCO t转载 2020-07-23 22:10:37 · 366 阅读 · 0 评论 -
非极大值抑制(Non-Maximum Suppression)
版权声明:本文为优快云博主「SnailTyan」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.youkuaiyun.com/Quincuntial/article/details/78815187文章作者:Tyan1. 什么是非极大值抑制非极大值抑制,简称为NMS算法,英文为Non-Maximum Suppression。其思想是搜素局部最大值,抑制极大值。NMS算法在不同应用中的具体实现不太一样,但思想是一样的。非极大值抑制,在计算机转载 2020-07-23 10:50:35 · 460 阅读 · 0 评论 -
detectron2单GPU训练代码和坑
目录一、训练二、坑三、数据下载本博客主要基于detectron2的colab训练代码。该代码用于训练玩具数据集(toy dataset,也就是比较简单的数据集)ballon数据集,并显示预测结果。数据集下载位置见第三部分,运行过程中我遇到的坑及解决方案在第二部分。一、训练在训练之前,一定要保证自己的系统已经满足了以下要求,同时pytorch、cudnn和cudnn的版本匹配,且已经设置好了cuda的环境变量(检测pytorch和cuda等是否已经达成要求的方式在二、坑中有写,图中pytorch要求原创 2020-07-14 17:36:23 · 2735 阅读 · 4 评论 -
超全Pytorch多GPU训练
转载自:https://oldpan.me/archives/pytorch-to-use-multiple-gpus前言在数据越来越多的时代,随着模型规模参数的增多,以及数据量的不断提升,使用多GPU去训练是不可避免的事情。Pytorch在0.4.0及以后的版本中已经提供了多GPU训练的方式,本文简单讲解下使用Pytorch多GPU训练的方式以及一些注意的地方。这里我们谈论的是单主机多GPUs训练,与分布式训练不同,我们采用的主要Pytorch功能函数为DataParallel而不是Distrib转载 2020-05-22 16:49:01 · 3540 阅读 · 0 评论 -
windows下pycocotools2.0.1版本安装
正确安装步骤:从https://pypi.org/project/pycocotools/#files处下载解压缩下载下来的压缩包,得到删除extra_compile_args中的前两个选项。删到只剩下这一个。打开命令行,cd到解压缩包里的pycocotools的位置cd D:\code\pycocotools-2.0.1\pycocotools-2.0.1执行以下命令python setup.py build_ext --inplacepython setup.py b原创 2020-07-07 12:07:13 · 4240 阅读 · 1 评论 -
ubuntu16.04 + cuda9.0(deb版)+Cudnn7.1
真的写的很详细了,在此对原博主表示感谢Orzhttps://blog.youkuaiyun.com/jonms/article/details/79318566https://blog.youkuaiyun.com/weixin_39837402/article/details/79970160https://www.zhihu.com/question/263850405显卡:1050 6g操作系统:Ubuntu 16.04LTS花了一整天踩了很多坑,系统重装n次,结合网上的教程和自己装成功的经验写一份固定版本的安转载 2020-07-10 09:32:49 · 380 阅读 · 0 评论 -
浅谈将Pytorch模型从CPU转换成GPU
最近将Pytorch程序迁移到GPU上去的一些工作和思考环境:Ubuntu 16.04.3Python版本:3.5.2Pytorch版本:0.4.00. 序言大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。看到网上总体来说少了很多介绍,这里决定将我的一些思考和工作记录下来。1. 如何进行迁移由于我使用的是Pytorch写的模型,网上给出了一个非常简单的.转载 2020-07-08 17:49:45 · 2067 阅读 · 0 评论 -
Mask RCNN整体介绍及部分细节讲解
本文基于Faster RCNN改进,所以若有看不懂的地方可以先去看看我上篇博客Faster R-CNN整体介绍及部分细节讲解一、整体总结主要性能提升是因为RoIAlign(双线性插值+对齐)用FCN在faster rcnn基础上预测了mask(每类一个FPN)两个backbone,分别是FPN和ResNet(对应faster rcnn中的conv layers)mask分支有改进空间,且时间效率可提高可用于实例分割、位姿估计(每个mask是one-hot的的一个关键点位置)、检测工作二、论原创 2020-07-01 15:07:26 · 3816 阅读 · 0 评论 -
Faster R-CNN整体介绍及部分细节讲解
RPN(Region Proposal Network)图→CNN→候选框+检测分数在特征图上滑动anchor box只依赖单一尺寸的图片和特征图,用单一尺寸的filters(用单一尺寸的特征图,训练针对不同比例、大小的分类器,后面会有讲解)RPN的正例:a.和真值框IoU最高的anchor b.和任意真值框IoU大于0.7的anchor负例:与所有真值框的IoU均小于0.3损失函数:i:mini-batch中anchor索引pi:第i个anchor是目标的概率pi*:真值标签(如果.原创 2020-06-29 22:58:09 · 1373 阅读 · 0 评论 -
PR曲线原理及通过曲线判断分类器优劣
一、原理讲解P-R曲线就是精确率precision vs 召回率recall 曲线,以recall作为横坐标轴,precision作为纵坐标轴。首先解释一下精确率和召回率。解释精确率和召回率之前,先来看下混淆矩阵,负正负TNFP正FNTP把正例正确分类为正例,表示为TP(true positive),把正例错误分类为负例,表示为FN(false negative),把负例正确分类为负例,表示为TN(true negative), 把负例错误分类为正例,表示为转载 2020-06-29 20:33:56 · 19401 阅读 · 0 评论 -
卷积层(包含可变性卷积)+池化学习路径
卷积:中间那个就是卷积核了,其实就是3x3的方格,里面填一些数字,然后和原始图像进行对应位置相乘求和。转置卷积或反卷积:https://blog.youkuaiyun.com/lanadeus/article/details/82534425卷积图示操作链接(包含卷积、反卷积(转置卷积)和步长dilation padding对卷积影响):https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md#dilated-convolution原创 2020-06-04 12:35:01 · 359 阅读 · 0 评论 -
使用yacs库配置神经网络的超参数
简介YACS是一个轻量级库,用于定义和管理系统配置,例如那些在为科学实验设计的软件中常见的配置。这些“配置”通常涵盖诸如用于训练机器学习模型的超参数或可配置模型超参数(诸如卷积神经网络的深度)之类的概念。 由于您正在进行科学研究,因此重复性至关重要,因此您需要一种可靠的方法来序列化实验配置。 YACS使用YAML作为简单的,人类可读的序列化格式。范式是:your code + a YACS config for experiment E (+ external dependencies + hardwar转载 2020-05-22 17:31:55 · 367 阅读 · 0 评论 -
深度学习100问-5:如何阅读一份深度学习项目代码?
深度学习100问Author:louwillMachine Learning Lab犹豫很久要不要把读代码这个事情专门挑出来写成一篇推文。毕竟读代码嘛,大家可能都会读。而且笔者个人读的和写的代码量也并不足以到指导大家读代码的程度。但笔者还是决定大胆地写一点:就当是给自己设立今后读代码的标准,也将一些之前未能践行的方法给写下来供大家参考。不当之处,还请各位指教。**搞深度学习的人,两大必备日常除了读论文之外就是读代码。**读论文笔者在第4问的时候讲了阅读路线,但如何读用什么技巧读每个人都有不同的见解,转载 2020-05-22 12:07:30 · 282 阅读 · 0 评论 -
Hard Negative Mining Method(难例挖掘)
首先说明一下,什么是困难负样本?说白了就是对分类器迷惑性大的样本,这类样本的实际标签是负的,但是分类器往往预测为正的。难例挖掘是指,针对模型训练过程中的困难负样本,重新训练它们。在目标检测中我们会事先标记好ground_truth,接下来在图片中随机提取一系列sample,与ground_truth重叠率IoU超过一定阈值的(比如0.5),大于则认为它是positive sample,否则为n...转载 2020-03-29 10:18:48 · 1488 阅读 · 1 评论 -
Histogram intersection(SVM直方图交叉核)
SVM核函数形式SVM核函数形式:maxα∑i=1mαi−12∑i=1m∑j=1mαiαjyiyjk(xi,xj)s.t.∑i=1mαiyi=0,αi≥0,i=1,2,…,m\max_\alpha{\sum_{i=1}^m{\alpha_i}-\frac{1}{2}\sum^m_{i=1}{\sum_{j=1}^m{\alpha_i\alpha_jy_iy_jk(x_i,x_j)}}}\\...转载 2020-03-22 10:01:36 · 1257 阅读 · 0 评论 -
通过 Q-learning 深入理解强化学习
本文将带你学习经典强化学习算法 Q-learning 的相关知识。在这篇文章中,你将学到:(1)Q-learning 的概念解释和算法详解;(2)通过 Numpy 实现 Q-learning。故事案例:骑士和公主假设你是一名骑士,并且你需要拯救上面的地图里被困在城堡中的公主。你每次可以移动一个方块的距离。敌人是不能移动的,但是如果你和敌人落在了同一个方块中,你就会死。你的目标是以尽可能快...转载 2019-12-25 11:13:56 · 394 阅读 · 0 评论 -
mnist数据下载、格式分析与读取
数据下载Mnist数据下载地址:http://yann.lecun.com/exdb/mnist/这四个文件包含了全部的Mnist数据。解压后就会得到idx3-ubyte类型的四个文件。数据格式分析idx3-ubyte类型的文件需要处理一下才能读取到python中,在讲解如何读取时,先了解一下mnist数据的存储格式。TRAINING SET LABEL FILE训练数据的la...原创 2019-10-31 19:19:20 · 848 阅读 · 0 评论 -
机器学习:数据预处理之独热编码(One-Hot)
作者:NateHuang链接:https://www.imooc.com/article/35900来源:慕课网前言在机器学习算法中,我们经常会遇到分类特征,例如:人的性别有男女,祖国有中国,美国,法国等。这些特征值并不是连续的,而是离散的,无序的。通常我们需要对其进行特征数字化。那什么是特征数字化呢?例子如下:性别特征:[“男”,“女”]祖国特征:[“中国”,"美国,“...转载 2019-10-31 17:09:56 · 909 阅读 · 0 评论 -
HTK数据准备工具-HCopy
转载自:http://blog.youkuaiyun.com/lv_xinmy/article/details/8586664 HTK的数据准备工具主要是针对语言文件和语音标签数据文件的处理,前面介绍了处理语音标签数据文件的处理工具,如下:HLEd。根据发音词典,自动对标签文件进行标记。该工具还可以对标签文件进行编辑处理,其实主要是对标签文件进行编辑,按照发音词典进行扩展也是编辑的一种,另外可以对发音词转载 2018-01-10 23:33:38 · 816 阅读 · 0 评论 -
用Matlab录制、读取音频
转载自:http://blog.youkuaiyun.com/shanx_s/article/details/52947440与 http://www.ilovematlab.cn/thread-289189-1-1.htmlR = audiorecorder( 8000, 16 ,1) ; %创建一个保存音频信息的对象,它包含采样率,时间和录制的音频信息等等。 %44100表示采样为441转载 2018-01-10 20:41:20 · 19260 阅读 · 1 评论 -
tensorflow学习笔记之MNIST入门
翻译来自http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html,我只挑选了一些我认为比较重要的做了摘抄并加上了自己的理解,若需要完整的教学,直接看这个网站就好了。 1、MNIST是一个入门级的计算机视觉数据集,它包含各种手写数字图片: 它也包含每一张图片对应的标签,告诉我们这个是数字几原创 2017-07-25 16:32:00 · 456 阅读 · 0 评论 -
CNN+RNN+LSTM清晰讲解链接
转载自:刘建平Pinard的博客园 卷积神经网络(CNN)模型结构 卷积神经网络(CNN)前向传播算法 卷积神经网络(CNN)反向传播算法 循环神经网络(RNN)模型与前向反向传播算法 LSTM模型与前向反向传播算法...转载 2018-03-05 16:35:35 · 9738 阅读 · 1 评论 -
现有的图像三维重建技术介绍和比较
转自:https://blog.youkuaiyun.com/dream_tingness/article/details/40356617?utm_source=blogxgwz0图像三维重建技术简介广义上,三维重建是指对某些三维物体或者三维的场景的一种恢复和重构,重建出来的模型,方便计算机表示和处理。实际上,三维重建是对三位物体或者场景图像描述的一种逆过程,由二维的图像还原出三维的立体物体或者场景。因...转载 2018-10-17 21:04:10 · 14758 阅读 · 1 评论 -
三维重建技术(1)概论与权龙教授演讲梗概
技术概论转自: 三维重建技术概述, wangyaning1. 相关概念(1)彩色图像与深度图像彩色图像也叫作RGB图像,R、G、B三个分量对应于红、绿、蓝三个通道的颜色,它们的叠加组成了图像像素的不同灰度级。RGB颜色空间是构成多彩现实世界的基础。深度图像又被称为距离图像,与灰度图像中像素点存储亮度值不同,其像素点存储的是该点到相机的距离,即深度值。图2-1表示深度图像与灰度图像之间的关系...转载 2018-10-20 11:41:38 · 825 阅读 · 0 评论 -
三维重建技术(2)各种方法简介
转自:三维重建技术 各种方法简介, G换一种活法这个博主也是转载的,可是来源不可查,所以暂把来源写为这个博主的博客三维重建技术通过深度数据获取、预处理、点云配准与融合、生成表面等过程,把真实场景刻画成符合计算机逻辑表达的数学模型。这种模型可以对如文物保护、游戏开发、建筑设计、临床医学等研究起到辅助的作用。1.1 研究背景及意义人类通过双眼来探索与发现世界。人类接收外部信息的方式中,有不到三...转载 2018-10-20 11:55:03 · 3639 阅读 · 0 评论 -
三维重建技术(3)Shape from shading(SFS)的原理
转自:Shape from shading(SFS)的原理和我的实现结果, RyuZhihao123Shape from shading是由Horn于1980年提出的一种单幅图像恢复三维信息的一种方法(Single Image-based Reconstruction)。对于Lambert表面具有较好的效果。下面简要的介绍一下其基本步骤和原理:1. 得到灰度图像I。可以利用如下关系式计算:...转载 2018-10-20 19:08:27 · 10676 阅读 · 4 评论 -
CVPR 2018 Best Paper Taskonomy 作者解读
本文转自Taskonomy: Disentangling Task Transfer Learning解读, 沈博魁大家好,我是沈博魁,斯坦福本科生/准博士生,Taskonomy的共同二作。鉴于poster session时发现很多人对Taskonomy的理解有偏差,万年潜水的我写了一篇Taskonomy的中文解读,希望能对大家有帮助。很多专业词汇的中文翻译可能有偏差,希望大家见谅。如果有问...转载 2018-10-20 22:37:38 · 576 阅读 · 0 评论