- 博客(42)
- 收藏
- 关注
原创 YOLO系列:YOLO V3模型讲解
YOLO系列:YOLO V3模型讲解论文标题:YOLO V3:An Incremental Improvement (CVPR 2018)效果(COCO 数据集):模型结构:(DarkNet-53有53个卷积层)使用卷积层代替了最大池化下采样层,DarkNet-53卷积核的个数比ResNet也少很多。效果对比:DarkNet 53检测效果和ResNet152基本持平,但检测速度慢了两倍。使用K-means 聚类算法得到了先验框的尺度,文章选择了9个聚类,3个尺度,也就是在每个预
2021-03-19 20:12:57
1085
1
原创 YOLO 系列:YOLO V2模型讲解
YOLO 系列:YOLO V2论文标题:YOLO9000: Better, Faster,Stronger (CVPR 2017)作者使用Pascal Voc与ImageNet数据集进行一个联合训练,最终可检测类别超过9000.模型性能:YOLO V2中的各种尝试:Batch Normalization:帮助训练收敛,帮助模型正则化,可不再使用Dropout层,提升约2%mAP。High Resolution Classifier:输入尺寸变为448×\times× 448,更高
2021-03-19 17:58:04
894
原创 YOLO系列--YOLO V1模型讲解
YOLO系列–YOLO V1YOLO V1:论文:You only look once: unified, real time object detection(2016 CVPR)效果:448 ×\times× 448, 达到45FPS,63.4mAP(Pascal VOC 2017测试集)论文思想:(1) 将一副图像分成S ×\times× S个网格,如果某个object的中心落在这个网格里,这个网格就负责预测这个object。(2) 每个网格都要预测B个Bounding Box,每个
2021-03-19 16:16:37
941
原创 为什么计算机使用补码进行计算
为什么计算机使用补码进行计算今天看到一句话(Subtraction can be easily reduced to addition by using complement code.粗略翻译:使用补码可以很容易的将减法化为加法)没想明白,后悔当初没好好学数字逻辑。补充知识:原码: 对计算机中数字的二进制定点表示。最高为为符号位,符号位为0表示正数,为1表示负数,其余位置表示数值大小。原码不能直接参加运算,比如(-1)+1=0,如果用二进制计算:00000001+10000001=10000010
2021-03-05 19:23:01
1324
3
原创 解决Error: Couldn t link model to en_core_web_sm
Error: Couldn’t link model to ‘en_core_web_sm’使用Anaconda提供的conda prompt下载python -m spacy download en以及python -m spacy download de时出现错误Error: Couldn’t link model to 'en_core_web_sm’一开始也没有仔细阅读错误提示,直接百度发现没什么可以用的解决方案,仔细一读后发现解决十分简单。解决方案:在打开prompt的时候以管理员的身份
2020-06-05 16:00:03
512
原创 权重更新优化器总结
权重更新优化器总结在上吴恩达的深度学习课程时,学习了很多权重更新的方式,但当时学习的时候比较蒙,可能当时理解了,后面又忘了为什么这么用。这两天又看到一些资料,正好整理总结一下。我们先计算一下反向传播的公式,具体详细过程就不再讲解了/以上图为例,现在我们更新权重w11(2)w_{11}^{(2)}w11(2),更新公式如下所示:w11(2)(new)=w11(2)(old)−learning_rate×gradientw_{11}^{(2)}(new) = w_{11}^{(2)}(old) -
2020-05-17 15:31:42
1745
1
原创 卷积神经网络的分类层-softmax和sigmoid
卷积神经网络的分类层-softmax和sigmoid1. softmax在学习一些卷积网络的模型时,我们经常看到模型最后有一个softmax层,这个层的主要作用就是输出物体是各个类的概率,接下来我们就来看一下其计算公式:如上图所示,在全连接层得到了两个结果(有两个类别)L2_1L_{2\_1}L2_1与L2_2L_{2\_2}L2_2,为了公式方便书写我们就把它们看成是y1y_1y1和y2y_2y2。我们想要得到的是各个类别的概率。这里需要注意在softmax层所有输出的概率之和为1。因此我
2020-05-16 22:25:30
9628
原创 卷积核的优势-权值共享与局部感知能力
卷积核的优势-权值共享与局部感知能力在读论文的时候一直读到一个名词“权值共享”,但心里对这个概念一直比较模糊,今天突然明白,记录一下。1. 局部感知能力这与卷积核的使用方式有关,卷积核在输入图像上是滑动运算的,卷积核在图像的不同位置提取特征这就是局部感知能力。2. 权值共享在介绍权值共享之前先分享一个小知识,以前的卷积网路模型在卷积层后面会设全连接层,在读论文的时候经常读到一个词“Flatten”。卷积层提取到的最终特征图在输入全连接层之前需要“展平”,比如说最终提取的特征图的大小为56,那么你
2020-05-16 21:04:09
2472
原创 卷积网络的运算过程、特征图大小计算与参数计算过程
卷积神经网络的运算过程以及参数计算过程写这篇文章是因为发现自己这么久以来把卷积核的计算过程理解错了,一直到和师兄交流的时候擦发现,抓紧写一篇博客记录一下。1. 卷积神经网络的计算以上图为例,假设输入的图片是32×\times× 32×\times× 3大小,也就是我们所说的输入为32×\times× 32大小的RGB图像。我一直理解错的就是这幅图像与卷积核计算的过程,具体怎么错的就不误解大家了。假设现在我们要用一个5×\times× 5×\times× 3的卷积核来提取图片中的特征,首先需要注意的
2020-05-15 23:13:13
8135
3
原创 一篇无关紧要的文章-2020年4月份小记
因为疫情,4月份又在家度过了,这个月博客更新明显减少了[嘘~也就是说过的比较水]。在极度颓废的情况下去学了车,拿到了驾照,开心!!完成了一些比较琐碎的网课作业,不难,但是真的比较磨人。疫情好转一些,4月底我就返校了,临时买票的我真的在路上奔波了一天一夜,特别崩溃,而且我还穿的棉服,真的要以泪洗面,不过值得开心的是又见到很多同龄小伙伴了【泪目】。写这篇博客的时候已经5月4号了,总感觉换了环境想要...
2020-05-04 17:16:49
191
1
原创 [VGG论文详解](2014)Very Deep Convolutional Networks For Large-Scale Image Recognition
(2014)Very Deep Convolutional Networks For Large-Scale Image Recognition作者:Karen Simonyan∗ & Andrew Zisserman+Visual Geometry Group, Department ofEngineering Science, University ofOxford首先介绍一些...
2020-05-04 16:42:38
1876
原创 目标检测中的评价指标mAP含义
目标检测中的评价指标mAP含义阅读论文的时候经常看到有一个评价指标mAP,我们都知道mAP的值越高越好,但mAP到底是什么含义,起什么作用,为什么越高越好?1.计算过程有计算mAP我们首先要计算出AP的值。计算AP的值我们又需要计算召回率Recall以及准确率Precision。计算Recall和Precision我们又需要知道模型预测的样本中的情况,比如预测对的positive样本数...
2020-04-19 23:04:36
5981
原创 (2014)Rich feature hierarchies for accurate object detection and semantic segmentation Tech report
(2014)Rich feature hierarchies for accurate object detection and semantic segmentation Tech report(v5)作者:Ross Girshick ;Jeff Donahue ;Trevor Darrell; Jitendra Malik; UC Berkeley 这篇文章是深度学习领域的经典著作,其提...
2020-04-19 13:43:00
348
原创 (2014)Generative Adversarial Nets 论文解读
Generative Adversarial Nets–生成对抗网络作者:Ian J. Goodfellow, Jean Pouget-Abadie∗, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair†, Aaron Courville, Yoshua Bengio‡Abstract...
2020-03-30 17:18:59
1814
2
原创 梳理(2014)OverFeat: Integrated Recognition, Localization and Detection using Convolutional
OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks作者:Pierre Sermanet;David Eigen; Xiang Zhang; Michael Mathieu; Rob Fergus; Yann LeCun
2020-03-26 21:29:41
369
原创 吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第二周作业:Residual Networks
Residual Networks 残差网络在这一部分中我们将学习使用残差网络建立更深层的卷积网络。从理论上讲,越深层的神经网络模型越可以解决复杂的问题,但实际上深层的网络会很难训练。Residual Networks是被He等人提出的,能够让我们训练更深的网络。在这一部分中我们要完成的是:实现ResNets的基本构建块。把这些模块放在一起,以实现和训练一个最先进的神经网络的图像分类。...
2020-03-22 15:12:32
1624
原创 吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第二周作业:Keras tutorial-the Happy House
吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第二周作业:Keras tutorial-the Happy House这一周的作业我们将学习:如何使用Keras-一个高级的神经网络API,能够运行在Tensorflow和CNTK这几个框架之上。如何在几个小时内建立一个深度学习算法。为什么使用Keras?Keras能够使得我们很快的建立不同的神经网络模型。T...
2020-03-19 14:04:38
507
原创 Padding:valid和same区别
卷积中padding的作用:1.防止图像的边界信息丢失2.缩小图像原理:same:采取的是补全方式,尝试在左边和右边补0,规则是左奇右偶,例如输入input_width=13,Filter_width=6,stride=5。在上面滑动的次数是3次,如图所示,输入不够0来凑。valid:采用的是丢弃的方式,如果不够滑动一次则将剩下的数据丢弃。计算输出公式:same:noutpu...
2020-03-19 12:30:27
3577
1
原创 K.set_image_data_format('channels_last')解释
今天学习Keras时,遇到一行这样的代码:import keras.backend as KK.set_image_data_format('channels_last')Keras技术文档中对backend称为后端,处理如张量乘积和卷积等低级操作。Keras以模块的方式将几个不同的后端引擎嵌入到Keras中。Keras主要有三个后端可用:TensorFlow、Theano、CNTK。...
2020-03-19 11:11:03
5034
2
原创 CNN-经典论文阅读-(2013)-Visualizing and Understanding Convolutional Networks
Visualizing and Understanding Convolutional Networks作者:Matthew D. Zeiler and Rob Fergus文章是由Yann LeCun的学生Mathew所写。1. 论文综述1.论文讲解什么问题为什么很多CNN模型可以在图像分类上发挥这么好的效果。怎样能够使模型更优。2.论文主要工作论文提出了一个新颖的可视...
2020-03-18 17:40:40
653
原创 吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第一周作业:卷积网络应用实例开发
吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第一周作业:卷积网络应用实例开发在这一个部分中,我们需要实现:使用帮助函数(吴老师提供的函数,放在文章最后)和TensorFlow实现一个功能齐全的ConvNet模型。完成这项任务后,我们就有能力:针对一个分类问题,在TensorFlow中建立并训练一个卷积神经网络。1.0 TensorFlow模型需要使...
2020-03-15 22:37:07
721
原创 吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第一周作业:搭建卷积神经网络模型和应用
吴恩达Deep Learning编程作业 Course4- 卷积神经网络-第一周作业:搭建卷积神经网络模型和应用本周作业我们将使用numpy实现卷积层(CONV)和池化层(POOL)层,以及正向传播和反向传播。注意:上标[l][l][l]表示第lthl^{th}lth层。例如:a[4]a^{[4]}a[4]是指第4层的激活层。W[5]W^{[5]}W[5]和b[5]b^{[5]}b[5...
2020-03-15 19:10:03
941
原创 CNN-经典论文阅读(2012-AlexNet)ImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural Networks1. 论文综述1.解决什么问题2.用什么方法解决了问题3.解决的效果如何4.还存在的问题
2020-03-14 20:49:04
3606
1
原创 CNN-经典论文阅读-(1998, LeNet-5)Gradient-Based Learning Applied to Document Recognition
CNN-经典论文阅读-(1998, LeNet-5)Gradient-Based Learning Applied to Document Recognition这是我阅读的第一篇经典论文,本来应该早点阅读这篇经典之作的,但是每每打开看到长达48页的页码提示,都望而止步。所有的问题都需要正视,经典之所以被人称赞,一定有它的过人之处,所以这一次鼓足勇气,阅读全文,整理出一些摘要,是给自己的一个交代...
2020-03-13 20:48:04
2363
原创 吴恩达Deep Learning编程作业 Course2- 改善深层神经网络-第三周作业:TensorFlow练习
吴恩达Deep Learning编程作业 Course2- 改善深层神经网络-第三周作业:TensorFlow练习到现在我们一直使用numpy来构建神经网络,接下来我们将使用深度学习框架来构建神经网络。常见的机器学习框架是TensorFlow、Paddle、Torch、Caffe、Keras等,本次作业中我们将练习使用TensorFlow,我们学习的主要内容是:初始化参数启动session...
2020-03-10 19:47:23
1686
1
原创 吴恩达Deep Learning编程作业 Course2- 改善深层神经网络-第二周作业:优化方法
吴恩达Deep Learning编程作业 Course2- 改善深层神经网络-第二周作业:优化方法到目前为止我们一直使用梯度下降算法来进行参数更新,求得最小化成本。在这个作业中我们将学习优化算法,能够节省时间使得我们更快的得到好的结果。在吴恩达老师的课程中将梯度下降比喻为在山壑中找到最低点,如下图所示:本次练习需要使用的库函数(一些工具类代码放在文章最后,请自行创建对应文件)import...
2020-03-09 21:50:40
464
原创 吴恩达Deep Learning编程作业 Course2- 改善深层神经网络:超参数调试、 正则化以及优化-第一周作业
吴恩达Deep Learning编程作业 Course2- 改善深层神经网络:超参数调试、 正则化以及优化-第一周作业初始化、正则化、梯度校验1.初始化这一部分我们将学习如何为一个初始的神经网络设置初始化参数,不同的初始化方式会产生不同的效果,现在我们就一起来尝试。首先我们先来了解一下什么样的初始化方法是好的方法:加速梯度下降的收敛增加梯度下降收敛到较低的训练(和泛化)错误的几率...
2020-03-07 14:49:29
861
原创 吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第四周作业part2
吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第四周作业part2Deep Neural Network for Image Classification: Application用于图像分类的深度神经网络:应用有了前面学习内容的铺垫后我们就可以动手搭建一个完整的神经网络模型了,搭建成功后我们可以将其结果与逻辑回归模型作比较,从而对两者的内容有更深刻的理解。1...
2020-03-05 10:12:01
415
原创 吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第四周作业part1一步步建立你的深度神经网络
吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第三周作业Building your Deep Neural Network: Step by Step 一步步建立你的深度神经网络学习目标:使用非线性激活函数,如Relu等,提升你的模型。建立一个更深层的神经网络。实现一个易于使用的神经网络类注意符号的意思:上标[lll]表示第lthl^{th}lt...
2020-03-03 18:46:57
534
原创 吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第三周作业
吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第三周作业Planar data classification with one hidden layer具有一个隐藏层的平面数据分类编程目的:使用带有非线性激活函数,比如tanh函数,实现一个具有单隐藏层的二分类神经网络。计算交叉熵代价。实现前向传播和反向传播。1.需要使用的包1.numpy:是Pyt...
2020-03-01 23:01:54
751
1
原创 吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第二周作业
吴恩达Deep Learning编程作业 Course1-神经网络和深度学习-第二周作业Logistic Regression with a Neural Network mindset具有神经网络思维的逻辑回归编程要求:在代码中不要使用循环,除非说明中明确告诉你需要使用。编程目的:建立学习算法的一般架构,包括:初始化参数计算代价函数及其梯度使用优化算法(梯...
2020-02-29 21:47:08
721
原创 python中x[:],x[:-1],x[:,]x[:,-1]等操作含义解析
**python中x[:],x[:-1],x[:,]x[:,-1]等操作含义解析**一维数组操作:例:x = [1, 2, 3, 4, 5, 6]打印全部数组:x[:] 冒号左侧表示开始位置,右侧表示结束位置打印开始到结束打印开始第二个到最后打印开始到倒数第二个打印开始到倒数第三个二维操作这里要特别注意数组和矩阵的操作是不一样的,虽然是在小...
2019-12-16 10:36:01
21319
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人