
Deep Learning
文章平均质量分 53
Zpadger
这个作者很懒,什么都没留下…
展开
-
使用Faster RCNN训练自己的数据集
使用Faster RCNN训练自己的数据集,过程不太顺利,踩坑数次,所以把流程记录一下。所使用的代码版本:faster-rcnn.pytorch1.源码及环境配置原Github版本使用的Pytorch==0.4.0,但是看了网上的博客记录这个版本有较多错误无法解决,建议使用Pytorch==1.0.0及以上版本;源码Pytorch0.4.0版源码:https://github.com/jwyang/faster-rcnn.pytorch.gitPytorch1.0.0版源码:https原创 2021-05-12 22:51:33 · 16100 阅读 · 21 评论 -
解决YOLOv5“test.py”最后输出值为0的问题
问题描述在用yolov5跑实验的时候,训练完成之后要测试算法模型的mAP等参数,但是在实验室服务器跑测试的时候发现最后输出结果(Targets/P/R/mAP@.5/mAP@.5:.95)为0,而且网上关于yolov5 test.py的解释很少,所以只能自己踩坑了。python test.py --weights ./weights/best.pt --data ./data/test.yaml --batch-size 16 --device 0解决方法后来发现是路径的问题,将其改为原创 2021-04-18 18:48:34 · 4005 阅读 · 5 评论 -
解决“RuntimeError: expected backend CUDA and dtype Float but got backend CUDA and dtype Half”问题
问题描述在运行Gituhub程序的时候,出现报错......y[..., 0:2] = (y[..., 0:2] * 2. - 0.5 + self.grid[i].to(x[i].device)) * self.stride[i] # xyRuntimeError: expected backend CUDA and dtype Float but got backend CUDA and dtype Half解决方法经过网上搜索相关博客之后,发现可能是Pytorch的版本问题原创 2021-02-23 12:06:06 · 1663 阅读 · 1 评论 -
解决“CUDA out of memory.”问题
问题描述今天在跑实验的时候,将网络模型改得更加复杂了,出现内存不够的报错提示:RuntimeError: CUDA out of memory. Tried to allocate 1.22 GiB (GPU 1; 14.76 GiB total capacity; 2.65 GiB already allocated; 1.22 GiB free; 3.69 GiB reserved in total by PyTorch)16GB的GPU都不够用了......解决方法将batch原创 2021-04-15 22:42:38 · 3166 阅读 · 0 评论 -
学习TensorFlow时的一些问题与修正
1.ValueError: Only call `softmax_cross_entropy_with_logits` with named arguments (labels=..., logits=..., ...)错误代码:cross_entropy2=tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits_v2(logits, y_)原创 2018-03-23 17:23:36 · 3388 阅读 · 0 评论 -
Tensorflow中MNIST手写数字数据集
刚开始跑的代码还有错误,但是不知道为什么再次运行就正确了,可能是新添加了input_data.py文件,暂存记录一下,等待深入研究# -- coding: utf-8 --import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 层节点INPUT_NODE = 784LAY原创 2018-03-15 16:01:13 · 714 阅读 · 0 评论 -
机器学习(Machine Learning)&深度学习(Deep Learning)资料
GitHub原文链接:点击打开链接原文很长并且不断更新中,本文只转载前面一小部分,希望大家前去GitHub原文中阅读学习!注:机器学习资料篇目一共500条,篇目二开始更新希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.此外:某些资料在中国访问需要梯子.《Brief History of M转载 2017-09-06 11:05:41 · 751 阅读 · 0 评论 -
常用激活函数比较
转载自不会停的蜗牛常用激活函数比较本文结构:什么是激活函数为什么要用都有什么sigmoid ,ReLU, softmax 的比较如何选择1. 什么是激活函数如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。2. 为什么要用如果不用激励函转载 2017-06-28 11:32:13 · 1674 阅读 · 0 评论 -
神经网络入门之构建多层网络
多层网络的推广这部分教程将介绍两部分:多层网络的泛化随机梯度下降的最小批处理分析在这个教程中,我们把前馈神经网络推到任意数量的隐藏层。其中的概念我们都通过矩阵乘法和非线性变换来进行系统的说明。我们通过构建一个由两层隐藏层组成的小型网络去识别手写数字识别,来说明神经网络向多层神经网络的泛化能力。这个神经网络将是通过随机梯度下降算法进行训练。我们先导入教程需要使用的转载 2017-06-28 11:29:25 · 3187 阅读 · 0 评论 -
神经网络入门之矢量化
矢量化这部分教程将介绍三部分:矢量的反向传播梯度检查动量在先前的教程中,我们已经使用学习了一个非常简单的神经网络:一个输入数据,一个隐藏神经元和一个输出结果。在这篇教程中,我们将描述一个稍微复杂一点的神经网络:包括一个二维的输入数据,三维的隐藏神经元和二维的输出结果,并且利用softmax函数来做最后的分类。在之前的网络中,我们都没有添加偏差项,但在这个网络模型中我们加转载 2017-06-28 11:26:55 · 1983 阅读 · 1 评论 -
Softmax分类函数
softmax分类函数这部分教程将介绍两部分:softmax函数交叉熵损失函数在先前的教程中,我们已经使用学习了如何使用Logistic函数来实现二分类问题。对于多分类问题,我们可以使用多项Logistic回归,该方法也被称之为softmax函数。接下来,我们来解释什么事softmax函数,以及怎么得到它。我们先导入教程需要使用的软件包。import num转载 2017-06-28 10:37:04 · 3601 阅读 · 0 评论 -
神经网络入门之隐藏层设计
隐藏层这部分教程将介绍三部分:隐藏层设计非线性激活函数BP算法在前面几个教程中,我们已经介绍了一些很简单的教程,就是单一的回归模型或者分类模型。在这个教程中,我们也将设计一个二分类神经网络模型,其中输入数据是一个维度,隐藏层只有一个神经元,并且使用非线性函数作为激活函数,模型结构能用图表示为:我们先导入教程需要使用的软件包。import nump转载 2017-06-28 10:31:37 · 13243 阅读 · 0 评论 -
神经网络入门之Logistic回归(分类问题)
Logistic回归(分类问题)这部分教程将介绍一部分:Logistic分类模型我们在上次的教程中给出了一个很简单的模型,只有一个输入和一个输出。在这篇教程中,我们将构建一个二分类模型,输入参数是两个变量。这个模型在统计上被称为Logistic回归模型,网络结构可以被描述如下:Logistic回归模型我们先导入教程需要使用的软件包。imp转载 2017-06-28 10:21:13 · 3224 阅读 · 0 评论 -
神经网络入门之线性回归
转载自chen_h的翻译点击打开链接原文Peter's Notes神经网络入门之线性回归该教程将介绍如何入门神经网络,一共包含五部分。你可以在以下链接找到完整内容。这篇教程中的代码是由 Python 2 IPython Notebook产生的,在教程的最后,我会给出全部代码的链接,帮助学习。神经网络中有关矩阵的运算我们采用NumPy来构建,画图使用Matpl转载 2017-06-27 16:56:11 · 1680 阅读 · 0 评论 -
Logistic分类函数
Logistic分类函数这部分教程将介绍两部分:Logistic函数交叉熵损失函数如果我们利用神经网络进行分类,对于二分类问题,t=1或者t=0,我们能在logistic回归中使用logistic函数。对于多分类问题,我们使用softmax函数来处理多项式logistic回归。本教程我们先解释有关logistic函数的知识,后续教程会介绍softmax函数的知识。转载 2017-06-27 17:28:26 · 1648 阅读 · 0 评论