
深度学习 deep_learning
文章平均质量分 78
深度学习 deep_learning
Dontla
这个作者很懒,什么都没留下…
展开
-
海康摄像头 海思AI芯片(Hi35XX): 图像jpg转.bgr
前言把一张jpg图片转成bgr(注意顺序是bgr)二进制文件,最近在弄华为Hi3516DV300开发板上的一些深度学习的样例程序,换言之,35xx nnie SDK只支持BGR以及yuv格式的数据输入。那么当手头刚好只有jpeg/png等图片文件时,怎么来进行目标识别呢,一般的思路是用opencv来读取图片文件,然后再转换成BGR/YUV等格式,最后扔到NNIE模块来进行深度学习推理。本篇讲解jpg转bgr,也就是它的输入文件不是普通的jpg,而是bgr格式的二进制文件,还别说,这样确实是大大节省了空间转载 2022-03-16 22:53:25 · 1255 阅读 · 0 评论 -
深度学习网络backbone?head、neck、bottleneck、GAP、Embedding、pretext task、downstream task、temperature parameter
一些术语:backbone这个单词原意指的是人的脊梁骨,后来引申为支柱,核心的意思。在神经网络中,尤其是CV领域,一般先对图像进行特征提取(常见的有vggnet,resnet,谷歌的inception),这一部分是整个CV任务的根基,因为后续的下游任务都是基于提取出来的图像特征去做文章(比如分类,生成等等)。所以将这一部分网络结构称为backbone十分形象,仿佛是一个人站起来的支柱。1.backbone:翻译为主干网络的意思,既然说是主干网络,就代表其是网络的一部分,那么是哪部分呢?翻译的很好,转载 2022-03-04 11:16:01 · 1496 阅读 · 0 评论 -
深度学习NCHW和NHWC数据格式(由三维数据转换成一维数据的遍历方式)
文章目录一、基本概念二、逻辑表达三、物理存储3.1 NCHW3.2 NHWC四、RGB图像数据举例五、不同框架支持流行的深度学习框架中有不同的数据格式,典型的有NCHW和NHWC格式。本文从逻辑表达和物理存储角度用图的方式来理解这两种数据格式,最后以RGB图像为例来加深NHWC和NCHW数据存储格式的理解。一、基本概念深度学习框架中,数据一般是4D,用NCHW或NHWC表达,其中:N - BatchC - ChannelH - HeightW - Width二、逻辑表达假定N = 2,转载 2022-02-25 23:47:15 · 9500 阅读 · 5 评论 -
YOLOv5 报错:“NotImplementedError: Could not run ‘torchvision::nms‘ with arguments from the ‘CUDA‘ back
是torchvisiao-cuda没装好,重装下参考文章:解决“NotImplementedError: Could not run ‘torchvision::nms‘ with arguments from the ‘CUDA‘ backend.”原创 2021-08-28 16:19:27 · 16875 阅读 · 3 评论 -
wandb(w&b)(weights and biases): 深度学习轻量级可视化工具入门教程
W&B,全称Weights and Biases,是一个专为机器学习项目设计的开发工具。它提供了实验跟踪、数据可视化和模型版本控制等功能,对于深度学习实验和调优非常有用。# 安装w&b库!转载 2021-08-22 10:44:29 · 5074 阅读 · 4 评论 -
pycharm/pytorch OSError: 页面文件太小,无法完成操作(改变虚拟内存大小)
在计算机科学中,虚拟内存是一种内存管理技术,它使得每个程序都认为自己有连续可用的地址空间,而实际上,它们被分散存储在物理内存和磁盘上。当程序需要更多内存空间时,操作系统会将一些不常用的内存页移到磁盘上,从而为新的内存需求腾出空间。当这些被移走的内存页再次被需要时,操作系统则将其从磁盘取回。原创 2021-08-21 17:21:03 · 3929 阅读 · 1 评论 -
(水文)目标检测里的预测inference(推断)是啥,就是(prediction)(预测)
prediction = inference原创 2021-08-20 16:50:56 · 718 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(4)线性神经网络(暂停)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/pytorch中文文档(哪个函数不明白用法查询非常好用)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深原创 2021-08-20 15:01:24 · 3690 阅读 · 0 评论 -
交叉熵函数(Cross Entropy)与均方误差损失函数(MSE)对比?为什么选择交叉熵函数?
参考文章:损失函数 | MSE转载 2021-08-19 22:51:57 · 767 阅读 · 0 评论 -
最大似然估计(最大可能性估计)(likelihood)
20230816。原创 2021-08-17 10:28:43 · 1117 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(3)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅲ(概率)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/pytorch中文文档(哪个函数不明白用法查询非常好用)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深原创 2021-08-13 10:46:21 · 2113 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(3)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅱ(线性代数、微分、自动求导)
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(2)前言(介绍各种机器学习问原创 2021-08-11 19:31:15 · 1112 阅读 · 0 评论 -
pytorch torch.norm(input, p=2) → float、torch.norm(input, p, dim, out=None) → Tensor(求范数)
torch.norm用法1:torch.norm(input, p=2) → float返回输入张量input 的p 范数。参数:input (Tensor) – 输入张量p (float,optional) – 范数计算中的幂指数值例子:(3阶范数就是把各个元素绝对值的三次方求和sum,再对sum开三次根号)>>> a = torch.randn(1, 3)>>> a-0.4376 -0.5328 0.9547[torch.FloatT原创 2021-08-11 10:53:53 · 776 阅读 · 0 评论 -
pytorch 1.9.0 backward函数解释以及报错(RuntimeError: grad can be implicitly created only for scalar outputs)
torch._tensor.Tensor def backward(self, gradient: Optional[Tensor] = None, retain_graph: Any = None, create_graph: Any = False, inputs: Any = None) -> AnyComputes the gradient of current tensor w.r.t. graph leaves.The graph is differentiated usin原创 2021-08-11 09:47:16 · 6108 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(2)前言(介绍各种机器学习问题)以及数据操作预备知识Ⅰ
开源项目地址:d2l-ai/d2l-zh教材官网:https://zh.d2l.ai/书介绍:https://zh-v2.d2l.ai/笔记基于2021年7月26日发布的版本,书及代码下载地址在github网页的最下面交流者论坛额外:https://distill.pub/(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)文章目录前言(35)前言(35)...原创 2021-08-06 17:04:53 · 2303 阅读 · 0 评论 -
(d2l-ai/d2l-zh)《动手学深度学习》pytorch 笔记(1)(序言、pytorch的安装、神经网络涉及符号)
开源项目地址:d2l-ai/d2l-zh书及代码下载链接:https://github.com/d2l-ai/d2l-zh/releases本笔记基于2021年7月26日发布的版本,下载地址在github网页的最下面ps. 本文只挑重点记录文章目录序言序言原创 2021-08-03 22:27:37 · 2103 阅读 · 0 评论 -
AI 深度学习 gif动图压缩优化工具
旷视等提出GIF2Video:首个深度学习GIF质量提升方法原创 2020-09-26 12:50:20 · 583 阅读 · 0 评论 -
AI、ML论文网站、如何阅读论文?
网站arXiv官网:不推荐。。。sanity,GitXiv,Quora、Reddit都会有讨论arXiv上的论文中文社区比如paperweekly、论文怎么读引用1:大家是怎么阅读 arXiv 论文的? - 爱可可-爱生活的回答 - 知乎引用2:大家是怎么阅读 arXiv 论文的? - Evan的回答 - 知乎...原创 2020-06-15 16:07:39 · 545 阅读 · 0 评论 -
深度学习与神经网络关系(BP网络【浅层】与深层网络)
文章目录Deep Learning的基本思想浅层学习(Shallow Learning)和深度学习(Deep Learning)浅层学习是机器学习的第一次浪潮。深度学习是机器学习的第二次浪潮。Deep learning与Neural Network八、Deep learning训练过程8.1、传统神经网络的训练方法为什么不能用在深度神经网络BP算法存在的问题:8.2、deep learning训练过程Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,转载 2020-06-08 01:02:44 · 8388 阅读 · 1 评论 -
【深度学习的数学】用神经网络进行图像分类时,为什么输出层的神经单元数量要跟分类数相同?可以采用二进制的表示方式么?
引用文章:用神经网络进行图像分类时,为什么输出层的神经单元数量要跟分类数相同?原创 2020-05-20 22:46:40 · 876 阅读 · 0 评论 -
【深度学习的数学】交叉熵公式如何推导?
使用最小二乘法的二次代价函数作为损失函数由于存在计算收敛时间长的情况,人们引入了交叉熵函数,利用交叉熵和sigmoid函数,可以消除sigmoid函数的冗长性,提高梯度下降法的计算速度,那么,交叉熵函数是如何推导出来的呢?...原创 2020-05-20 22:29:29 · 793 阅读 · 0 评论 -
尝试修改LabelImg,将以对顶角画框改成以对角线相交点向四周画框
打断点,开始调试原创 2020-03-30 17:45:40 · 1376 阅读 · 7 评论 -
目标检测评价标准 精准度(precision)、召回率(recall)、准确率(accuracy)、交除并(IoU)【全】
引用文章:目标检测评价标准评价训练效果的值——精准度(precision)、召回率(recall)、准确率(accuracy)、交除并(IoU)TP是正样本预测为正样本FP是负样本预测为正样本FN是本为正,错误的认为是负样本TN是本为负,正确的认为是负样本precision就是在识别出来的图片中(预测为正样本的图片是识别出的图片),TP所占的比值:precision=TP/(TP+F...原创 2020-02-20 08:49:44 · 1487 阅读 · 0 评论 -
深度学习中batch_size、epoch和iteration的含义
iteration:1个iteration等于使用batchsize个样本训练一次;epoch:1个epoch等于使用训练集中的全部样本训练一次,通俗的讲epoch的值就是整个数据集被轮几次。参考文章:深度学习中的batch、epoch、iteration的含义...原创 2020-02-18 13:58:06 · 1951 阅读 · 0 评论 -
深度学习中的batch理解(batch size 一次喂给神经网络的数据大小量)
本文引用自:训练神经网络时如何确定batch size?文章目录前言回顾Batch SizeWhich one?前言当我们要训练一个已经写好的神经网络时,我们就要直面诸多的超参数了。这些超参数一旦选不好,那么很有可能让神经网络跑的还不如感知机。因此在面对神经网络这种容量很大的model前,是很有必要深刻的理解一下各个超参数的意义及其对model的影响的。回顾简单回顾一下神经网络的一次迭代...原创 2020-02-18 13:32:53 · 18973 阅读 · 0 评论 -
LabelImg操作及快捷键
以下针对yolo标注格式:Change Save Dir 选择需要保存标注的文件夹Open Dir 选择源图片文件夹W 新建标注A\D 上一张\下一张图片空格 保存对该张图片操作(如果修改后不确认将会弹出提示)Use default label 选择默认标签(这里我们只有一个类,在输入框中输入0)Ctrl + d 复制框(选中一个方框,按ctrl+d,能够复制该方框,便于我们...原创 2020-02-15 13:47:06 · 13336 阅读 · 0 评论 -
修改labelImg软件的yolo标注写入格式(.txt文件不换行的解决办法)(将换行符'\n'替换成'\r\n')
labelImg标注的写入格式貌似有点问题:写出来是这样的,换行都没了在软件程序中查找write()函数,在这里找到了写入的位置:我尝试着将它改改貌似还是不对后来发现是这个问题:参考文章:fwrite将文本写入txt,用"\n"不能换行的问题...原创 2020-02-14 17:46:50 · 1208 阅读 · 4 评论 -
tensorflow_yolov3 神经网络训练时train_loss和test_loss出现NaN(not a number)的原因和解决方法
训练到一定阶段,就全是Nan了可能是代码问题,参考解决办法:看tensorflow_yolov3作者回复说:但我这貌似都训练到头不动了:参考文章1:训练神经网络循环3000次后,交叉熵损失为nan原因? - Blownhither的回答 - 知乎参考文章2:Train loss: 51,Test loss: nan Saving… #404...原创 2020-02-13 09:34:24 · 2387 阅读 · 4 评论 -
深度学习中学习率(lr:learn rate)和batchsize如何影响模型性能?
引用自:学习率和batchsize如何影响模型的性能?文章目录1 为什么说学习率和batchsize2 学习率如何影响模型性能?2.1、初始学习率大小对模型性能的影响2.2、学习率变换策略对模型性能的影响2.2.1 预设规则学习率变化法2.2.2 自适应学习率变化法2.3、小结3 Batchsize如何影响模型性能?3.1、大的batchsize减少训练时间,提高稳定性3.2、大的batchsi...原创 2020-02-13 00:26:27 · 8347 阅读 · 1 评论 -
鸢尾花识别问题,萼片有什么用?
萼片在花朵开放前起保护花的作用。花开放之前就脱落的花萼称早落萼,如白屈菜、虞美人;果实成熟后,花萼仍然存在,并且随果实一起增大,称宿萼,如柿、辣椒等。萼片大而鲜艳呈花冠状,称瓣状萼,如乌头、铁线莲;有的萼筒一边向外凸起,形成一管状或囊状突起,称距,如凤仙花。一朵花中所有萼片(sepal)的总称是花萼,包被在花的最外层。萼片多为绿色而相对较厚的叶状体,内含稍分枝的维管组织与丰富的绿色薄壁细胞...原创 2020-02-10 16:22:04 · 2917 阅读 · 0 评论 -
如何绘制深度学习-目标检测评估指标P-R(precision-recall)曲线?如何计算AP(average-precision)?
参考文章:深度学习-目标检测评估指标P-R曲线、AP、mAP文章目录P-R曲线:AP计算:下面通过具体例子说明。首先用训练好的模型得到所有测试样本的confidence score,每一类(如car)的confidence score保存到一个文件中(如comp1_cls_test_car.txt)。假设共有20个测试样本,每个的id,confidence score和ground ...原创 2020-02-06 15:51:15 · 3108 阅读 · 0 评论 -
怎么看深度学习目标检测的PR(查准率-查全率 precision-recall)曲线?
比如 ,我只检测一个类。。。这是它的P-R曲线下图为查准率-查全率曲线(P-R图)若一个学习器的P-R曲线被另一个学习器完全”包住”,则后者的性能优于前者。当存在交叉时,可以计算曲线围住面积,但比较麻烦,平衡点(查准率=查全率,BEP)是一种度量方式。参考文章:机器学习中的PR曲线和ROC曲线...原创 2020-02-06 15:42:06 · 3295 阅读 · 2 评论 -
深度学习目标检测中计算目标的AP(average precision)平均精度、有什么用?
AP衡量的是学出来的模型在每个类别上的好坏,mAP衡量的是学出的模型在所有类别上的好坏,得到AP后mAP的计算就变得很简单了,就是取所有AP的平均值。参考文章:深度学习-目标检测评估指标P-R曲线、AP、mAP...原创 2020-02-06 15:16:23 · 6542 阅读 · 1 评论 -
目标检测中准确率accuracy的计算(precision是精度、查准率)(Recall是召回率、查全率)
参考文章1:目标检测中如何计算AP和mAP以及绘制P-R曲线以及SSD中如何修改代码来输出AP和绘制P-R曲线参考文章2:机器学习中 True Positives(真正例TP)、False Positives(假正例FP)、True Negatives(真负例TN)和 False Negatives(假负例FN)指什么...原创 2020-02-06 13:41:20 · 7221 阅读 · 0 评论 -
平移不变性:Translation Invariance 与 平移同变性:Translation equivariance
在欧几里得几何中,平移是一种几何变换,表示把一幅图像或一个空间中的每一个点在相同方向移动相同距离。比如对图像分类任务来说,图像中的目标不管被移动到图片的哪个位置,得到的结果(标签)应该是相同的,这就是卷积神经网络中的平移不变性。平移不变性意味着系统产生完全相同的响应(输出),不管它的输入是如何平移的 。平移同变性(translation equivariance)意味着系统在不同位置的工作原理相...原创 2020-02-03 12:48:20 · 4640 阅读 · 0 评论 -
深度学习中不变性是什么?平移不变性Translation Invariance、旋转/视角不变性Ratation/Viewpoint Invariance、尺度不变性Size、Illumination
文章目录不变性定义不变性分类为什么卷积神经网络具有平移不变性不变性定义意味着即使目标的外观发生了某种变化,但是你依然可以把它识别出来。这对图像分类来说是一种很好的特性,因为我们希望图像中目标无论是被平移,被旋转,还是被缩放,甚至是不同的光照条件、视角,都可以被成功地识别出来。不变性分类平移不变性:Translation Invariance旋转/视角不变性:Ratation/Viewp...原创 2020-02-03 12:43:58 · 6272 阅读 · 3 评论 -
python 中easydict模块使用(可用于在深度学习中建立一个全局变量)
参考文章:python中的easydict模块使用原创 2019-11-16 22:20:18 · 487 阅读 · 0 评论 -
yunyang tensorflow-yolov3 NMS:non maximum suppression 非极大值抑制方法
文章目录NMS: non maximum suppression非极大值抑制的背景非极大值抑制的步骤NMS: non maximum suppression非极大值抑制的背景生成器对一张图片生成的框在进行图外滤去、颠倒滤去、低概率滤去之后,会留下一些符合要求的框,但这些框有不少部分是重合的,而在同一张图片中,我们需要识别的目标是有限的,所以我们要对这些框继续筛选并剔除,以满足我们目标与框一一...原创 2019-11-13 09:07:09 · 1151 阅读 · 0 评论 -
tensorflow-yolov3 yunyang1994 image_preporcess(image, target_size, gt_boxes=None)函数 image_preprocess
该函数将源图结合input_size,将其转换成预投喂的方形图像(作者默认544×544,中间为缩小尺寸的源图,上下空区域为灰图)# D·C191107:图像处理函数,参数分别为(输入图片,输入方形框尺寸,还有个不管)def image_preporcess(image, target_size, gt_boxes=None): # D·C 191107:不懂为何转换数据类型,节省存储...原创 2019-11-08 16:03:28 · 874 阅读 · 0 评论 -
YunYang1994/tensorflow-yolov3 ValueError: cannot reshape array of size 43095 into shape (6) 解决办法
参考文章:YunYang1994/tensorflow-yolov3 训练自己的数据集原创 2019-11-05 11:32:20 · 2354 阅读 · 0 评论