
深度学习
文章平均质量分 82
sunny*&*
这个作者很懒,什么都没留下…
展开
-
基于内容的图像检索
图像搜索引擎一般有三种实现方式:(1)Search By Metadata,这种方式不会考虑图片本身内容(图片包含物体,以及图像像素分布等),纯粹根据图像标签来进行检索。如果某个网页中有一张赛马的图片,并且网页文本内容中包含“赛马”(或者相关词汇)的文字,当用户搜索“赛马”、“马”、“horse”等关键字时,搜索引擎就会把这张图当作检索结果返回给用户。换句话说,此时的图像搜索引擎干的事情跟普通搜索引擎差不多,匹配关键词,并将对应图片返回给用户。这种工作方式的优点是速度快,在普通搜索引擎的技术基础之上很容.转载 2021-07-07 14:58:49 · 1309 阅读 · 0 评论 -
Keras中导入数据的方法,包括快速导入大规模的自制数据集
在对Keras框架的学习中,一个很大的难点就是数据的导入,尤其是当数据不能一次放入内存的时候,应该如何导入的问题。在Keras的官网,没有章节特意讲这个内容,而专门去找资料,也很难找到相关的内容。绝大多数的教程都是直接使用的Keras自带的数据集。为了处理大量数据的情况,我还特意研究了Python的多线程。后来我还知道了导入数据的时候的随机性的重要性等各种问题。这篇文章算是一个总结。详细内容参见链接:https://www.jianshu.com/p/0fbe5b5d0ab8来源:简书...转载 2021-03-26 16:15:09 · 5378 阅读 · 0 评论 -
Keras预训练模型下载及迁移学习
Keras 预训练模型简介在 Keras 中,包含有一个辅助应用模块 keras.applications,其提供了带有预训练权重的 Keras 模型。你可以直接使用这些模型,或者像本文一样对模型进行改造后完成迁移学习。计算机视觉领域,有 3 个最著名的比赛,分别是:ImageNet ILSVRC,PASCAL VOC 和微软 COCO 图像识别大赛。其中,Keras 中的模型大多是以 ImageNet 提供的数据集进行权重训练。目前,Keras 包含有 5 个预训练模型,分别为:Xception,V转载 2021-02-18 16:35:13 · 2033 阅读 · 0 评论 -
深度学习 Fine-tune 技巧
深度学习中需要大量的数据和计算资源(乞丐版都需要12G显存的GPU - -)且需花费大量时间来训练模型,但在实际中难以满足这些需求,而使用迁移学习则能有效降低数据量、计算量和计算时间,并能定制在新场景的业务需求,可谓一大利器。迁移学习不是一种算法而是一种机器学习思想,应用到深度学习就是微调(Fine-tune)。通过修改预训练网络模型结构(如修改样本类别输出个数),选择性载入预训练网络模型权重(通常是载入除最后的全连接层的之前所有层 ,也叫瓶颈层)再用自己的数据集重新训练模型就是微调的基本步骤。 微调转载 2021-02-18 14:15:56 · 1062 阅读 · 0 评论 -
机器学习:数据预处理之独热编码(One-Hot)
在机器学习算法中,我们经常会遇到分类特征,例如:人的性别有男女,祖国有中国,美国,法国等。这些特征值并不是连续的,而是离散的,无序的。通常我们需要对其进行特征数字化。那什么是特征数字化呢?例子如下:性别特征:[“男”,“女”]祖国特征:[“中国”,"美国,“法国”]运动特征:[“足球”,“篮球”,“羽毛球”,“乒乓球”]假如某个样本(某个人),他的特征是这样的[“男”,“中国”,“乒乓球”],我们可以用 [0,0,4] 来表示,但是这样的特征处理并不能直接放入机器学习算法中。因为类别之间是无序的转载 2021-02-05 10:06:53 · 522 阅读 · 0 评论 -
loss 之binary和categorical crossentropy的区别
1、binary_crossentropy交叉熵损失函数,一般用于二分类:也可以用于多分类问题,通常需要在网络的最后一层添加sigmoid进行配合使用,其期望输出值(target)需要进行one hot编码2.categorical_crossentropy分类交叉熵函数,适用于多分类问题,并使用softmax作为输出层的激活函数的情况:...转载 2020-12-04 16:42:41 · 2130 阅读 · 0 评论 -
Python错误提示:[Errno 24] Too many open files的分析与解决
背景在训练中文手写文字识别的项目中发现了一个错误,在执行多线程dataload的时候出现下面这个错误OSError: [Errno 24] Too many open filesRuntimeError: DataLoader worker (pid 15160) exited unexpectedly with exit code 1. Details are lost due to multiprocessing. Rerunning with num_workers=0 may give be原创 2020-12-04 09:46:58 · 15297 阅读 · 12 评论 -
数据集中训练数据集和测试数据集特征同分布
用标准数据来训练,但是在真实的测试过程中,输入数据的并不会是标准数据,导致了训练与测试的两个过程中数据分布的不一致。首先要说,训练集合与测试集合的分布完全一样,这个不太现实,因为相对于有限的训练集,测试集合理论上趋于无限大,所以无法穷尽。然而我们也不能为了单单去拟合我们手里的测试集而调整模型。那么要了解业务场景,要知道你的产品需要到哪些场景中,人为的分析数据源,这样收集到的数据可能会更好。这里假定你有个识别人脸的应用,你的数据集是来自某知名人脸数据库(简称原数据库),10w张左右,图片清晰标注明确。而原创 2020-11-09 17:14:12 · 2371 阅读 · 0 评论 -
机器学习课程及深度学习框架开发教程文档整理
keras中文文档Tensorflow中文文档Pytorch: pytorch123教程 中文教程&文档主页原创 2020-11-04 14:09:35 · 131 阅读 · 0 评论 -
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
在机器学习、深度学习中使用的优化算法除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢?在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:https://arxiv.org/pdf/1609.04747.pdf本文将梳理:每个算法的梯度更新规则和缺点为了应对这个不足而提出的下一个算法超参数的一般设定值几种算法的效果比较选择哪种算法**0.梯度下降法深入理解**以下为个人总结,如有错转载 2020-11-02 13:41:02 · 332 阅读 · 0 评论 -
Pytorch常用的交叉熵损失函数CrossEntropyLoss()的解读
引言 在使用pytorch深度学习框架,计算损失函数的时候经常会遇到这个函数:nn.CrossEntropyLoss() 该损失函数结合了nn.LogSoftmax()和nn.NLLLoss()两个函数。它在做分类(具体几类)训练的时候是非常有用的。在训练过程中,对于每个类分配权值,可选的参数权值应该是一个1D张量。当你有一个不平衡的训练集时,这是是非常有用的。那么针对这个函数,下面将做详细的介绍。什么是交叉熵?交叉熵主要是用来判定实际的输出与期望的输出的接近程度,为什么这么说呢,举个例子:在转载 2020-10-22 11:22:34 · 2053 阅读 · 0 评论 -
CIFAR-10数据集介绍及制作
CIFAR-10数据集官网下载CIFAR-10数据集介绍用自己的数据集制作类似于Cifar-10格式的数据集转载 2020-10-08 16:08:17 · 790 阅读 · 0 评论 -
机器学习面试
博客搬运:BAT机器学习面试1000题系列(二)转载 2020-09-29 14:53:17 · 79 阅读 · 0 评论 -
数据增广(Data Augmentation)方法
方法:镜像(flip)旋转(rotation)缩放(scale)裁剪(crop)平移(translation)高斯噪声(gaussion noise)图像亮度、饱和度和对比度变化PCA JitteringLable shuffleSDA生成对抗网络(generative adversi network)注:crop、flip、scale是大杀器,color augmentation甚至导致反作用。推荐文章:知乎https://zhuanlan.zhihu.com/p/8941转载 2020-09-28 09:06:58 · 1810 阅读 · 0 评论 -
深度学习模型训练调优方法
从数据集质量、学习率lr、batch size、激活函数、网络结构几方面入手数据集数据处理:数据增广、数据清洗、数据预处理等小数据集(小于1千)要用比较小的学习率0.001,一般lr取0.001 0.01 0.1batch size 取2的n次幂推荐几个博客:图像分类任务中的训练奇技淫巧深度学习训练的小技巧,调参经验。总结与记录深度学习中的超参数设定及训练技巧...原创 2020-09-23 16:33:09 · 654 阅读 · 0 评论 -
MS COCO object detection训练结果validation评估指标
1、Average Precision (AP):AP % AP at IoU=0.50:0.05:0.95 (primary challenge metric)APIoU=.50 % AP at IoU=0.50 (PASCAL VOC metric)APIoU=.75 % AP at IoU=0.75 (strict metric)AP Across Scales:转载 2020-09-17 10:04:53 · 492 阅读 · 0 评论 -
深度学习 开源网站
当下优秀的论文以及实现项目code地址:https://paperswithcode.com/sotaTensorFlow 白皮书 http://www.jianshu.com/p/65dc64e4c81fTensorFlow – 谷歌全新开源人工智能系统官方文档中文版: http://wiki.jikexueyuan.com/project/tensorflow-zh/keras中文文档:http://keras-cn.readthedocs.io/en/latest/preprocessing原创 2020-09-09 10:12:34 · 405 阅读 · 0 评论 -
如何进行高质量的图像标注
在算力满足要求的前提下,模型效果会随着素材数量的增多而变好,理论上没有上限。实践证明,在普通基于深度学习的应用开发过程中,素材的数量和质量对最终模型效果的影响出乎意料的大。常见目标检测算法有SSD、Yolo以及Faster-RCNN等。三种算法模型训练需要的素材格式基本相同:1、二维图像文件;2、对应二维图像中人工标注出的感兴趣目标信息,包括目标坐标/大小、目标类型,一般用(left,top,width,height,class)来表示;模型训练的过程就是将上述素材数据喂给神经网络,反复优化,最后转载 2020-09-02 09:38:15 · 5016 阅读 · 0 评论 -
Win10 Anaconda 安装LabelImg以及使用
转载自:知乎墨明棋妙 原文链接labelImg是图片标注软件,用于数据集的制作、标注等等。下面介绍labelImg的安装过程。我用的是anaconda,所以以anaconda prompt作为终端:在Anaconda Prompt中依次运行以下命令(注意大小写):pip install PyQt5 -i https://pypi.tuna.tsinghua.edu.cn/simple/(后面这行是国内的清华镜像源,下载速度才会比较快)pip install pyqt5-tools -i http转载 2020-08-06 09:53:41 · 3257 阅读 · 0 评论 -
TensorRT & DeepStream 加速深度学习推理计算讲解
文章转载自:NVIDIA教你用TensorRT加速深度学习推理计算主讲人:Ken(何琨)| NVIDIA开发者社区经理张康 屈鑫 编辑整理量子位 出品 | 公众号 QbitAI12月22日,量子位联合NVIDIA英伟达举行了线下交流会,跟现场近百位开发者同学共同探讨了如何用TensorRT加速深度学习推理计算,详细讲解了GPU的推理引擎TensorRT,以及如何配合Deepstream实...转载 2020-04-24 15:58:41 · 5124 阅读 · 2 评论 -
CNN读取图片列表
CNN处理输入 1 张图片:设置网络batch_size =1CNN处理输入 n 张图片:设置网络batch_size =n输入网络的 n 张图片要放入一个列表,以一个列表的形式同时输出入到网络下面说一下图片列表的生成:一个简单的应用例子import numpy as npdef load_image(file_path): do something #处理图片 re...原创 2020-04-24 11:33:14 · 1010 阅读 · 0 评论 -
人类姿态估计 行为识别 资料整理
2d pose estiamtion:1、CMU OpenPose2、AlphaPose3、lightweight human pose (lightweight openpose)3d pose estimation1、3D human pose estimation in video with temporal convolutions and semi-supervised tra...原创 2020-04-16 11:18:01 · 750 阅读 · 0 评论 -
Windows系统中使用git bash sh的方法
下载Git并安装,官网地址:git安装好之后,设置环境变量:安装目录下有如下三个可执行文件:使用时,运行相应的.exe文件,用cd 转到相应路径下cd panoptic/160422_haggling1 运行下面命令实现kinectImgsExtractor.sh解析160422_haggling1../scripts/kinectImgsExtractor.sh注意:路...原创 2020-04-03 15:17:27 · 2498 阅读 · 0 评论 -
tensorflow2.0没有contrib包:tensorflow has no attribute "contrib"
tensorflow升级到2.0后,没有contrib包GitHub上很多项目都是基于TensorFlow1.0版本的,所以要将TensorFlow降级TensorFlow2.0与1.0的区别可以参见博文:博主:Jamie_Wu博文地址:https://blog.youkuaiyun.com/ibelieve8013/article/details/103925071...原创 2020-04-03 14:35:38 · 23643 阅读 · 5 评论 -
端到端学习
个人理解为:端到端学习即end-to-end,从输入结果直接预测得到输出结果,中间过程为黑盒子。另外可以参考这两个博主的解释:1、 端到端机器学习”中的“端到端”理解作者:盛夏的枯黄链接:https://www.zhihu.com/question/264358398/answer/280694210来源:知乎端到端学习是一种解决问题的思路,与之对应的是多步骤解决问题,也就是将一个...转载 2020-03-25 09:39:22 · 2150 阅读 · 0 评论 -
cmake -D CMAKE_PREFIX_PATH=/home/nvidia/data/wyy/openpose/build
cmake -D CMAKE_PREFIX_PATH=/home/nvidia/data/wyy/openpose/build .... 表示上层目录-D 相当于就是定义, -D 可以理解为告诉cmake 后边我要定义一些参数了, 你每定义一个就在前边加上-D就是了CMAKE_PREFIX_PATH是要编译的WENJIADE路径CMAKE_BUILD_TYPE 是要编译的类型, 一般的选...原创 2020-03-10 16:21:22 · 8549 阅读 · 0 评论 -
caffe编译错误集锦
https://www.cnblogs.com/rainsoul/p/8243385.html原创 2020-03-10 16:19:30 · 287 阅读 · 0 评论 -
ubuntu make时,找不到头文件
1、通过find命令查找编译时找不到的头文件。find / -name x.h (x.h是缺少的头文件,根据实际情况操作)2、如果能找到, 就在/usr/include目录下建立一个x.h的软连接ln -s /usr/x/y/z/x.h /usr/include/z (假设缺少的头文件路径 /usr/x/y/z/,根据实际情况操作)比如:找不到openpose中的头文件,我的openps...原创 2020-03-10 11:01:42 · 3753 阅读 · 0 评论 -
caffe mnist示例
关于caffe convert_mnist_data.cpp 的代码注释参见此博客https://blog.youkuaiyun.com/lhnows/article/details/73301841运行caffe的mnist示例,参见博客原创 2020-03-06 09:04:49 · 108 阅读 · 0 评论