
深度学习
cool_策
以梦为马,莫负韶华
寻找小伙伴,一起搞事情
抱团取暖,合作共赢
wx:图像处理进阶之路
展开
-
Openvino系列-文本识别案例介绍(C++版本)(三)
1、基于系列(二)中的架构,需要cmake一下生成.sln文件,官网提供的sample里面已经写好了.bat脚本文件,所以直接运行即可(一定要有运行.bat这个操作步骤)cd C:\Program Files (x86)\IntelSWTools\openvino_2020.3.194\deployment_tools\inference_engine\samples\cppbuild_samples_msvc.bat2、生成的路径C:\Users\ANDY\Documents\Intel\Op原创 2020-07-03 20:51:17 · 1696 阅读 · 2 评论 -
Openvino系列-安装架构简介(二)
本人的安装目录如下(安装的openvino最新版,之前版本可能略有差异):C:\Program Files (x86)\IntelSWTools架结简介构如下1、重点看deployment_tools文件夹下内容,有案例,有代码,可以尽快上手2、以应用实践为目的,下一篇会介绍如何使用其中的一个案例...原创 2020-07-03 17:18:02 · 460 阅读 · 0 评论 -
Openvino系列-环境安装(window10+vs2019)(一)
1、openvino-toolkit下载官网(需要注册登录,也可以第三方平台登录)https://software.intel.com/content/www/us/en/develop/tools/openvino-toolkit/choose-download/windows.html下载好文件如下:2、点击安装w_openvino_toolkit_p_2020.3.194.exe文件(全选然后Next)3、如果缺少外部关联组件,您将会看到一个告警屏幕(可以先忽略接着Next)。4、会原创 2020-07-03 16:21:54 · 1960 阅读 · 1 评论 -
挤压网络SqueezeNet
卷积神经网络一般规模较大,参数较多,比如AlexNet总共8层,65万个神经元和6000万个参数。其他网络,像VGGNet,ResNet和DenseNet等,还可能更复杂,简化模型结构,压缩模型的参数,就成为改进卷积神经网络的必要问题。为了利用较少的网络参数获得相近的性能,landola等人提出了一种压缩结构,所产生的结果称为挤压网络SqueezeNet。这种结构对卷积神经网络进行结构压缩,遵循下面3个基本的设计测略:使用1X1卷积核代替3X3卷积核减少3X3卷积核的输入通道数量推后下采样,增大卷原创 2020-06-21 17:22:21 · 715 阅读 · 0 评论 -
孪生网络SiameseNet
传统的分类模型需要确切知道每个样本的标签属于那个类,而标签的数量通常相对较少。在类别数量特别对,标签相对少的情况下,有些类别可能根本就没有标签,比如人类第一次见到的生物物种往往是叫不出来名字的,这时进行分类可以考虑孪生网络(Siamese Network)。孪生网络不仅能从给定的数据中学习一个相似性的度量,而且还能利用所学的度量从给定的数据中学习一个相似性度量,而且还能利用所学的度量去比较和匹配新样本以确定类别。孪生网络的基本思想时构造一个函数将输入映射到目标空间,在目标空间通过简单的距离(例如,欧式距离,原创 2020-06-20 22:46:10 · 4150 阅读 · 0 评论 -
激活函数mish和swish应用(keras)
mish使用代码用例from keras.models import Modelfrom keras.layers.core import Dense, Dropout, Activation, Reshape, Permutefrom keras.layers.convolutional import Conv2D, Conv2DTranspose, ZeroPadding2Dfrom keras.layers.pooling import AveragePooling2D, GlobalAver原创 2020-06-19 15:39:25 · 3038 阅读 · 1 评论 -
YOLO进化史
这篇博客是本人的第100篇原创,总结一下yolo的算法,yolo目标检测算法问世以来,每年都会有各种新的算法迭代更新,它具有自身显著的优势而备受人们青睐,总结了一下,会持续更新,共同学习。...原创 2020-06-09 23:09:34 · 1679 阅读 · 0 评论 -
nms/soft-nms实现
代码实现如下:def soft_nms(dets,sc, Nt=0.5, sigma=0.5, thresh=0.4, method=0): """ py_cpu_softnms :param dets: boexs 坐标矩阵 format [y1, x1, y2, x2] :param sc: 每个 boxes 对应的分数 :param Nt: iou 交叠门限 :param sigma: 使用 gaussian 函数的方差原创 2020-06-09 12:50:23 · 277 阅读 · 0 评论 -
R2CNN翻译
Abstract在本文中,我们提出了一种称为旋转区域CNN(R2CNN)的新方法,用于检测自然场景图像中的任意方向的文本。 该框架基于Faster R-CNN [1]架构。 首先,我们使用区域提案网络(RPN)生成与轴对齐的边界框,该边界框将文本以不同的方向包围起来。 其次,对于RPN提出的每个轴对齐文本框,我们提取其具有不同合并大小的合并特征,并使用级联特征同时预测文本/非文本分数,轴对齐框和...翻译 2020-04-14 21:42:33 · 522 阅读 · 0 评论 -
ShuffleNet翻译
Abstract我们介绍了一种名为ShuffleNet的极具计算效率的CNN架构,该架构专为计算能力非常有限(例如10-150 MFLOP)的移动设备而设计。 新的体系结构利用了两个新的操作,逐点组卷积和通道转换,可以在保持精度的同时大大降低计算成本。 ImageNet分类和MS COCO对象检测的实验证明了ShuffleNet优于其他结构的性能,例如 在40个MFLOP的计算预算下,比最近的Mob...翻译 2020-04-13 21:52:40 · 612 阅读 · 0 评论 -
MobileNet论文翻译
Abstract我们为移动和嵌入式视觉应用提出了一种称为MobileNets的有效模型。 MobileNets基于简化的架构,该架构使用深度可分离卷积来构建轻型深度神经网络。 我们介绍了两个简单的全局超参数,它们可以有效地在延迟和准确性之间进行权衡。 这些超参数允许模型构建者根据问题的约束条件为其应用选择合适大小的模型。 我们在资源和准确性之间进行了广泛的权衡取舍,与ImageNet分类中的其他...翻译 2020-04-13 21:50:18 · 626 阅读 · 0 评论 -
PeleeNet论文翻译
Abstract在计算能力和内存资源有限的移动设备上运行卷积神经网络(CNN)模型的需求日益增长,这鼓励了人们对有效模型设计的研究。近年来,已经提出了许多有效的体系结构,例如MobileNet,ShuffleNet和MobileNetV2。但是,所有这些模型都严重依赖于深度可分离卷积,这在大多数深度学习框架中缺乏有效的实现。在这项研究中,我们提出了一个名为PeleeNet的科学体系结构,该体系结构是...翻译 2020-04-13 21:36:50 · 604 阅读 · 0 评论 -
icdar2015转VOC数据集(labelImg可查看)
直接运行代码import osimport numpy as npimport cv2def xml(num,width,height,labelname,box,imageName,imagePath): """ 写xml文件 :param num: 第num个文件 :param width: 图的宽 :param height: 图的高 ...原创 2020-04-08 17:50:28 · 660 阅读 · 0 评论 -
Keras多标签分类
模型# import the necessary packagesfrom keras.models import Sequentialfrom keras.layers.normalization import BatchNormalizationfrom keras.layers.convolutional import Conv2Dfrom keras.layers.convolu...原创 2020-03-26 17:55:55 · 597 阅读 · 0 评论 -
车道线开源算法
传统方法,opencv实现https://zhuanlan.zhihu.com/p/52623916https://zhuanlan.zhihu.com/p/54866418https://github.com/yang1688899/CarND-Advanced-Lane-Lines深度学习算法https://github.com/MaybeShewill-CV/lanenet-lan...原创 2020-03-26 10:16:26 · 384 阅读 · 0 评论 -
Tensorflow设置gpu占有率
调整gpu_fraction参数大小(最大设置为1.0)def get_session(gpu_fraction=0.5): num_threads = os.environ.get('OMP_NUM_THREADS') gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=gpu_fraction) ...原创 2020-03-24 10:48:54 · 800 阅读 · 1 评论 -
Keras 自适应Learning Rate (LearningRateScheduler)
Learning Rate Schedules学习率时间表旨在通过根据预定义的时间表降低学习率来调整训练期间的学习率。 常见的学习率时间表包括基于时间的衰减,阶跃衰减和指数衰减。 出于说明目的,我构建了一个在CIFAR-10上训练的卷积神经网络,使用具有不同学习率计划的随机梯度下降(SGD)优化算法来比较性能。Constant Learning Rate固定学习率是Keras中SGD...转载 2020-03-20 14:53:47 · 10202 阅读 · 2 评论 -
经典CNN模型及其特点
AlexNet网络(2012年)AlexNet含有五个卷积层,三个池化层和三个全连接层。特点1、首次使用非线性激活函数ReLU,验证其在较深的网络中效果远超Sigmoid函数,不仅避免了在较深网络中出现的梯度弥散问题,还加快了网络训练速度。2、训练中使用Dropout机制随机忽略一部分神经单元,有效避免过拟合。3、使用最大池化,避免池化导致的糊化效应。4、灵活运用数据增加策略减少过...原创 2020-03-02 19:26:18 · 2088 阅读 · 0 评论 -
flask部署keras模型的问题
问题:raise ValueError(“Tensor %s is not an element of this graph.” % obj)ValueError: Tensor Tensor(“dense_3/Sigmoid:0”, shape=(?, 59), dtype=float32) is not an element of this graph.我的解决方案初始化部分加入“se...原创 2019-11-07 18:19:09 · 596 阅读 · 0 评论 -
ubuntu16.04+cuda9.0安装warp-ctc
pytorch 下载地址:cuda9.0 torch下载连接环境准备安装pytorch-0.4.1,torchvision-0.2.1pip install torch==0.4.1pip install torchvision==0.2.1安装warp-ctcgit clone https://github.com/SeanNaren/warp-ctc.gitcd warp-...原创 2019-10-24 13:31:34 · 566 阅读 · 1 评论 -
Tesorflow将训练模型固化
将深度模型固化有两种方案:1、直接训练过程中模型保存成pb格式。2、先将训练模型保存成ckpt,然后转成pb格式第一种直接保存成pb格式,VGG-16 示例程序(根据需求自己复用)from PIL import Imageimport numpy as npimport matplotlib.pyplot as pltimport matplotlib.image as mpimg...原创 2019-01-21 10:47:41 · 658 阅读 · 1 评论 -
TensorFlow与TensorLayer学习
参考该博客很齐全:https://blog.youkuaiyun.com/edward_zcl/article/details/80565695原创 2018-11-21 18:33:55 · 702 阅读 · 0 评论 -
LeNet-5训练minist手写体
新建minist_inference.py文件,完成网络搭建import tensorflow as tfINPUT_NODE = 784OUTPUT_NODE = 10IMAGE_SIZE=28NUM_CHANNELS=1NUM_LABELS=10CONV1_DEEP=32CONV1_SIZE=5CONV2_DEEP=64CONV2_SIZE=5FC_SIZE...转载 2018-09-29 16:27:28 · 1113 阅读 · 0 评论 -
Tesorflow深度学习框架
转载 2018-10-12 11:34:02 · 468 阅读 · 0 评论 -
完整的神经网络样例程序(一)
import tensorflow as tffrom numpy.random import RandomStatew1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))batch_size=8x=tf.placeho...转载 2018-09-27 10:24:19 · 3013 阅读 · 0 评论