- 博客(8)
- 收藏
- 关注

原创 OCR/CRNN代码,mxnet实现(简易版)
OCR文字识别部分经典算法CRNNCRNN实现有两种:1.输入的训练图片是固定大小,且label定长代码:https://github.com/y1129800378/MXNET/tree/master/OCR/crnn/crnn_fixed_length_inputPS:大家点个star哟^_^2.训练真实数据时,图像大小及label都是不定长的,需要bucket策略(训练时...
2019-03-18 20:46:21
1507
1
原创 Loaded runtime CuDNN library: 7104 (compatibility version 7100) but source was compiled with 7004.
在跑tensorflow-gpu的时候遇到这个问题tensorflow_gpu-1.5.0cuda 9,cudnn7104在网上看了好多说法,去usr/local/cuda-9.0/lib64下面看了libcudnn.so的软连接指向和有几个cudnn版本,改正了一个无效的软连接之后还是报错,但是在目录下没有找到其他版本的cudnn,于是很迷惑后来尝试了升级tensorflow版本...
2019-06-19 18:24:00
380
原创 MobileNet详解(V1)
MobileNetV1是一种既降低了模型大小,又加快了推理速度的模型。但是不太好训练,实测需要先用较大学习率(0.1~0.01左右)训(SGD). 先讲为什么MobileNet可以加快推理速度:上图:首先,假设上图是原本的VGG结构,输入feature map 有M个channel , Df * Df 是输出 feature map的大小channel数为N ,Dk
2018-01-31 19:24:35
8184
原创 论文理解:AlexNet(一)
alexnet发表于2012年 是非常经典的网络。他的主要贡献有:1.使用relu激活函数,加快了模型收敛。2.使用双层结构,进行了gpu并行加速。属于计算图并行。3.提出LRN层,局部归一化。4.overlapping pooling5.基于PCA的图像增强。参考博客:http://yeephycho.github.io/2016/08/03/Normal
2017-10-18 10:10:07
1108
原创 深度学习基础理论探索(二): cross-entropy损失函数的前世今生
前面我们讲到,克服梯度消失有两个方向,1.用rule激活函数。2.改进损失函数用cross_entropy。ok,首先我们先看为什么代价损失函数可以用Cross_entropy.以前使用的二次代价函数很好理解: 即:计算值与真实值的残差。它有两个特点:1.损失函数永远大于0.2.计算值与真实值越接近,损失函数越小。两者差距越大,损失函数越大。我们现在假设这
2017-10-16 22:21:11
9203
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人