- 博客(59)
- 资源 (10)
- 收藏
- 关注
原创 提交IEEE论文报错:This document has Type 3 fonts 的解决方法
提交IEEE论文报错:This document has Type 3 fonts 的解决方法
2024-09-09 15:56:00
288
原创 hard negative mining分析得最好的理解
hard negative mining的理解,摘自:这里写链接内容: R-CNN在训练SVM分类器时使用了难分样本挖掘(hard negative mining)的思想,但Fast R-CNN和Faster R-CNN由于使用端到端的训练策略并没有使用难分样本挖掘(只是设置了正负样本的比例并随机抽取)。CVPR2016的Training Region-based Object Detec
2018-01-25 14:13:53
16647
6
转载 (转)tensorflow中使用指定的GPU及GPU显存
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~本文目录1 终端执行程序时设置使用的GPU2 python代码中设置使用的GPU3 设置tensorflow使用的显存大小~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~转载请注明出处:http://www.cnblogs.com/darkknightzh/p/6591923.html参考网址
2017-06-08 10:58:04
18565
原创 神经网络优化算法如何选择Adam,SGD
之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer = tf.train.AdamOptimizer(learning_rate=lr).minimize(cost)但是在使用caffe时solver里面一般都用的SGD+momentum
2017-06-05 15:05:20
33057
原创 迁移学习技巧以及如何更好的finetune 模型
最近在finetune model的时候遇到了点问题,开贴记录一下。也算填自己踩过的坑。 文章参考翻译自cs231n 其实我们常用的直接finetune pre-trained model就属于迁移学习(Transfer Learning)的一种。因为我们很少在训练一个新任务时从零开始训练,一个是由于训练时间限制,另一个时训练样本过大存储空间也不一定允许,如ImageNet数据经济120万张图片
2017-05-09 21:45:37
21694
4
原创 tensorflow求lost(cost)损失函数的几种典型实现方法
最近在用tensorflow平台,需要用到自己构造cost函数,故记录如下: tensorflow求lost(cost)损失函数的几种典型实现方法 参考文献这里写链接内容 这里写链接内容
2017-04-14 11:05:32
9682
原创 Ubuntu ,anaconda安装tensorflow最新GPU-1.0.0版本
pip install https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow_gpu-1.0.0-cp27-none-linux_x86_64.whl
2017-03-23 20:38:03
3195
原创 symbol lookup error: /home/caffe/anaconda/lib/libreadline.so.6: undefined symbol: PC
symbol lookup error: /home/caffe/anaconda/lib/libreadline.so.6: undefined symbol: PC – caffe安装错误解决办法:先执行命令locate libreadline.so.6 然后会发现比如系统目录下:/lib/x86_64-linux-gnu/libreadline.so.6会有这个文件然后cp /lib/x8
2017-03-22 00:29:46
5736
1
原创 不用sqrt()函数,如何求平方根
1:最好的是牛顿迭代法 2:其次是二分法a=s(19)#不用函数实现开方def s(n): #循坏法 if n<0: return -1 else: for i in range(1,n,0.001): #python 的range不能使用小数 while(i*i-n>1e-9)or(i*i-n<-1e-
2017-03-13 21:44:13
7746
原创 caffe中RGB图像三通道卷积过程学习推导
idea来源于自己的想法,之前在github看过大神贾杨清的推导slider,caffe中如果计算卷积,加上自己最近有个很小的疑惑,输入的image一般是RGB三通道的彩色图片,但是我们在定义卷积层时一般只指定了一个kernel_size参数。像这样: 本文首先学习一下贾杨清大神的slider推导过程,然后从caffe源码里面去找从定义caffe的kernel_size参数开始以后干的事,然后
2017-03-08 22:13:07
20053
原创 Contextual Action Recognition with R*CNN-论文阅读
Contextual Action Recognition with R*CNN: arXiv 文章源代码: https://github.com/gkioxari/RstarCNN摘要: 基于动态图像的行为识别主要是学习到图片中人体的动作,比如当图片中运动员慢跑时,周围的环境同样可以为慢跑的识别提供信息,在本文中我们很好的结合了运动物体和环境因素来实现静态图像的行为识别。我们将RCNN
2017-03-02 11:46:53
3523
原创 双流网络行为识别-Spatiotemporal Residual Networks for Video Action Recognition-论文阅读
前几天刚放出来的一篇paper:Spatiotemporal Residual Networks for Video Action Recognition,又将HMDB51数据库和UCF101数据库的精度刷高了。 精度结果如下: 这比之前的tsn网络的结果还要好,之前tsn的结果是:Temporal Segment Networks: Towards Good Practices for
2017-03-02 09:41:14
12634
5
转载 全卷积网络FCN论文阅读Fully Convolutional Networks for Semantic Segmentation
转载http://blog.youkuaiyun.com/u011534057/article/details/51247388【论文信息】《Fully Convolutional Networks for Semantic Segmentation》CVPR 2015 best paperReference link: http://blog.youkuaiyun.com/tangwei2014http://blog
2017-02-22 16:20:26
3968
转载 论文阅读:SSD: Single Shot MultiBox Detector
转载http://blog.youkuaiyun.com/u010167269/article/details/52563573Preface这是今年 ECCV 2016 的一篇文章,是 UNC Chapel Hill(北卡罗来纳大学教堂山分校) 的 Wei Liu 大神的新作,论文代码:https://github.com/weiliu89/caffe/tree/ssd 有几点更新: 1. 看到一篇 bl
2017-02-21 10:58:38
841
转载 【论文学习】YOLO9000: Better,Faster,Stronger(YOLO9000:更好,更快,更强)
原文`http://blog.youkuaiyun.com/hysteric314/article/details/53909408`原文下载:https://arxiv.org/pdf/1612.08242v1.pdf 工程代码:http://pjreddie.com/darknet/yolo/目录目录摘要简介BETTERFasterStronger总结要说的摘要提出YOLO v2 :代表
2017-02-20 10:49:49
860
转载 R-FCN:基于区域的全卷积网络来检测物体
原文http://blog.youkuaiyun.com/shadow_guo/article/details/51767036原文标题为“R-FCN: Object Detection via Region-based Fully Convolutional Networks ”,作者代季峰 1,14年毕业的清华博士到微软亚洲研究院的视觉计算组,CVPR 16 两篇一作的会议主持人~ ╰(°▽°)╯ 同时公布
2017-02-20 10:30:54
1250
转载 【目标检测】Faster RCNN算法详解
转载自:http://blog.youkuaiyun.com/shenxiaolu1984/article/details/51152614 Ren, Shaoqing, et al. “Faster R-CNN: Towards real-time object detection with region proposal networks.” Advances in Neural Information
2017-02-17 11:11:34
1186
转载 caffe的python接口:绘制loss和accuracy曲线
转载自:http://www.cnblogs.com/denny402/p/5686067.html使用python接口来运行caffe程序,主要的原因是python非常容易可视化。所以不推荐大家在命令行下面运行python程序。如果非要在命令行下面运行,还不如直接用 c++算了。推荐使用jupyter notebook,spyder等工具来运行python代码,这样才和它的可视化完美结合起来。
2017-02-17 10:53:06
1107
转载 YOLO论文解读
转载自:http://blog.youkuaiyun.com/u011534057/article/details/51244354Reference link:http://blog.youkuaiyun.com/tangwei2014这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。 虽然目前版本还有一些硬伤
2017-02-17 10:31:03
7047
转载 【目标检测】Fast RCNN算法详解
原文:http://blog.youkuaiyun.com/shenxiaolu1984/article/details/51036677 Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.继2014年的RCNN之后,Ross Girshick在15
2017-02-17 10:27:01
4383
转载 RCNN论文学习
原文http://blog.youkuaiyun.com/shenxiaolu1984/article/details/51066975Girshick, Ross, et al. “Rich feature hierarchies for accurate object detection and semantic segmentation.” Proceedings of the IEEE conferen
2017-02-17 10:24:18
552
原创 Linux服务器后台继续执行程序tmux方法
通常本地连接远程linux服务器以后我们需要服务器一直执行程序,即使我们本地电脑关机或者断开连接,此时我们需要用到开后台神器tmux首先保证你的电脑安装了tmux 如果是ubuntu:apt-get install tmux然后在命令行输入tmux,这时我们就开启了一个tmux后台程序,你在这里执行所有的命令和在shell里面执行是一样的结果,但是这里所有的结果和进程在你本地断开连接后远程服务器都
2017-01-17 22:56:15
13023
2
原创 caffe的solver参数调优--caffe学习(17)
先看在python里面写solver文件需要有哪些参数: 其中主要的几个参数区别test_interval,test_iter,max_iter,在这里已经介绍过caffe的solver文件参数详解–caffe学习(2) 接下来看自己跑实验室这些参数应该怎么设置,这里都以SGD为例: [1] L. Bottou. Stochastic Gradient Descent Tricks. Neura
2017-01-14 20:42:37
5317
原创 sublime打造caffe开发环境,prototxt文件语法高亮
给sublime添加python插件让开发caffe时更方便是很简单的,但是caffe开发时还需要常常和 各种经常和各种train.prototxt文件打交道,怎么让sublime在我们编辑caffe的prototxt文件时提供语法高亮效果呢?1:control+shift+P键: 然后输入install,选择install package 2:然后键入选择这个安装包 这样我们打开pr
2017-01-14 15:56:14
2415
转载 一个有趣的问题 : α_β_γ_δ_ε_ζ_η_θ_ι_κ_λ_μ_ν怎么读
在http://www.cnblogs.com/yymn/p/4955988.html看到一个有趣的东西,分享如下:αβγδεζηθικλμν怎么读:大写 小写 中文名 英文注音 意义 a α 阿尔法 alpha 角度;系数 b β 贝塔 beta 磁通系数;角度;系数 γ γ 伽玛 gamma 电导系数(小写) δ δ 德尔塔 delta 变动;屈光度;方程判别式(大写);
2017-01-14 09:21:41
5252
原创 ubuntu运行命令tee显示和保存为log
一般有三种需求: 假如我要执行一个py文件python class.py1:将命令输出结果保存到文件log.logpython class.py |tee log.log结果就是:屏幕输出和直接执行python class.py输出一样,但是输出同样被保存到了log.log文件中2:将命令正确执行和错误的输出结果都保存到文件log.logpython class.py 2>&1 | tee
2017-01-12 16:03:08
8705
原创 L1归一化和L2归一化范数的详解和区别
一句话介绍就是: L1 norm就是绝对值相加,又称曼哈顿距离; L2 norm就是欧几里德距离之和L2范数: 在向量范数范围内: L1范数就是等于各个值的绝对值相加,这里不贴公式了。从公式上来说: L1的公式: 绝对值相加 L2的公式: 欧几里德距离之和 就是样本和标签之差的平方之和两个范数的简单性能对比: 在正则化中二者的区别: 同时注意由于L1是绝对值之和
2017-01-11 10:36:23
55692
6
原创 caffe中loss函数代码分析--caffe学习(16)
http://blog.youkuaiyun.com/u014381600/article/details/54341317接上篇:caffe中样本的label一定要从序号0开始标注–caffe学习(15) A: 1:数学上来说,损失函数loss值和label从0开始还是从1或者100开始是没有直接联系的,以欧式距离损失函数(Euclidean Loss)为例子: 2:铰链损失函数(Hinge Los
2017-01-11 09:34:32
6350
原创 caffe/tensorflow中样本的label一定要从序号0开始标注--caffe学习(15)
这两天在跑实验时思考一个问题,为什么在别的帖子里面和自己之前的实验中,对于data的标注大家都默认使用的是从0开始标注样本,之前的一次finetune中,自己的样本从34567开始标注的时候一直没有开始收敛loss,但是后来在另一个帖子中看到标注必须要从0开始,后来自己改成01234之后loss也收敛了,因此开贴记录并验证。这是序号为01234的test.txt文件内容: 先看标注从0开始的样
2017-01-10 23:40:40
11800
1
原创 caffe中train_val.prototxt文件和deploy.prototxt文件区别和转换--caffe学习(14)
先放出二者的完整例子文件,然后分析: train_val.prototxt文件如下:name: "CaffeNet"layer {name: "data"type: "Data"top: "data"top: "label"include {phase: TRAIN}transform_param {mirror: truecrop_size: 227mean_file:
2017-01-10 21:43:56
7564
2
原创 A Key Volume Mining Deep Framework for Action Recognition论文学习
Zhu W, Hu J, Sun G, et al. A Key Volume Mining Deep Framework for Action Recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2016:1991-1999.百度学术 1:思路:
2017-01-10 18:20:20
3149
3
原创 caffe增加自己的layer实战(下-续1)--caffe学习(13)
接上篇:caffe增加自己的layer实战(下)–caffe学习(12) 构造完函数后我们就要进入proto目录。编辑caffe.proto文件,构造我们的video_data_layer的输入参数。 找到:message LayerParameter { 里面有很多类似: optional PythonParameter python_param = 130; 我们要为自己的video_
2017-01-09 15:49:20
2718
原创 caffe增加自己的layer实战(下)--caffe学习(12)
接上篇 caffe增加自己的layer实战(中)–caffe学习(11) 先放出完整的修改后的video_data_layers.cpp:#include <fstream>#include <iostream>#include <string>#include <utility>#include <vector>#include "caffe/data_layers.hpp"#inc
2017-01-09 11:24:24
2781
原创 caffe增加自己的layer实战(中)--caffe学习(11)
接上篇: caffe增加自己的layer实战(上)–caffe学习(9) 实现完hpp头文件后就在cpp中实现具体的函数: 目录更改到cpp文件:/caffe/src/caffe/layers 新建文件,命名为:video_data_layers.cpp1:首先包含头文件#include <fstream>#include <iostream>#include <string>#inclu
2017-01-09 11:21:02
1970
原创 caffe增加自己的layer实战(上)--caffe学习(10)
github上如何增加自己的caffe layer:这里写链接内容 摘要如下:Here's roughly the process I follow. Add a class declaration for your layer to the appropriate one of common_layers.hpp, data_layers.hpp, loss_layers.hpp, ne
2017-01-09 10:52:16
2330
原创 caffe各个层layer的区别和介绍 Vision Layers,Data Layers, Common Layers--caffe学习(9)
主要有几个大类Vision Layers,Data Layers, Common Layers。 其实caffe官网介绍的已经很仔细了,可以参考中文翻译版本: 由CaffeCN社区志愿者共同翻译的Caffe官网教程,目前已经完成社区预览,现在对外发布。我们在此致谢所有参加此次翻译活动的朋友们! 本文档版权现已贡献给Caffe官方,由CaffeCN社区负责后续维护。 下载地址 百度云: htt
2017-01-09 09:44:07
1495
原创 caffe增加自己的layer教程集合
两篇优快云教程 这里写链接内容 这里写链接内容caffe中文社区: 这里写链接内容github一篇 这里写链接内容 斯坦福大学大牛的博客 这里写链接内容我自己实现的教程: caffe增加自己的layer实战(上)–caffe学习(10) caffe增加自己的layer实战(中)–caffe学习(11) caffe增加自己的layer实战(下)–caffe学习(12)
2017-01-08 16:45:31
802
原创 常用网络模型结构LeNet,AlexNET,VGG,BN-inception,ResNet网络模型简介和资料整理--caffe学习(8)
在使用深度神经网络时我们一般推荐使用大牛的组推出的和成功的网络。如最近的google团队推出的BN-inception网络和inception-v3以及微软最新的深度残差网络ResNET。 我们从简单的网络开始介绍,学习理解网络结构是如何发展到今天的,同时本文整理了自己用别人网络结构时别人的网络结构的pre-reain model和prototxt文件的资源。 首先安利caffe zoo大法,可
2017-01-08 14:18:41
23469
原创 caffe安装错误总结(cuda,cudnn,ffmpeg错误,cudnn.hpp:8:34)
最近安装了caffe的Linux版本。1.操作系统最好使用ubuntu desktop 14.04 64位。2.剩下的就按caffe官网安装caffe的方法安装就行了,一路顺畅。顺便提醒一下,caffe没有说要安装opencv,这个是需要安装的,可以在所以安装完毕后,安装opencv。3.opencv安装,4.1ffmpeg:sudo add-apt-repository ppa:kirillshk
2017-01-05 10:40:15
7975
第二版Science Research Writing for Non-Native Speakers of English
2023-11-05
Science Research Writing for Non-Native Speakers of English
2023-11-05
斯坦福机器学习编程作业machine-learning-ex5,方差与误差, Bias v.s. Variance题目,满分,2015最新作业答案
2015-10-22
斯坦福机器学习编程作业machine-learning-ex4,神经网络模型,Neural Networks Learning题目,满分,2015最新作业答案
2015-10-18
斯坦福机器学习编程作业machine-learning-ex3,神经网络模型,非线性模型题目,满分,2015最新作业答案
2015-10-15
斯坦福机器学习编程作业machine-learning-ex2,Logistic Regression逻辑回归题目,满分,2015最新作业答案
2015-10-15
斯坦福机器学习编程作业machine-learning-ex1,Linear Regression,线性回归
2015-10-15
vs2010连接mysql数据库(VS2013和64位PC和64bitsMYSQL平台)
2014-11-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人