
CV
文章平均质量分 52
qiusuoxiaozi
取法乎上
展开
-
【CS231n Winter 2016 Lecture 1 (Brief history&course overview)】
lecture 1cs131,计算机视觉本科课程,导论。 cs231a,计算机视觉研究生课程,涵盖CV更加广的知识(cs231n主要是vision recognition/image classification) 有志CV者建议学习 cs231n,主要讲CNN用于image classification历史就不多扯了。。说是几百万年前生物视觉的诞生大幅促进了进化过程,因为捕食者有了眼睛会追,被原创 2016-05-09 00:30:58 · 2425 阅读 · 0 评论 -
Caffe—Developing New Layer
Developing new layersAdd a class declaration for your layer to include/caffe/layers/your_layer.hpp. Include an inline implementation of type overriding the method virtual inline const char* type() c原创 2017-06-15 10:08:03 · 543 阅读 · 0 评论 -
General Trainning Strategy in Caffe
首先祭出caffe.proto中对于solver.prototxt的一些参数定义: // The number of iterations for each test net. repeated int32 test_iter = 3; // The number of iterations between two testing phases. optional int32 test_原创 2017-06-04 14:32:31 · 442 阅读 · 0 评论 -
Caffe—SigmoidCrossEntropyLossLayer
首先看一下来自CaffeCN的一个帖子(突然发现CaffeCN是一个交流Caffe的好地方) 地址:http://caffecn.cn/?/question/25 截图如下上图之所以要分xnx_n正负讨论是为了让e的指数为负数,以防止溢出。整个表达式对应下面的代码第18行开始template <typename Dtype>void SigmoidCrossEntropyLossLayer<D原创 2017-06-14 18:34:22 · 2203 阅读 · 2 评论 -
语义分割中的训练策略和参数设置
下面主要总结一下语义分割和边缘检测中,使用VGG作为base network的论文中,训练参数和策略的情况:原创 2017-06-20 10:51:23 · 6611 阅读 · 1 评论 -
Spatial Transfomer Networks
本着不重新造轮子的原则。。链接如下: Deep Learning Paper Implementations: Spatial Transformer Networks - Part I Deep Learning Paper Implementations: Spatial Transformer Networks - Part II原创 2017-08-29 15:17:34 · 445 阅读 · 1 评论 -
What in the hell is the AP and mAP?
Average Precision and mean Average Precision原创 2017-12-18 19:29:52 · 1745 阅读 · 0 评论 -
图像数据的预处理,从'P','RGBA','RGB'多种mode的图像说起
‘P’,’RGBA’,’RGB’这是PIL Image读图可能出现的三种mode,每种mode的图片数据都有不同的组织形式,当训练/测试数据都是一堆图片时,尤其是那种没人帮你清洗的数据时,自己就要留神了,否则模型还没跑起来就给提前自己挖了个坑。首先,先容许我吐槽一下OpenCV的两个抽风,我用的python接口的(估计没怎么维护吧,所以有bug),用cv2.imread读图:对’RGBA’...原创 2018-03-15 09:23:38 · 10547 阅读 · 5 评论 -
SSD代码中MatchBBox函数的理解
卧了个槽。。这个函数竟然看了我这么久。先把整个函数体摘抄如下:void MatchBBox(const vector<NormalizedBBox>& gt_bboxes, const vector<NormalizedBBox>& pred_bboxes, const int label, const MatchType mat...原创 2018-03-12 00:42:04 · 1713 阅读 · 1 评论 -
码隆科技WebVision2017冠军模型思想
WebVision2017是一个半监督的任务,本文全部提取自码隆科技做的一个讲座ImageNet和WebVision数据集的对比: WebVision数据集: 第一个思想是:Data, model architecture, loss, training strategy都同等重要。 数据不均衡的问题,多的有10000+张,少的只有几百张: 主要的挑战在于noi...原创 2018-03-19 00:53:41 · 1440 阅读 · 1 评论 -
Caffe Tutorial in Brief
首先看 Blobs, Layers, and NetsCaffe stores, communicates, and manipulates the information as blobs: the blob is the standard array and unified memory interface for the framework. The layer comes next as t原创 2017-02-17 17:27:38 · 501 阅读 · 0 评论 -
【CS231n winter2016 Lecture 7 (Convolutional Neural Network)】
讲的贼特么好!!lecture6主要讲的是一般的NN的一些technique/trick本讲关于CNN的基本知识讲得很清晰,不过先前自己已经有了一些学习。但是有一些细节讲的很好,比如说:为什么filter的大小一般是3x3/5x5/7x7这样的奇数大小,原因是可以很公平的“顾及”到specific point周边的点,比如3x3正好就是关键点前后左右各一个,5x5前后左右各两个。讲到了利用pad原创 2016-12-29 19:25:06 · 885 阅读 · 0 评论 -
Total least square&RANSAC
弃我去者昨日之日不可留,昨天高级人工智能大作业答辩,强手如林,实在感觉自己如井底之蛙。 应该保持专注。今天看了Udacity计算机视觉入门, 记一个笔记,关于Total least square, 相当于是least square的一种改进,因为least square有一个缺点,就是比如在直线拟合的时候,由于计算的是y−ax−by-ax-b,相当于是竖直距离误差,这样的话,对于拟合直线的斜率太敏感原创 2016-12-29 11:18:29 · 1987 阅读 · 0 评论 -
【CS231n Winter 2016 Lecture 2 (Image classifier,NN/KNN/linear classifier)】
Lecture 2上一讲结束后,李飞飞就回家生孩子了。这一讲是Andrej Karpathy讲 语速较快,不过听着还行,当练练听力。上来就说先把image classifier给搞定了,然后各种渲染classifier is a challengeable task. 举的是猫的例子,在不同的照片角度,光照,猫的姿态,品种等各种“干扰”下,分类器都应该robust. 贴一个图来体会体会,我也是醉了原创 2016-05-12 10:17:05 · 1130 阅读 · 0 评论 -
【CS231n winter2016 Lecture 3 (Linear classification II/loss function/optimization/SGD)】
一上课就说作业的截止日期只有7天,想起原来该课程还是有作业的,不做的话可能达不到效果,要不等到课程中段了或者看完整个课后再写吧。。另外自己在想找个时间把凸优化和乔丹推荐的书单开始学习了。Lecture 3回顾上一讲,image classifier is a tough task但是最新的技术已经能又快又好地解决这个问题了,这些都发生在过去3年里,课程结束后你们就是这个领域的专家了! 今原创 2016-05-12 20:42:12 · 952 阅读 · 0 评论 -
【CS231n winter2016 Lecture 4 (Backpropagation ,Introduction to neural networks)】
Nothing new 总的来说,利用computation graph引入了backpropagation的思想。 笔记就不再和前三讲那么截图贴出来了,反正有ppt.原创 2016-07-02 12:56:16 · 621 阅读 · 0 评论 -
【CS231n winter2016 Lecture 6 (Training Neural Networks Part 3,update schemes/dropout and so on..)】
lecture 6 Neural Networks Part 3 Intro to ConvNets hdoutline:SGD performes not so good in practice.Momentum update ,物理解释很不错Nesterov Momentum updateand so on…二次优化的方法,Hessian矩阵要求逆,尤其是高维的时候,所以impratical改进原创 2016-11-29 18:09:02 · 670 阅读 · 0 评论 -
Win7+CUDA8.0+VS2015+Theano0.8配置GPU加速环境
今天感觉至少做成了一件事,心情不错!Nvidia官网给出的兼容性情况:大致来说: Theano0.8的安装通过Anaconda然后pip install theano,细节参照Theano的官方文档Installation of Theano on Windows ,只要能import theano成功就可以了(或者把文档中的一个sample跑通也可以)。CUDA直接在Nvidia官网下载,照着官原创 2016-12-04 01:13:05 · 6210 阅读 · 0 评论 -
入门经典的computer vision
想要对经典的CV的处理方法和逻辑有一个入门的了解,推荐 OpenCV-Python Tutorials ,也就是opencv的技术文档,很不错,思路清晰流畅,可读性强。原创 2016-11-23 00:19:23 · 550 阅读 · 0 评论 -
/etc/ld.so.conf.d/目录下文件的作用
安装opencv后配置环境时遇到了这个问题,这篇文章写的很清楚,引用!另外关于ldconfig命令的学习可以看这个网页, 作用是让新安装的动态链接库马上起作用(前提是已经修改了配置 文件)。ldconfig命令的用途主要是在默认搜寻目录/lib和/usr/lib以及动态库配置文件/etc/ld.so.conf内所列的目录下,搜索出可共享的动态链接库(格式如lib*.so*),进而创建出动态装入程序(原创 2016-12-09 21:33:10 · 1074 阅读 · 0 评论 -
SIFT
Very good blog for the introduction of SIFT原创 2016-12-23 19:31:15 · 362 阅读 · 0 评论 -
图像特征点匹配(Matching feature points) to be continued..
LIFT应该没有开源匹配的源码,今早霍老师要求做一下匹配,那就做一下吧,顺便学一学,争取今晚给他一个结果。优达学城上计算机视觉概论讲到了Matching feature points(在SIFT讲完之后),所以下面先把视频中提到的内容归纳一下: 1. Exhaustive Nearest Neighbor(computationally expensive) 2. Approximate Nea原创 2016-12-25 17:37:48 · 2787 阅读 · 0 评论 -
RCNN->SPPnet->Fast RCNN->Faster RCNN的训练数据分配策略
物体检测算法本身训练起来是一个比较繁复的过程,搞懂算法的训练数据分配策略对于理解算法很重要。RCNNRCNN解决检测问题的思路比较粗暴; 先把ImageNet分类网络末层改成21个节点(针对VOC数据),然后finetune一个分类网络当作一个feature extractor。现在想来确实太大材小用了。finetune CNN分类网络,作者采取的数据分配策略是:postive s...原创 2018-05-12 17:59:34 · 568 阅读 · 0 评论