
机器学习
文章平均质量分 68
faithenXX
对互联网感兴趣
展开
-
多类svm
1.一对多(one-versus-one) 速度较快,但是存在缺陷。2.一对一(one-versus-one) 有K个类,则两两一对构造k(k-1)/2个分类器,把待分对象用这些分类器进行判别,最后使用投票法,得票多的类别为最终类别。分类时要使用全部模型进行判别,速度慢,且存在拒分(多种类别得票相同时)。3.有向无环图(DAG-SVM) 类别原创 2015-07-13 20:55:15 · 630 阅读 · 0 评论 -
RCNN 论文学习笔记
1. 主要突破 经典的目标检测算法使用滑动窗法依次判断所有可能的区域。本文则预先提取一系列较可能是物体的候选区域,之后仅在这些候选区域上提取特征,进行判断。 经典的DPM目标检测算法在区域中提取人工设定的特征(Haar,HOG)。本文则需要训练深度网络进行特征提取。可供使用的有两个数据库: 一个较大的识别库(ImageNet ILSVC 2原创 2016-10-12 11:48:51 · 430 阅读 · 0 评论 -
Fast R-CNN 论文笔记
Ross Cirshick针对R-CNN的改进发表于2015年的ICCV作者给出的代码:有python和C++语言,基于caffe,工程地址 https://guthub.com/rbgirshick/fast-rcnn.R-CNN的缺点:1,是一个多级的pipeline,它有几个单独的流程:1,训练CNN;2训练SVM;3训练bbox。2,训练太过耗费时间与空间(原创 2017-01-14 15:53:08 · 465 阅读 · 0 评论 -
深度学习梯度下降的几种优化方式
转自:https://zhuanlan.zhihu.com/p/22252270前言(标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochasti转载 2017-05-12 15:40:41 · 780 阅读 · 0 评论 -
交叉熵代价函数
转自:http://blog.youkuaiyun.com/u012162613/article/details/442399191.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+b 】。转载 2017-05-05 10:52:29 · 292 阅读 · 0 评论 -
YOLO 论文笔记
Reference link: http://blog.youkuaiyun.com/tangwei2014这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。 虽然目前版本还有一些硬伤,但是解决了目前基于DL检测中一个大痛点,就是速度问题。 其增强版本GPU中能跑45fps,简化版本155fps转载 2017-08-01 15:34:16 · 441 阅读 · 0 评论 -
faster-RCNN
见链接: http://blog.youkuaiyun.com/zy1034092330/article/details/62044941转载 2017-08-01 20:12:01 · 390 阅读 · 0 评论 -
SSD 目标识别
转自 http://blog.youkuaiyun.com/smf0504/article/details/52745070一句话形容SSD:借鉴faster rcnn中anchor boxes的multi-scale版本的YOLOPreface这是今年 ECCV 2016 的一篇文章,是 UNC Chapel Hill(北卡罗来纳大学教堂山分校) 的 Wei Liu 大神转载 2017-08-02 10:44:48 · 2527 阅读 · 0 评论 -
Focal loss
见链接 http://blog.youkuaiyun.com/u014380165/article/details/77019084转载 2017-08-16 21:17:41 · 726 阅读 · 0 评论