- 博客(8)
- 收藏
- 关注
原创 输入输出
#include<iostream> #include<string> #include<algorithm> #include<vector> using namespace std; void split(const std::string &s, char delimiter, std::vector<std::string&...
2018-08-05 21:41:30
182
原创 字符串分割转int
#include<iostream> #include<string> #include<algorithm> #include<vector> using namespace std; void split(const std::string &s, char delimiter, std::vector<std::string&...
2018-08-05 21:21:59
1169
转载 RCNN
Rich feature hierarchies for accurate object detection and semantic segmentation
2017-08-09 20:35:30
255
转载 基础知识
评价指标mAP(http://blog.youkuaiyun.com/syoung9029/article/details/56276567) 识别为 正 负 正 TP FP 负 FN TN precision=TPTP+FPprecision=\frac{TP}{TP+FP} recall=TPTP+FNrecall=\frac{TP}{TP+FN} 一般需要绘制prec
2017-08-09 20:07:15
245
原创 AdaBoos算法Matlab实现
算法描述1.初始化训练数据的权重分布 D1=(w11,w12,⋯,w1,n),w1,i=1nD1=(w_{11},w_{12},\cdots ,w_{1,n}),w_{1,i}=\frac{1}{n} 2.对具有Dm权值分布的训练数据,执行下面的操作 学习基本分类器Gm 计算在Gm上的分类误差率 em=P(Gm(xi)≠yi)=∑i=1NwmiI(Gm(xi)≠yi)e_m=P(Gm(x_i)
2017-03-29 21:44:24
933
原创 Boosting算法MATLAB实现
算法描述 从大小为n的原始样本集D中不放回得随机选取n1个样本点,得到样本集D1,根据D1训练第一个弱分类器C1。 采用掷硬币方式,如果是正面就选取D中剩余样本点一个一个送到C1中进行分类,遇到第一个被错分的样本加入集合D2中;如果是反面就选取一个被C1正确分类的样本点加入集合D2中。集合D2有一半样本被C1正确分类,另一半样本被C1错误分类,利用D2训练弱分类器C2。 取样本集D中剩余样本点,如C
2017-03-26 20:48:00
5917
原创 机器学习-决策树(理解+代码)
特征选择,构造决策树,修剪决策树 损失函数 基本知识 熵:H(X)=−∑ni=1pilogpiH(X)=-\sum_{i=1}^{n}p_i\log {p_i} 条件熵:H(Y|X)=∑ni=1piH(Y|X=xi)H(Y|X)=\sum_{i=1}^{n}p_iH(Y|X=x_i) 信息增益:g(D,A)=H(D)−H(D|A)g(D,A)=H(D)-H(D|A) A:特征D:数据集
2017-03-14 20:04:46
382
原创 欢迎使用优快云-markdown编辑器
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦: Markdown和扩展Markdown简洁的语法 代码块高亮 图片链接和图片上传 LaTex数学公式 UML序列图和流程图 离线写博客 导入导出Markdown文件 丰富的快捷键 快捷键 加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2017-03-14 19:55:33
312
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅