
机器学习
吃熊的鱼
菜鸟一只
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
HMM在语音识别中的应用
HMM处理三种问题,我理解为三种功能: - 给出 O (可观测序列o1 o2 o3… ot),求P(O | hmm) - 给出 O,求出使P(O, H | hmm)最大的 H (H为与O对应的隐藏层时序序列) - 给出 O,求出使P(O | hmm) 最大的 hmm(参数调整)HMM应用于孤立词语音识别流程描述:(训练:功能三) 1. 给出a, b, c三个词的音频库(Wa, Wb,原创 2016-07-29 00:09:36 · 2935 阅读 · 1 评论 -
adaboost + cascade 以及在 opencv 中的使用 ------ 模型训练
本文主要说明如何时候用opencv中自带的工具opencv_createsamples和opencv_traincascade训练adaboost + cascade模型Boost核心思想通过对原始数据集采样时给之前分错的数据更大的比例,使得每级分类器更加关注于前面分类器分错的数据。最后多个弱分类器联合起来,产生一个强分类器。主要过程 (DAB) 对原始数据集按一定权重(概率)进行采样,获得新的数据原创 2016-11-29 22:33:20 · 5595 阅读 · 0 评论 -
tensorflow 学习(一)实现线性回归
我的理解: 1. tensorflow 和 spark的思想有点类似,都是lazy执行; 在调用tf.Session().run(...)之前所有的操作都只是在构建Graph的过程,这期间不会执行操作; tf.Session().run(op) 调用时,op操作才会被执行。 2. tf.Session().run(x) 当x是operate (mul, square,trai原创 2016-11-21 20:19:16 · 5892 阅读 · 0 评论 -
文章标题
caffe Layer 源码分三个文件,hpp、cpp、cu. SoftmaxLoss的数学公式参考 caffe层解读系列-softmax_loss其实SoftmaxLossLayer(下面简称SL)封装了一个SoftmaxLayer(下面简称S)为他完成一部分计算,我们可以看到: LayerSetUp时: 创建了S(SoftmaxLayer)对象;SL的输入bottom[0] (一般是fc层的原创 2017-03-07 21:29:04 · 648 阅读 · 0 评论