- 博客(35)
- 收藏
- 关注
原创 水表图片测试的逻辑
1.图片的二值化(变成0,1)在二值化之后的图片上在列的方向上求直方图2,如果直方图为0,则认为这个区域没有数字。对图片进行分割出来五个区域3。粗落的分割方式是对图片切成五块小区域。 把分割出来的图片resize 到28*28 的灰度图(为啥是28*28 的灰度图,因为送进网络训练的图片是28*28 的灰度图)4. 把matlab 下面的.caffemodel 和 。pr
2015-09-29 17:10:26
514
转载 linux命令学习笔记
http://blog.youkuaiyun.com/tangwei2014/article/details/46714589copy:$ cp file1 file2$ cp -r dir1 dir212move:$ mv file ..$ mv file dir/12rename:$ mv file1 file2$ mv dir1 dir2 # dir2如果存
2015-09-18 11:20:47
451
转载 《机器学习实战》笔记之五——Logistic回归
转载自:http://blog.youkuaiyun.com/u010454729/article/details/48274955第五章 Logistic回归回归:对一些数据点,算法训练出直线参数,得到最佳拟合直线,能够对这些点很好的拟合。训练分类器主要是寻找最佳拟合参数,故为最优化算法。5.1 基于Logistic回归和sigmoid函数的分类实现L
2015-09-08 09:59:28
709
原创 NlS 项目
结算表里面的东西:1. 5台DELL 的电脑2. 几台服务器3.从去年十月份的学生的工资 导出来 大概30-40W 的工资交接清单里面的东西:1. 加上USB 的延长线2.BNC 的线可以去掉3.我们给他们的软件(平台什么的都要写进去)4.智慧城市的数据在提交一遍5. 跑一遍DEEPID,要overfiting W 老师说CASIA 的数据库人脸个数太少了,要混
2015-06-19 17:08:29
521
原创 NLS需要采购的东西
NLS 我们需要做的事情1.dvi 转HDMI 的线的长度:(一端是电视,一端是dell 的显示器)2.DVR 的BNC 的线的长度:15米3.电视的牌子,什么时候买,什么时候装。4.USB的摄像头5.汉王的门禁6.15号交课件7.20号交终期报告(包含移交清单跟结算表)8.模拟的摄像头 4个 牌子型号9.DVR 8路一台9.电脑 显示器各一台
2015-06-12 15:12:48
399
原创 过拟合
hilton 在ImageNet Classfication with Deep Covolutional Neural Networks 文章中
2014-05-27 22:31:22
759
原创 师兄博士答辩有感
下午去听了我们组博士的答辩。第一个挺的是FW的。看了他的PPT 发现自己硕士的PPT 写的很烂。基本上大家一般都有四篇以上的文章,然后每个文章是一个主题,当然也不排除在一个主题下面有多篇文章。他对原有的方法基本上做了一个总结,比如现有的什么方法。每个方法有什么优点。什么缺点(用红色的字体标出来),然后针对这个缺点我们提出了什么方法。来解决这个问题。如果这个问题有多个缺点,然后我们会根据一个缺点来改
2014-05-27 20:00:25
1072
原创 BFGS 算法
BFGS 算法是拟牛顿算法的一种。我们知道不管是梯度下降、共轭梯度、还是牛顿法,我们都要解决两个问题,一个是下降方向,一个是搜索步长。搜索步长我们一般采取的方法是用满足wolf 条件的线搜索。本节我们主要介绍BFGS 算法。对于这个算法。我们首先需要知道的是它是一个秩为2的算法。以及它为什么可以用来计算的原因。
2014-05-16 22:45:27
2774
1
翻译 梯度下降
梯度下降: 如果已知函数的表达式,比如:我们首先求这个函数的偏导数然后根据回溯算法求步长:这是标准的梯度下降算法。但是我今天见了两个梯度下降算法:一个是丕子 写的:他的步长是用求hessian 阵的方法一个在网上找的heart 数据集的步长是设定的一个很小的数;我自己在想,如果我把这个步长改的大一点,是不是迭代次数会少很多。丕子的梯度下降:
2014-04-29 20:29:18
573
翻译 深度学习 吴立德
1. 什么是DL?数据:模型:模型分为三种:线性模型:广义线性模型:非线性模型:ANN (artificial neural network、)2. 准则:损失函数:经验风险:正则项:学习目标:算法:难点:A: 需要训练的参数太多B:优化问题是一个非凸优化C: 深层问题如何调节权重
2014-04-28 16:59:00
1301
原创 CNN 初认识
昨天去跟别人讲CNN,感觉自己的深度学习的东西a mass 。每天进步一点点。从今天开始:CNN 在我的理解就是5层的一个网络,每一层卷积层的后面带一层下抽样层以lecun 的网络为例:就是一个五层的网络,有两层卷积层,两层下抽样层,一层输入,一层输出CNN 的目标是 找到一组最优的W,b 在训练每一层的W,b 的时候,其他的层固定不变,这样就相当于是一个. 这样训练每一层的时
2014-04-24 09:49:11
673
翻译 每天一篇paper 之AAM
之所以写这篇博客是因为昨天调一个师兄程序的时候,出现一个问题就是在求解的时候,需要知道 alpha, beta, gamma 的取值。需要知道三个顶点的位置自己不知道怎么给,啰嗦了那么多,想让自己知道看这篇paper 的目的是什么。2.3.1.本文的主要目的是求解一个目标函数: 2.3.2无效的梯度下降算法:Levenberg-Marquardt (LM)算法跟随机梯度下降算法被用
2014-04-18 20:13:42
536
原创 boosting 25 year(听报告)
刚才听了周志华做的boosting 25 years. 开始讲了集成学习讲了一个列子,成绩不好的学生抄作业,肯定是越抄越差,如果是成绩好的学生抄作业,比如总共有三道题目,第一个学生作对第一题跟第三题,第二个学生作对第一题跟第二题,。。。那么他们相互抄的结果可能为100分。主要有两种方法:1. 时间序列的方法。后面的依赖于前面的结果2. Bagging 的
2014-04-16 16:37:38
1321
1
转载 cvEigenVV 函数的使用
void cvEigenVV( CvArr* mat, CvArr* evects, CvArr* evals, double eps=0 ); mat 输入对称方阵。在处理过程中将被改变。 evects 特征向量输出矩阵, 连续按行存储 evals 特征值输出矩阵,按降序存储(当然特征值和特征向量的排序是同步的)。 eps 对角化的精确度 (典型地, DBL_EP
2014-04-13 17:25:46
822
1
原创 小技巧
int main(int argc , char * argv[]){ if (argc!=3) { printf("there is something wrong"); return -1; } int board_w=atoi(argv[1]); // int board_h=atoi(argv[2]); int board_n=board_h
2014-04-10 20:25:56
427
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人