
机器学习
j-o-l-i-n
半路出家机房扫地僧,沉迷火炉炼丹和修仙。精通徒手写bug,曾出版《如何一秒爆显存》。
展开
-
交?叉?验?证?(?分?类?器?性?能?)
http://wenku.baidu.com/view/d8851823aaea998fcc220e5f.htmlhttp://wenku.baidu.com/link?url=FhWasTFTn6iLECDrfcw_wkBLGLqVazCHfnBE0BDKm5gsMz3Ojw_3Zwc7UvWKlu9bVAtHOyspSEKtzxPAA2JbCoTNZkOjxA0d79bj1619Nt_原创 2014-06-01 12:59:55 · 556 阅读 · 0 评论 -
超棒的一遍综述性博客
原文: http://licstar.net/archives/328Deep Learning in NLP (一)词向量和语言模型Posted on 2013 年 7 月 29 日by licstar 这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。 De转载 2015-09-01 19:38:57 · 3022 阅读 · 0 评论 -
《How to Generate a Good Word Embedding?》导读(转)
http://licstar.net/archives/620《How to Generate a Good Word Embedding?》导读Posted on 2015 年 7 月 21 日by licstar 自认为这是一篇有用的文章,因此在发表之前先放到 arXiv 上,供大家参考,请批评指正。 论文地址:http://arxiv.org/abs/15转载 2015-09-01 19:53:38 · 584 阅读 · 0 评论 -
nnlm代码解读链接
http://blog.youkuaiyun.com/a635661820/article/details/44730507转载 2015-09-24 13:20:39 · 1223 阅读 · 0 评论 -
随机采样方法整理与讲解(MCMC、Gibbs Sampling等)
转自: http://www.cnblogs.com/xbinworld/p/4266146.html本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅。其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到PRML的笔记中去:)背景随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo转载 2016-03-08 16:59:34 · 958 阅读 · 0 评论 -
scikit-learn中PCA的使用方法
http://blog.youkuaiyun.com/u012162613/article/details/42192293转载 2016-04-26 00:39:06 · 467 阅读 · 0 评论 -
How would a model change if we minimized absolute error instead of squared error? What about the oth
https://www.quora.com/How-would-a-model-change-if-we-minimized-absolute-error-instead-of-squared-error-What-about-the-other-way-aroundMinimizing the squared error (L2L2) over a set of numbers转载 2016-08-16 15:54:01 · 568 阅读 · 0 评论 -
svd相关
http://blog.youkuaiyun.com/wanglulu2014/article/details/21170111http://recsyswiki.com/wiki/SVDFeaturehttp://blog.youkuaiyun.com/huruzun/article/details/51055327转载 2016-10-10 13:07:35 · 377 阅读 · 0 评论 -
XGBoost原理及在Python中使用XGBoost
译文转自:http://blog.youkuaiyun.com/zc02051126/article/details/46771793在Python中使用XGBoost下面将介绍XGBoost的Python模块,内容如下: * 编译及导入Python模块 * 数据接口 * 参数设置 * 训练模型l * 提前终止程序 * 预测A walk through pyth转载 2016-08-16 14:34:37 · 2789 阅读 · 0 评论 -
神经网络中快速傅立叶变换(FFT)的梯度传递
最近需要在神经网络中构造复数酉矩阵做权重系数,使用了快速傅立叶变换和反变换.但是FFT不是theano的现成操作模块(有人写过对应的代码,所以应该会很快加进去了),所以想自己去写梯度传递来彻底搞清楚这件事.重新学一遍离散Fourier transform再加找梯度相关的文献学习,整整花了一周时间.从本科一毕业DFT就忘光了...在此总结了下,不得不说推倒的结果出来以后,真是出乎意料的漂原创 2017-09-05 21:24:42 · 6422 阅读 · 3 评论 -
迄今为止我所见过的将BP算法最好的PPT
http://www.cedar.buffalo.edu/~srihari/CSE574/Chap5/Chap5.3-BackProp.pdf原创 2015-09-03 00:56:40 · 2370 阅读 · 0 评论 -
nnlm 中的 Softmax
原本是用来柔化输出值,减小值之间的差。p[i]=exp(y[i]);S是所有p[i]的和;但是当我们需要 L=p[i]/S,而全体p[i]都是0,就会报错,所以实际中我们采用的是:p[i]=exp(y[i]-max_y_i);用来归一化p[i]到0~1之间. 论文在此:http://www.jmlr.org/papers/volume3/bengio03a/bengi原创 2015-09-03 19:34:01 · 454 阅读 · 0 评论 -
SVM支持向量机,我用到的自学材料
http://wenku.baidu.com/view/a2cbe102bed5b9f3f90f1cd6.htmlhttp://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分原创 2014-06-01 12:59:51 · 636 阅读 · 0 评论 -
用SMO算法实现了SVM的感悟
自己的感悟:我用SMO算法实现了SVM,其实SMO就是一开始认为所有的alpha=0(0随着优化深入,alpha能够做到精确的越来越多(Question:可能有【前面优化过的alpha【因后面的alpha优化使目标函数精确化从而再一次检测出Error_Cache步长>0】被再次优化】的情况吗?),模糊区之外的(随着alpha的更新Error_Cache在变)越来越少,b也变得越来越原创 2014-07-08 02:03:43 · 656 阅读 · 0 评论 -
机器学习&数据挖掘笔记_16(常见面试之机器学习算法思想简单梳理)
作者:tornadomeet 出处:http://www.cnblogs.com/tornadomeet 前言: 找工作时(IT行业),除了常见的软件开发以外,机器学习岗位也可以当作是一个选择,不少计算机方向的研究生都会接触这个,如果你的研究方向是机器学习/数据挖掘之类,且又对其非常感兴趣的话,可以考虑考虑该岗位,毕竟在机器智能没达到人类水平之前,机器学习可以作转载 2014-12-18 10:50:14 · 510 阅读 · 0 评论 -
NLP之路-Dataset大全
The Enron dataset seems to be popular, email often has privacy restrictions, and the Enron set has no restrictions. The Enron stuff will be 2001 and earlier.The Enron datasets at CMU:http://原创 2014-11-11 01:08:45 · 1637 阅读 · 0 评论 -
玩 vmx ( by vision.ai ) 的过程记录
在开始正文之前,吐槽一下,官方主页就是用的bootstrap模板改都没改,功能简直就是opencv网络版,看到作者今天给我的回复评论说:还在完善用户手册,我整个人都不好了。开始正文:1. 到这里拿到序列号:http://quantombone.blogspot.com/2015/03/deep-learning-vs-machine-learning-vs.html看作者写的评论,给出了不少序列号原创 2015-03-24 14:52:12 · 613 阅读 · 0 评论 -
An amazing guide to Neural Networks
http://karpathy.github.io/neuralnets/Hacker's guide to Neural NetworksHi there, I'm a CS PhD student at Stanford. I've worked on Deep Learning for a few years as part of my research and amon转载 2015-03-23 14:25:42 · 888 阅读 · 0 评论 -
为什么牛顿法下降的速度比梯度下降的快
梯度法是从初值开始按照负梯度方向一步一步走,确定方向、确定步长、再确定方向、再确定步长.只顾眼前情况,大局观念差~牛顿法是令目标函数梯度等于零,直接解方程,求方向,目的就是一步就跨到最优解,只不过由于求解是近似的,导致这一步走得不太准,还需要在迭代,但是已经能说明目标观念很强了~http://zuoye.baidu.com/question/5e1c59091fb9dc8e8264转载 2015-04-17 15:55:01 · 1650 阅读 · 0 评论 -
用博文中的方法-r -d "\t"试了下conlleval测试crf++的输出
看到这篇 http://argcv.com/articles/2104.c 觉得不错后来到官网上看了下http://www.cnts.ua.ac.be/conll2000/chunking/output.html最后用博文中的方法-r -d "\t"试了下crf++的输出,跟自己程序算的结果真是一模一样呢=。=好开心。。。。。。原创 2015-05-12 15:58:56 · 2669 阅读 · 1 评论 -
CRF++总结 (1)(2)【转】
转自 http://blog.sina.com.cn/s/blog_5980285201018m6r.html花了一两天时间捣鼓CRF++的代码(LBFGS部分代码接下来会再总结一下),暂时总结一下(理论部分就不再赘述了): 先贴一个类图吧:CRF++总结(1)" alt="2012-9-12 CRF++总结(1)" src="http://s7.sinaimg.cn/mi转载 2015-05-14 17:10:51 · 691 阅读 · 0 评论 -
Deep learning 学习开篇
http://www.cnblogs.com/JackOne/archive/2013/02/19/DeepLearning-FirstBoold.htmlreading list: http://deeplearning.net/reading-list/原创 2015-08-26 13:07:44 · 431 阅读 · 0 评论 -
Why I can't reproduce my results
1. Pytorch's CPU's and GPU's seeds are independent. So set/save/load them independentlyhttps://discuss.pytorch.org/t/are-gpu-and-cpu-random-seeds-independent/1422. If you use randomness on several...原创 2019-02-16 13:51:49 · 227 阅读 · 0 评论