- 博客(37)
- 问答 (1)
- 收藏
- 关注
原创 欢迎使用优快云-markdown编辑器
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2017-01-02 20:16:47
319
转载 ALS 【转载】
转自:https://github.com/ceys/jdml/wiki/ALS 编写人:ceys/youyis 一、算法描述1.原理问题描述ALS的矩阵分解算法常应用于推荐系统中,将用户(user)对商品(item)的评分矩阵,分解为用户对商品隐含特征的偏好矩阵,和商品在隐含特征上的映射矩阵。与传统的矩阵分解SVD方法来分解矩阵R(R∈Rm×nR\in \mathbb{R}^{m\time
2016-11-16 17:37:04
563
原创 天注定--从现在开始的展望
Part One 主人公大海因为不满村中官商勾结在状告无门的时候,又因为当面质问煤矿老板被打,在医院收到封口费,再次回到村里的大海受到了集体的嘲笑,一怒之下枪杀村会计夫妇、狐假虎威的村委会传达室职员、村长以及煤老板等。Part Two 在外闯江湖的老三枪杀了拦路抢劫的三个劫匪,常年在湖南、云南等地闯荡,对生活感到索然无味,选择过在外激情的生活,在极强的犯罪智商掩盖下,抢劫取款后的人们,并成
2016-05-30 20:09:55
450
原创 参数在编译器决定
class A{ public: virtual void func(int val = 1) { std::cout " << val << std::endl;} virtual void test() { func(); }
2015-09-05 10:57:50
421
原创 浅层网路regression杂记
tools :ConvNetJS regressionmotivation : 查看相应规模网络的学习能力,不同复杂度的图片,所作出预测的能力。网络配置:hidden Layer共7层,外加,输入及输出层。 隐藏层 每层20个neurons,并每层采用regularization.。结果:该幅图片中所含的信息量太大,由于
2015-02-01 15:25:01
576
原创 softmax杂记
首先,寄出经典--stanford的SoftMax回归-Ufldl。之后,瞬间感觉没自己什么事了!本来是自己上了NG的课程之后,前前后后的看了许久的东西,但是现在感觉到,很多东西,也只是知其然,不知所以然。后面是要花时间,细细的琢磨这些东西,可能要从最最基础的东西开始了。一些重要的东西,还是复制一下!softmax回归 VS 多个二元分类器如果你在开发一个音乐分类的应
2015-01-27 20:02:51
517
原创 稀疏矩阵的存储格式
题注:看到网上有这方面的东西,但是不多,映像当中,中文的版本只有一个,讲解不够清楚,而且还有错误的地方,在经过查阅资料之后将存储格式中最为重要也是中文版本中的所有重新进行说明,以期望对大家有所帮助吧!分割区中的部分为本人改造版本,其余引用自他人:稀疏矩阵的存储格式(Sparse Matrix Storage Formats)Sason 对于稀疏矩阵,仅仅存储非零元素可是矩阵操
2015-01-19 21:55:03
1632
原创 pyinstaller 杂记
查阅官方文档,请点此 github地址,请点此 下载,请点此 先给出快捷版本: 准备:已经写好的脚本 example.py ,安装好工具pyinstaller. 模式说明:类1:将程序打包成一个文件。 类2:将程序打包成文
2015-01-15 16:15:08
806
原创 numpy,scipy,matplotlib,pylab,pyplot 杂记
pyplot and pylab is a part of module matplotlib. numpy is one of dependencies of matplotlib.scipy depend on numpy.but matplotlib have no relation with scipy.we always use plt as the alia
2014-12-21 11:00:02
971
原创 python中numpy杂记
今天看到了个arange(),在百度中是没有搜到答案,直接进google,当然有的是答案了@!以后对这些貌似很像且有用的东西进行记录!range()返回的是list;xrange 返回的是python中的xrange对象(一个生成器);arange返回的是一个array对象,是numpy中的函数。range(10)返回大小10,xrange返回xrange(10),占用内存很小,ara
2014-12-20 19:51:52
683
原创 局部敏感哈希杂记
在电脑前面时间太长了,加上阳光晒了很久的缘故,脑子有些犯困了,故此,写写上午看的东西,已做放松吧!局部敏感哈希LSH:提出:当我遇到查找一类的问题时,第一个冒出来的想法,必定是hash,其他乱七八糟的算法,那是最后的选择了。原因依然很简单就是O(1).在微博或者查找文本的时候,在当今海量的数据面前,如果采用传统的方法找到与目标文档相似,或者目标内容相似的内容,那我们还是洗洗睡吧!费时费
2014-12-17 15:24:19
782
原创 岭回归and逐步线性回归杂记
1.预备知识:对于有些矩阵,矩阵中某个元素的一个很小的变动,会引起最后计算结果误差很大,这种矩阵称为“病态矩阵”。有些时候不正确的计算方法也会使一个正常的矩阵在运算中表现出病态。对于高斯消去法来说,如果主元(即对角线上的元素)上的元素很小,在计算时就会表现出病态的特征。回归分析中常用的最小二乘法是一种无偏估计。 当X列满秩时,有: X+表示X的广义逆(或叫伪逆
2014-11-28 16:08:29
3163
原创 CNN杂记
BP算法的详细介绍:http://deeplearning.stanford.edu/wiki/index.php/%E5%8F%8D%E5%90%91%E4%BC%A0%E5%AF%BC%E7%AE%97%E6%B3%95zheying
2014-10-26 17:32:05
515
原创 python模拟登陆杂记
从一个菜,开始练习要弄懂这些还真是费了很大的力气啊! 网上这种登陆的代码真的是一大堆了,所以代码就免了,也没什么意思! 就说说那些高手不会说的东西,就像课本里面只讲结论,而不讲这些贤人怎么思考的过程。我认为结论固然重要,但是思考的过程也很重要! 首先,有http协议和cookie的一些知识也很必要,没有也没有很大关系! 要模拟登陆,就需要懂
2014-10-17 22:07:56
668
原创 deep learning 初记
为了理解为什么大数据需要深度模型,先举一个例子。语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本。在Google的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当。这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本。因此,只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型
2014-09-19 10:53:39
581
原创 因子分析杂记
第一,它假定所有的因子(旋转后) 都会影响测度项。在实际研究中,我们往往会假定一个因子之间没有因果关系,所以可能不会影响另外一个因子的测度项。第二,探索性因子分析假定测度项残差之间是相互独立的。实际上,测度项的残差之间可以因为单一方法偏差、子因子等因素而相关。第三,探索性因子分析强制所有的因子为独立的。这虽然是求解因子个数时不得不采用的机宜之计,却与大部分的研究模型不符。最明显的是,自变量与应变量
2014-09-14 17:25:30
887
原创 EM杂记
The EM-algorithm is also reminiscent of the k-mean clustering algorithm ,except that instead of the 'hard' cluste
2014-09-13 16:41:52
406
转载 图˙谱˙马尔可夫过程˙聚类结构----by林达华
这又是林达华的一篇好文,将四个概念在某个方面解释的很清楚,特别是特征值和特征向量的意义,让人豁然开朗。 原文已经找不到了,好像是因为林达华原来的live博客已经失效,能找到的只有网上转载的文章(本来还想把他的博客看个遍)。林本人的数学功底之强,有时候会让我们这些搞CV、ML的人趁还在学校,重头把一些数学学一遍。不过想想学校所开设的课程实在是屎(老师和学生们都是混),也就想想罢了。
2014-09-11 09:55:36
682
原创 SVM杂记
1.这样我们可以得出结论,我们更应该关心靠近中间分割线的点,让他们尽可能地远离中间线,而不是在所有点上达到最优。因为那样的话,要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。我想这就是支持向量机的思路和logistic回归的不同点,一个考虑局部(不关心已经确定远离的点),一个考虑全局(已经远离的点可能通过调整中间线使其能够更加远离)
2014-08-29 15:38:45
683
原创 Clustering by fast search and find of density peaks (备注)
算法核心:利用样本点之间的距离
2014-08-19 20:40:11
1317
转载 图像处理与计算机视觉基础,经典以及最近发展
图像处理与计算机视觉基础,经典以及最近发展 By xdyang(杨晓冬xdyang.ustc@gmail.com)一、 绪论
2014-08-01 20:20:20
994
原创 K-mean and fuzzy C-mean clustering
k-mean algorithm is simple ,we can understand easily ,
2014-07-30 09:22:24
611
原创 街景原理要点
http://code.google.com/apis/maps/documentation/javascript/services.html#StreetView
2014-07-08 18:57:32
1334
原创 KPCA的matlab实现
在网上看到了的实现,其中的好些注释不能令自己满意,故此,copy过来,自己修改注释!其中有些地方也不准确!故此自己修改的结果!function [train_kpca,test_kpca] = kpcaFordata(train,test,threshold,rbf_var)%% Data kpca processingif nargin rbf_var=10000;%?end
2014-06-16 17:01:17
15742
1
原创 PCA 注释与延伸
PCA 过程有两种理解: 1.所作主成分提取。由于M=USV'.中的S中,取奇异值较大的前K个得到S1,并对U,V进行削减得U1,V1。然后有M1=U1*S1*V1'.由于M所构成的空间的维数和M的秩是相同的,又等同于S1的秩及奇异值的个数。而S1的秩小于S的,故此M1的维度也是小于M的。进而达到了降维。应用:数据的去噪! 这里面有较强的假设:(1)特征根的大小决定了我们感兴趣信
2014-06-13 20:11:28
805
空空如也
随机数是怎么样产生的?
2015-01-19
TA创建的收藏夹 TA关注的收藏夹
TA关注的人