
机器学习
Tejnx
冒泡算法打动不了你超时的心!!
展开
-
生成学习算法
原文链接http://blog.youkuaiyun.com/andrewseu/article/details/46789121本讲大纲:1.生成学习算法(Generative learning algorithm)2.高斯判别分析(GDA,Gaussian Discriminant Analysis) 3.朴素贝叶斯(Naive Bayes) 4.拉普拉斯平滑(转载 2017-05-23 19:13:20 · 319 阅读 · 0 评论 -
S型函数:Sigmoid 函数
Sigmoid函数,即f(x)=1/(1+e-x)。神经元的非线性作用函数。(-x是幂数)人工神经网络的学习算法-BP算法神经网络的学习是基于一组样本进行的,它包括输入和输出(这里用期望输出表示),输入和输出有多少个分量就有多少个输入和输出神经元与之对应。最初神经网络的权值(Weight)和阈值(Threshold)是任意给定的,学习就是逐渐调整权值和阈值使得网络的实际输出和期转载 2017-05-31 09:49:05 · 6489 阅读 · 0 评论 -
机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machine lear转载 2017-05-19 16:54:58 · 288 阅读 · 0 评论 -
最小二乘法-回归问题中的作用
一.背景 5月9号到北大去听hulu的讲座《推荐系统和计算广告在视频行业应用》,想到能见到传说中的项亮大神,特地拿了本《推荐系统实践》求签名。讲座开始,主讲人先问了下哪些同学有机器学习的背景,我恬不知耻的毅然举手,真是惭愧。后来主讲人在讲座中提到了最小二乘法,说这个是机器学习最基础的算法。神马,最基础,我咋不知道呢! 看来以后还是要对自己有清晰认识。 回来赶紧上百度,搜转载 2017-05-21 11:26:18 · 3161 阅读 · 0 评论 -
线性回归的概率解释
原文链接 http://blog.youkuaiyun.com/shaohuacheng/article/details/51985944Andrew Ng的公开课机器学习线性回归中我们建立了一个线性模型h(x(i))=θTx(i),并计算误差函数J(θ)=∑mi=1(h(x(i))−y(i))2=∑mi=1(θTx(i)−y(i))2为了选择合适的θ使得J(θ)最小,我们转载 2017-05-21 12:02:25 · 780 阅读 · 0 评论 -
牛顿方法,指数分布族,广义线性模型
原文链接http://blog.youkuaiyun.com/dream_angel_z/article/details/46288167本节内容牛顿方法指数分布族广义线性模型之前学习了梯度下降方法,关于梯度下降(gradient descent),这里简单的回顾下【参考感知机学习部分提到的梯度下降(gradient descent)】。在最小化损失函数时,采用的就是梯度下降的转载 2017-05-22 17:26:46 · 798 阅读 · 0 评论