
机器学习
huayunlong1
这个作者很懒,什么都没留下…
展开
-
logistic回归笔记
一、问题引出在线性回归问题中,样本的变量y的取值是连续值,若是其变为若干表示类别的离散值,那么就成了一个分类问题,其中最基本的就是二分类问题,这类问题中,样本的类别只有两类,分别用0和1表示,即y∈{0, 1}。原创 2016-07-22 10:59:14 · 384 阅读 · 0 评论 -
线性回归的概率解释
在线性回归问题中,为了对参数θ求解,使用了代价函数J(θ)=∑(i=1,2,...m) (y(i)-θx(i))²/2,这里给出使用该函数的概率上的解释。首先,假设其中,ε(i)表示未被建模的特征的影响造成的误差,并且其服从均值为0的高斯分布。关于这些假设的原因并不是很清楚。因此可以得到误差的密度函数,由上述两个公式可以得到在这里要提一下似然估计的概念,关于最大似然估计是以前概原创 2016-07-21 10:11:50 · 3137 阅读 · 1 评论 -
线性回归笔记
一、处理问题对于给定的每个样本的一系列特征(x1, x2, ...xm)及其结果y,之间的关系可以用这种形式表示y=θ_1*x1+θ_2*x2+...θ_m*xm,那么可以建立这样的模型:h_θ(x)=θx 用来对新的样本结果进行预测,θ和x都是m+1维向量,并且令x0=1。二、参数求解对于以上模型,需要对参数θ进行求解。直觉上,我们期望得到的θ的解应当满足条件——对所有训练样原创 2016-07-20 09:58:12 · 290 阅读 · 0 评论 -
SVM笔记
这段时间就开始接触机器学习,看了斯坦福的公开课关于svm的内容后,觉得没怎么懂,因此想写一篇笔记,一方面梳理一下, 一方面自己以后还可以阅读。这方面已经有一篇很棒的文章了支持向量机通俗导论大家可以去学习下一、问题引出最初是通过logistic回归处理一个二分类问题,对于一个样本(x[i], y[i]),x[i]是特征向量,y[i]是其分类结果(y[i]∈{0, 1}),logist原创 2016-07-18 09:04:23 · 232 阅读 · 0 评论