
机器学习
小黄人的banana
码农,敲代码中
展开
-
PCA的数学原理
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。当然我并不打算把文章写成纯数学文章转载 2016-11-22 16:18:11 · 575 阅读 · 2 评论 -
机器学习笔记(一)-局部加权回归(Locally weighted regression)LWR
在网上通过看斯坦福大学的机器学习课程,觉得讲的非常好。同时,为了加强自己的记忆,决定将自己学到的东西和一些理解记录下来,希望有所收获。废话不多说,直接开始笔记:局部加权回归(locally weighted regression)LWR我们在现实生活中的模型,大多数情况下不能够用线性模型去拟合。如果采用线性模型去拟合就会产生欠拟合(under-fitting),如下图的分布(专业的画图工具比较复杂,原创 2016-11-26 19:45:39 · 9568 阅读 · 4 评论 -
机器学习实验(一)—Linear Regression
前几天做了几个机器学习的简单实验: 机器学习实验二–Logistic Regression 实验一是关于简单的线性回归的实验。下面是我的实验报告的截图(直接把word的内容撸过来,格式就全乱了,没有找到解决办法,直接上图吧,也是一种办法),后面给出工程和文档下载的链接。 实验一实验报告和文档 下面给出线性回归的代码(终于不用发愁排版了。。。。)function test_linear原创 2017-01-16 21:24:19 · 7746 阅读 · 0 评论 -
机器学习实验二--Logistic Regression
Logistic Regression机器学习实验(一)—Linear Regression 算法流程 实验二的实验报告和代码 PCA的算法流程: 关于PCA中数学原理可以点击这里PCA的数学原理 PCA和Logistic Regression的MATLAB代码function test_log_regression()% 读入数据X = load('logistic_x.t原创 2017-01-17 10:57:13 · 2577 阅读 · 2 评论