
机器学习
文章平均质量分 66
ice_martin
渣渣一枚
展开
-
机器学习笔记week1(Andrew NG)
机器学习笔记week1(Andrew NG)martin机器学习笔记week1Andrew NGLinear Regression with one Variable单变量线性回归Model and Cost Function模型和损失函数Gradient Desent梯度下降小节测试Linear Regression with one Variable(单变量线性回归)Model and原创 2017-03-09 21:44:53 · 1621 阅读 · 3 评论 -
深入理解SVM
SVM核心思想一最大间隔SVM核心思想二决策公式SVM核心思想三目标函数SVM核心思想四优化理论SVM核心思想五损失函数SVM核心思想六核方法SVM核心思想七SMO原创 2017-03-15 12:45:22 · 5108 阅读 · 2 评论 -
机器学习笔记week5(Andrew NG)
机器学习笔记week5(Andrew NG)martin机器学习笔记week5Andrew NGcost functionBPBackPropagation算法cost function下图分别是逻辑回归和神经网络的cost function,可以看到,神经网络的代价函数比逻辑回归多了一层求和,原因是神经网络的输出层包含K个输出节点,如果要进行多分类的话需要确定哪一节点是1,从而将输出结果表达原创 2017-09-01 08:28:18 · 1130 阅读 · 0 评论 -
机器学习笔记week4(Andrew NG)
机器学习笔记week4(Andrew NG)martin机器学习笔记week4Andrew NG概念介绍神经网络单元神经网络结构前向算法原理与应用神经网络解决的问题神经网络多分类概念介绍神经网络单元如图所示,每一个神经元(输入层除外)都是一个逻辑回归模型,也即为感知机。神经网络结构神经网络一般有三个模块或者层次。分别是输入层、隐含层、输出层。这里需指出的是隐含层往往不只有一层。除输出层原创 2017-08-28 16:11:49 · 1037 阅读 · 0 评论 -
各种梯度优化算法介绍(SGD Loss剧烈波动)
原文地址转载 2017-08-12 15:28:07 · 969 阅读 · 0 评论 -
各种激活函数(Activation Function)
原文地址http://blog.youkuaiyun.com/cyh_24/article/details/50593400转载 2017-08-16 14:37:16 · 520 阅读 · 0 评论 -
Scikit-Learn各算法详细参数速查手册(中文)
Scikit-Learn各算法详细参数速查手册(中文)martinScikit-Learn各算法详细参数速查手册中文线性模型1 线性回归2 线性回归的正则化21 Lasso回归L1正则22 岭回归L2正则23 ElasticNet弹性网络正则3 逻辑回归4 线性判别分析决策树1 回归决策树2分类决策树贝叶斯分类器1 高斯贝叶斯分类器2 多项贝叶斯分类器3 伯努利贝叶斯分原创 2017-07-21 18:35:32 · 10458 阅读 · 5 评论 -
初识AdaBoost
AdaBoostmartinAdaBoost算法过程基分类器权值a与训练数据集权值w的分析AdaBoost推导AdaBoost是典型的Boosting方法,并且效果很显著。下图是AdaBoost的框架图:算法过程下面介绍AdaBoost算法的过程: 1. 初始化训练数据的权值分布: D1=(w11,w12,w13,...,w1N),w1i=1N,i=1,2,...,ND_1 = (w_{原创 2017-03-24 18:03:27 · 551 阅读 · 0 评论 -
机器学习笔记week3(Andrew NG)
机器学习笔记week3(Andrew NG)martin机器学习笔记week3Andrew NG逻辑回归逻辑回归模型多分类多分类解决过拟合问题过拟合带正则化项的cost function带有正则化项的线性回归带有正则项的逻辑回归逻辑回归逻辑回归模型逻辑回归表达式:hθ(x)=g(θTx)h_\theta(x) = g(\theta^Tx) z=θTxz = \theta^Tx原创 2017-03-14 01:19:11 · 1626 阅读 · 0 评论 -
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却转载 2017-03-23 16:31:32 · 1230 阅读 · 0 评论 -
机器学习笔记week2(Andrew NG)
机器学习笔记week2(Andrew NG)martin机器学习笔记week2Andrew NGLinear Regression with Multiple Variable多元线性回归Gradient Descent in Multivariate Linear Regression多元线性回归中的梯度下降Features and Polynomial Regression特征与多项式回归原创 2017-03-09 21:50:51 · 751 阅读 · 0 评论 -
决策树梳理
决策树martin决策树基本概念ID3C45CART基本概念一般的,一颗决策树包含一个根节点、若干个内部节点和若干个叶节点,所以决策树相当于多叉树。叶节点对应于决策结果,其他每个结点则对应与一个属性测试,每个节点包含的样本集合根据属性测试的结果被分到子节点中。决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力的决策树,基本思想遵循“分而治之”的策略。决策树的生成是一个递归过程。在原创 2017-03-19 12:36:34 · 9732 阅读 · 6 评论