============================================================================【课程综述】============================================================================
第一课时:
机器学习的定义【 The Definition of Machine Learning】
本课程的四部分内容:
1)监督学习【The Overview of Supervised Learning】
2)学习理论【The Overview of Learning Theory】
3)无监督学习【The Overview of Unsupervised Learning】
4)强化学习【The Overview of Reinforcement Learning】
============================================================================【监督学习】============================================================================
==================================【监督学习:Linear Regression】======================================================
第二课时:
*线性回归【Linear Regression】:LMS(least mean squares) algorithm
*(批量/随机=增量)梯度下降【Batch/Stochastic=Incremental Gradient Descent】
*常用矩阵符号定义【Matrix Derivative Notation for Deriving Normal Equations】
*标准方程推导【Derivation of Normal Equations】
第三课时:
线性回归的概率解释【The Probabilistic Interpretation of Linear Regression】:LMS~=~MLE(least-squares regression corresponds to finding the maximum likelihood estimate of theta)
*局部加权线性回归【Locally Weighted Linear Regression】:如何定义权重使距离预测点近的样本贡献大,远的样本贡献小。
欠拟合和过拟合【Underfitting and Overfitting】
参数化和非参数化算法【Parametric Algorithms and Non-parametric Algorithms】:Linear Regression是参数化算法;Locally Weighted Linear Regression是非参数化算法
==================================【监督学习:Classification and Logistic Regression】==================================
*Logistic回归【Logistic Regression】
感知器【 Perceptron】
第四课时:
*牛顿方法(找最值)【Newton's Method】
==================================【监督学习:Generalized Linear Models】================================================
指数分布函数族(高斯分布、伯努利分布是特例)【Exponential Family(Bernoulli Example, Gaussian Example)】:能找到对应的a,b,T。
广义线性模型(最小均方、Logistic回归、多项式分布是特列)【General Linear Models (GL
第一课时:
机器学习的定义【 The Definition of Machine Learning】
本课程的四部分内容:
1)监督学习【The Overview of Supervised Learning】
2)学习理论【The Overview of Learning Theory】
3)无监督学习【The Overview of Unsupervised Learning】
4)强化学习【The Overview of Reinforcement Learning】
============================================================================【监督学习】============================================================================
==================================【监督学习:Linear Regression】======================================================
第二课时:
*线性回归【Linear Regression】:LMS(least mean squares) algorithm
*(批量/随机=增量)梯度下降【Batch/Stochastic=Incremental Gradient Descent】
*常用矩阵符号定义【Matrix Derivative Notation for Deriving Normal Equations】
*标准方程推导【Derivation of Normal Equations】
第三课时:
线性回归的概率解释【The Probabilistic Interpretation of Linear Regression】:LMS~=~MLE(least-squares regression corresponds to finding the maximum likelihood estimate of theta)
*局部加权线性回归【Locally Weighted Linear Regression】:如何定义权重使距离预测点近的样本贡献大,远的样本贡献小。
欠拟合和过拟合【Underfitting and Overfitting】
参数化和非参数化算法【Parametric Algorithms and Non-parametric Algorithms】:Linear Regression是参数化算法;Locally Weighted Linear Regression是非参数化算法
==================================【监督学习:Classification and Logistic Regression】==================================
*Logistic回归【Logistic Regression】
感知器【 Perceptron】
第四课时:
*牛顿方法(找最值)【Newton's Method】
==================================【监督学习:Generalized Linear Models】================================================
指数分布函数族(高斯分布、伯努利分布是特例)【Exponential Family(Bernoulli Example, Gaussian Example)】:能找到对应的a,b,T。
广义线性模型(最小均方、Logistic回归、多项式分布是特列)【General Linear Models (GL

本课程详细介绍了机器学习的基础概念,包括监督学习、无监督学习的主要方法。在监督学习中,讲解了线性回归、逻辑回归、神经网络、支持向量机等,而在无监督学习中,讨论了K-Means聚类、混合高斯模型、因子分析和主成分分析等。此外,还涵盖了强化学习的基本原理和算法,如马可夫决策过程、值迭代和策略迭代。
最低0.47元/天 解锁文章
2011

被折叠的 条评论
为什么被折叠?



