机器学习深入剖析
在机器学习领域,有两个基础理论——梯度下降和VC维理论,同时也有多种常用的机器学习算法。下面将为大家详细介绍这些内容。
梯度下降和VC维理论
梯度下降和VC维是机器学习中的两个基础理论。梯度下降为寻找函数的最优系数提供了一种结构化的方法。函数的假设空间可能很大,通过梯度下降,算法会尝试找到一个最小值点,在该点处成本函数(例如误差平方和)达到最低。
VC维为系统中可分类的最大点数提供了一个上限。它本质上是对函数丰富度的一种度量,并以结构化的方式评估假设的极限。一个函数或假设能够精确分类的点数被称为该假设的VC维。例如,在二维空间中,线性边界可以准确分类2个或3个点,但不能准确分类4个点,因此该二维空间的VC维为3。VC维与计算学习理论中的许多其他主题一样,既复杂又有趣。它是一个不太为人所知(也较少被讨论)的主题,但具有深远的意义,因为它试图回答学习的极限是什么的问题。
常见机器学习算法
机器学习算法有多种不同的类别。由于算法在概念层面上可能同时属于多个“类别”,因此很难明确地说某个算法只属于单一类别。以下是一些最常用且广为人知的算法:
1. 回归模型
- 线性回归 :简单线性回归如“Total Advertising Cost = x * Print Ads”,而当模型创建过程需要多个自变量时,就属于多元线性回归,例如“Total Advertising Cost = X + Print Ads + Radio Ads + TV Ads”。
- 逻辑回归 :是一种常用的统计回归建