数值优化与机器学习:从基础到应用
1. 视觉信息处理与数值优化的引入
大脑中有一个区域负责处理视觉信息,其中每个神经元会检测所观察场景中特定方向和宽度的边缘。科学家认为,人类和其他哺乳动物所“看到”的,是对这些边缘检测图像进行处理后的插值结果。通过对青蛙、猫和灵长类动物的视觉研究,科学家发现单个神经元大致通过识别边缘来运作,每个神经元就像一个小的“边缘检测器”,定位图像中特定方向和厚度的边缘。
在机器学习中,寻找学习模型的参数可以通过定义明确的数学函数来形式化,这些函数通常被称为成本函数。成本函数接受一组特定的模型参数,并返回一个分数,表明使用这些参数完成给定学习任务的效果。分数越高,表明参数选择的性能越差;反之,分数越低,性能越好。
例如,在股票价格预测问题中,我们试图学习一条回归直线,根据公司的收入来预测其股价。这条直线的两个参数(斜率和截距)需要进行优化调整,从几何角度看,这相当于找到一个二维成本函数的最小值。同样,在区分猫和狗的图像分类问题中,线性分类器的两个参数(斜率和截距)的理想设置也对应着成本函数的最小值。因此,为了找到学习模型的理想参数,我们总是希望最小化成本函数,数值优化工具在其中起着至关重要的作用。
2. 数值优化的基础概念
2.1 微积分定义的最优性
2.1.1 泰勒级数近似
为了了解多次可微函数 $g(w)$ 在点 $v$ 附近的几何形状,我们可以在该点附近对函数进行线性近似。这个线性近似是一条通过点 $(v, g(v))$ 的切线,包含了一阶导数信息 $g’(v)$,其表达式为:
$h(w) = g(v) + g’(v)(w - v)$
这个线
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



