期末学习报告
0.目录
1.基础概念
- 分类 C l a s s i f i c i a t i o n Classificiation Classificiation:输出为离散值、二分类、多分类
- 回归 R e g r e s s i o n Regression Regression:输出为连续值
- 排序 R a n k i n g Ranking Ranking:预测排列顺序
- 有监督学习 S u p e r w i s e d L e a r n i n g Superwised\ Learning Superwised Learning
- 无监督学习 U n s u p e r w i s e d L e a r n i n g Unsuperwised\ Learning Unsuperwised Learning
- 半监督学习 S e m i − s u p e r w i s e d L e a r n i n g Semi-superwised\ Learning Semi−superwised Learning
- 强化学习 R e i n f o r c e m e n t L e a r n i n g Reinforcement\ Learning Reinforcement Learning
2.多媒体信息表示
2.1 图像
-
彩色图像
颜色通道是保存图片颜色信息的通道,颜色模式决定图片的颜色通道数,常见的颜色模式有RGB、CMYK、Lab等,所有颜色通道的颜色混合叠加后就是所产生的颜色就是原彩色图像上对应像素点的颜色。
-
图像格式
图像格式分为位图和矢量图两种。位图记录了每一个像素点的颜色值,并将这些像素点合成为一张图像,其特点是放大能够看到像素点;而矢量图记录的则是节点的位置、曲线和颜色,其特点是放大后不会出现失真的情况。
2.2 视频
视频就是一组内容随实践变化的一组动态图像,利用的是人眼的视觉残留原理。
2.3 作业中涉及的图像特征提取算法
-
方向梯度直方图 HOG
HOG的主要思想是在边缘具体位置未知的情况下,边缘方向的分布也可以很好的表示图像中物体的外形轮廓,但会忽略掉颜色信息。
其主要操作流程如下
-
颜色直方图 (color histogram)
颜色直方图特征则是提取图像的颜色信息并忽略掉纹理信息。算法过程是获取每个像素值对应的光谱,把它划分到柱状图中,将每一个像素都映射到这些柱状里。然后计算出每一个不同柱状中像素点出现的频次。这个特征可以从全局上告诉我们图像中有哪些颜色。
2.4 作业中涉及到的KNN算法
K N N KNN KNN 算法是最简单并且最常用的分类算法之一。其原理是通过暴力计算与预测新值对应的点距离最近的 k k k 个点,根据这 k k k 个点的类型来预测新值所属的类别。
3.线性模型
3.1 基本形式
f ( x ) = b + ∑ i = 1 d w i x i f(x) =b+\sum_{i = 1}^d w_ix_i f(x)=b+i=1∑dwixi
其中 x i x_i xi 是 x x x 在第 i i i 个属性上的取值,转换为向量表示则是
f ( x ) = w T x + b f(x) = w^Tx+b f(x)=wTx+b
3.2 特点
- 形式简单、易于建模
- 可解释性:通过对于 w w w 的量化表示,可以体现对于每一种属性的权值分配
- 是非线性模型的基础
3.3 线性回归
目的是学得一个可以尽可能准确地预测实值并尽可能准确地输出标记的线性模型
即对于函数 f ( x ) = w x i + b f(x) = wx_i+b f(x)=wxi+b,找到一组 w w w 和 b b b,使得 f ( x i ) ⋍ y i f(x_i)\backsimeq y_i f(xi)⋍yi
3.3.1 最小二乘法
( w ∗ , b ∗ ) = arg m i n ( w , b ) ∑ i = 1 m ( f ( x i ) − y i ) 2 (w^*,b^*)={\arg min\atop{(w,b)}}\sum_{i=1}^m(f(x_i)-y_i)^2 (w∗,b∗)=(w,b)argmini=1∑m(f(xi)−yi)2
为最小化均方误差,分别对 w w w 和 b b b 求导后可得闭式解
w = ∑ i = 1 m y i ( x i − x ‾ ) ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i ) 2 w = \frac{\sum_{i=1}^m y_i(x_i-\overline{x})}{\sum_{i=1}^mx_i^2-\frac{1}{m}(\sum_{i=1}^mx_i)^2} w=∑i=1mxi2−m1(∑i=1mxi)2∑i=1myi(xi−x)
b = 1 m ∑ i = 1 m ( y i − w x i ) b = \frac{1}{m}\sum_{i=1}^m(y_i-wx_i) b=m1i=1∑m(yi−wxi)
3.3.2 多元线性回归
与线性回归同理,令 ∂ E w ^ ∂ w ^ =