矩阵分析与应用(4)

学习来源:《矩阵分析与应用》张贤达 清华大学出版社

1. 内积与范数

1.1 向量的内积

        根据元素取值方式的不同,向量分为常数向量、函数向量和随机向量。常数向量是元素为常数的向量;函数向量是元素取某个变量的函数值得向量;而随机向量则是元素为随机变量的向量。

        设 V 为向量空间,函数 \left \langle x,y \right \rangle:V\times V\rightarrow R 称为向量 x 与 y 的内积,对所有的 x,y,z\in V ,有:

                1) \left \langle x,x \right \rangle\geqslant 0 ;

                2) \left \langle x,x \right \rangle=0 ,当且仅当 x=0 ;

                3) \left \langle x+y,z \right \rangle=\left \langle x,z \right \rangle+\left \langle y,z \right \rangle ;

                4) \left \langle cx,y \right \rangle=c\left \langle x,y \right \rangle ;

                5) \left \langle x,y \right \rangle=\left \langle y,x \right \rangle 。

1.2 常数向量的内积

        两个 m\times1 维常数向量 x=[x_{1},x_{2},\cdots ,x_{m}]^{T} 和 y=[y_{1},y_{2},\cdots ,y_{m}]^{T} 的内积定义为:

\left \langle x,y \right \rangle=\sum_{i=1}^{m}x_{i}y_{i}

两个向量之间的夹角定义为:

cos\theta =\frac{\left \langle x,y \right \rangle}{\sqrt{\left \langle x,x \right \rangle}\sqrt{\left \langle y,y \right \rangle}}

当向量 x 与向量 y 的内积为0时,x 和 y 正交。

1.3 常数向量的范数

        L-P范数:是一组范数,定义如下:

L_{p}=\left \| X \right \|_{p}=\sqrt[p]{\sum_{i=1}^{n}x_{i}^{p}},X=(x_{1},x_{2},\cdots ,x_{n})

在机器学习中常用到L1范数和L2范数:

        1)L1范数对应 L-P 范数中 P 为 1 的情况:

\left \| X \right \|_{1}=\sum_{i=1}^{n}\left | x_{i} \right |

        2)L2范数对应 L-P 范数中 P 为 2 的情况:

\left \|X \right \|_{2}=\sqrt{\sum_{i=1}^{n}x_{i}^{2}}

1.4 函数向量的内积与范数                         

        若 x(t) 和 y(t) 分别是变量 t 的函数向量,则他们的内积定义为:

\left \langle x(t),y(t) \right \rangle=\int_{a}^{b}x(t)y(t)dt

函数向量的范数为:

\left \| x(t) \right \|=\sqrt{\int_{a}^{b}x^{2}(t)dt}

1.5 随机向量的内积与范数

        若 x(\xi) 和 y(\xi) 分别是样本变量 \xi 的随机向量,则它们的内积定义为:

\left \langle x(\xi),y(\xi) \right \rangle=E\left \{ x(\xi)y(\xi) \right \}

随机向量 x(\xi ) 的范数定义为:

\left \| x(\xi) \right \|^2=E\left \{ x^2(\xi) \right \}

2. 向量的相似度

        考虑 M 个类型的模式,假定已经抽取出对应的 M 个样本模式向量 s_{1},s_{2},\cdots ,s_{M} 。给定一个未知模式向量 x ,判断 x 属于哪一类模式。这个问题称为模式分类,模式分类的基本思想是将未知模式向量 x 和 M 个样本模式向量进行对比,看 x 与哪一个样本模式向量最相似,并据此作出模式分类的判断。

2.1 Euclidean 距离

        最简单和最直观的相似度是两个向量之间的 Euclidean 距离。未知模式向量 x 与第 i 个已知模式向量 s_{i} 之间的 Euclidean 距离记作 D(s_{i},x) ,定义为:

D(s_{i},x)=\left \| x-s_{i} \right \|_{2}=\sqrt{(x-s_{i})^{T}(x-s_{i})}

将未知类型的模式向量 x 归为使得 D(s_{i},x) 最小的 s_{i} 的类别。

2.2 Mahalanobis 距离

        令 

m=\frac{1}{N}\sum_{k=1}^{N}s_{i}

代表 N 个样本模式向量的均值向量,并用

C=\frac{1}{N}\sum_{i=1}^{N}(s_{i}-m)(s_{i}-m)^{T}

表示 N 个样本模式向量的协方差矩阵。从未知模式向量 x 到均值向量 m 之间的 Mahalanobis 距离定义为:

D(m,x)=(x-m)^TC(x-m)

类似地,从第 i 个样本模式向量 s_{i} 到均值向量 m 的 Mahalanobis 距离定义为:

D(m,s_{i})=(s_{i}-m)^TC(s_{i}-m)

根据近邻分类法,将未知模式向量 x 归为满足:

D(s_{i},x)=\min_{k}\left | D(s_{k},x) -D(m,x)\right |,k=1,2,\cdots ,N

的近邻 s_{i} 所属的模式类型。

2.4 向量夹角的余弦函数

        两个向量之间的相似度不一定局限于距离函数。两个向量的夹角的余弦函数:

S(s_{i},x)=cos(\theta _{i})=\frac{x^{T}s_{i}}{\left \| x \right \|_{2}\left \| s_{i} \right \|_{2}}

也是相似度的一种有效测度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值