【IPMV】图像处理与机器视觉
本系列为2025年同济大学自动化专业**图像处理与机器视觉**课程笔记
Lecturer: Rui Fan
Lec3 Perspective Transformation
Lec11 Keypoint Features and Corners
持续更新中
文章目录
Lec3 Perspective Transformation
0 Preliminaries:线性代数预备知识
0.1 向量运算
0.1.2 Vector Multiplication
a b T = T → \bm{a}\bm{b}^T=\bm{T}\rightarrow abT=T→矩阵
0.1.1 Dot Product and Cross Product
- 点乘: a ⋅ b = ∣ ∣ a ∣ ∣ 2 ∣ ∣ b ∣ ∣ 2 c o s ( θ ) = a T a b T b c o s θ \bm{a}\cdot\bm{b}=||\bm{a}||_2||\bm{b}||_2cos(\theta)= \sqrt{\bm{a}^T\bm{a}}\sqrt{\bm{b}^T\bm{b}}cos\theta a⋅b=∣∣a∣∣2∣∣b∣∣2cos(θ)=aTabTbcosθ
- 叉乘: a × b = ∣ ∣ a ∣ ∣ 2 ∣ ∣ b ∣ ∣ 2 s i n ( θ ) n \bm{a}\times \bm{b}=||\bm{a}||_2||\bm{b}||_2sin(\theta)\bm{n} a×b=∣∣a∣∣2∣∣b∣∣2sin(θ)n
- 结果:垂直于两个向量的新 向量
- 方向:右手定则
- 大小:两向量构成的平行四边形的面积
后面会提到如何利用反对称矩阵将叉乘运算转换成矩阵乘法
0.2 Norm 范数
When R n × 1 R^{n \times1} Rn×1 ,
-
1-范数: ∣ ∣ a ∣ ∣ = ∑ k = 1 n ∣ a k ∣ || \bm{a} ||=\sum^{n}_{k=1}|a_k| ∣∣a∣∣=∑k=1n∣ak∣,向量元素绝对值之和
-
2-范数: ∣ ∣ a ∣ ∣ 2 = ∑ k = 1 n ∣ a k ∣ 2 || \bm{a} ||_2= \sqrt{\sum^{n}_{k=1}|a_k|^2} ∣∣a∣∣2=∑k=1n∣ak∣2,向量绝对值平方再开方(常用计算向量长度)
-
p-范数: ∣ ∣ a ∣ ∣ p = ( ∑ k = 1 n ∣ a k ∣ p ) 1 / p || \bm{a} ||_p= (\sum^{n}_{k=1}|a_k|^p)^{1/p} ∣∣a∣∣p=(∑k=1n∣ak∣p)1/p
- p → + ∞ p\rightarrow+\infty p→+∞时, ∣ ∣ a ∣ ∣ + ∞ = m a x ∣ a i ∣ ( || \bm{a} ||_{+\infty}=max|a_i|( ∣∣a∣∣+∞=max∣ai∣(推导)
- p → − ∞ p\rightarrow -\infty p→−∞时, ∣ ∣ a ∣ ∣ − ∞ = m i n ∣ a i ∣ || \bm{a} ||_{-\infty}=min|a_i| ∣∣a∣∣−∞=min∣ai∣
如何理解范数?
假设有两个学生 A A A 和 B B B 。我们分别用向量 a \bm{a} a 和向量 b \bm{b} b 对他们进行 “评估”。
0.3 Skew-Symmetric Matrix 反对称矩阵
非常巧合的是,Robotics 刚学这部分内容,猜测后面会讲齐次变换矩阵之类的
概念:
1 × 3 1\times3 1×3 向量 a = [ a 1 a 2 a 3 ] \bm{a}=\begin{bmatrix} a_1 \\ a_2 \\ a_3 \end{bmatrix} a=
a1a2a3
,其对应的反对称矩阵 [ a ] × [\bm{a}]_\times [a]×:
[ a ] × = [ 0 − a