如何通俗地理解相似矩阵

本文介绍了相似矩阵的概念,强调它们代表同一个线性映射在不同基下的表示。通过自然基和非自然基的转换,展示了矩阵如何在坐标变换下保持映射不变,并通过一个旋转矩阵的例子详细阐述了相似矩阵的求解过程。
部署运行你感兴趣的模型镜像

如何通俗地理解相似矩阵


同学们大家好,今天我们来学习相似矩阵。

1 简单印象

\boldsymbol{A,B} 都是n 阶方阵,若有可逆矩阵\boldsymbol{P} ,使得:

\boldsymbol{B}=\boldsymbol{P}^{-1}\boldsymbol{AP}

则称\boldsymbol{P} 为相似变换矩阵(Similarity transformation matrix),称\boldsymbol{B} 是\boldsymbol{A} 的相似矩阵(Similar matrix),记作:

\boldsymbol{A}\simeq \boldsymbol{B}

既然相似,则一定有相同点,相同点是什么呢?它们是同一个线性映射,在不同基下的代数表达。

 2 解释

我们知道,线性映射是将一个向量映射到另一个向量,比如这里将\boldsymbol{x} ,映射成\boldsymbol{y} 。

2.1 自然基

\boldsymbol{x} 在自然基下的坐标向量用[\boldsymbol{x}]_{\mathcal{E}} 表示,\boldsymbol{y} 在自然基下的坐标向量用[\boldsymbol{y}]_{\mathcal{E}} 表示。矩阵\boldsymbol{A} 就是将坐标向量[\boldsymbol{x}]_{\mathcal{E}} ,映射到坐标向量[\boldsymbol{y}]_{\mathcal{E}} 。

这里坐标向量[\boldsymbol{x}]_{\mathcal{E}}=\begin{pmatrix}0\\2\end{pmatrix} ,坐标向量[\boldsymbol{y}]_{\mathcal{E}}=\begin{pmatrix}3\\1\end{pmatrix} ,矩阵\boldsymbol{A} 就是把\begin{pmatrix}0\\2\end{pmatrix} 转换为\begin{pmatrix}3\\1\end{pmatrix}

\boldsymbol{A}\underbrace{\begin{pmatrix}0\\2\end{pmatrix}}_{[\boldsymbol{x}]_{\mathcal{E}}}=\underbrace{\begin{pmatrix}3\\1\end{pmatrix}}_{[\boldsymbol{y}]_{\mathcal{E}}}

2.2 非自然基

还是将\boldsymbol{x} 映射成\boldsymbol{y} ,现在将这个映射表示在非自然基下。

 将\boldsymbol{x} 在非自然基下的坐标向量用[\boldsymbol{x}]_{\mathcal{P}} 表示,\boldsymbol{y} 在非自然基下的坐标向量用[\boldsymbol{y}]_{\mathcal{P}} 表示。矩阵\boldsymbol{B} 就是将坐标向量[\boldsymbol{x}]_{\mathcal{P}} ,映射到坐标向量[\boldsymbol{y}]_{\mathcal{P}} 。

这里坐标向量[\boldsymbol{x}]_{\mathcal{P}}=\begin{pmatrix}1\\2\end{pmatrix}, [\boldsymbol{y}]_{\mathcal{P}}=\begin{pmatrix}2\\1\end{pmatrix} 。矩阵\boldsymbol{B} 就是把\begin{pmatrix}1\\2\end{pmatrix} 转换为\begin{pmatrix}2\\1\end{pmatrix}

\boldsymbol{B}\underbrace{\begin{pmatrix}1\\2\end{pmatrix}}_{[\boldsymbol{x}]_{\mathcal{P}}}=\underbrace{\begin{pmatrix}2\\1\end{pmatrix}}_{[\boldsymbol{y}]_{\mathcal{P}}}

也就是说矩阵\boldsymbol{A} ,矩阵\boldsymbol{B} ,都是将\boldsymbol{x} 映射到向量\boldsymbol{y} ,而它们只是不同基下的不同代数表达

2.3 联系

假如我们可以通过某矩阵\boldsymbol{P} ,将坐标向量[\boldsymbol{x}]_{\mathcal{P}} 变换为坐标向量[\boldsymbol{x}]_{\mathcal{E}} ,矩阵\boldsymbol{P}^{-1} ,将坐标向量[\boldsymbol{y}]_{\mathcal{E}} 变换为坐标向量[\boldsymbol{y}]_{\mathcal{P}}

这个时候\boldsymbol{B} 和\boldsymbol{P}^{-1}\boldsymbol{A}\boldsymbol{P} 都是将[\boldsymbol{x}]_{\mathcal{P}} 映射为[\boldsymbol{y}]_{\mathcal{P}} ,因此它们是相等的,即

\boldsymbol{B}=\boldsymbol{P}^{-1}\boldsymbol{A}\boldsymbol{P}

还有疑问?没关系,下面我们再来看个例子

3 例子

\mathcal{P}:\boldsymbol{p}_1=\begin{pmatrix}2\\0\end{pmatrix},\boldsymbol{p}_2=\begin{pmatrix}-1\\1\end{pmatrix} 为\mathbb{R}^2 中的一组基,求这个基下的旋转矩阵\boldsymbol{B}

3.1 思路

先说思路,根据题意,首先画出平面,代表\mathbb{R}^2 。然后标注出基\boldsymbol{p}_1,\boldsymbol{p}_2

平面内任取一个点,通过矩阵\boldsymbol{B} 就能对其进行旋转。

 下面,我们把这个过程分为映射前,与映射后。映射前用紫色表示,映射后用金色表示。

 假设旋转前的点在基\mathcal{P} 下的坐标为[\boldsymbol{x}]_{\mathcal{P}} ,旋转后的点在基\mathcal{P} 下的坐标为[\boldsymbol{y}]_{\mathcal{P}} ,我们要求解的矩阵\boldsymbol{B} ,就是将坐标向量[\boldsymbol{x}]_{\mathcal{P}} ,映射为坐标向量[\boldsymbol{y}]_{\mathcal{P}}

如何求呢?借助自然基,假设映射前的点在自然基下的坐标为[\boldsymbol{x}]_{\mathcal{E}} ,映射后的点在自然基下的坐标为[\boldsymbol{y}]_{\mathcal{E}} ,那么利用自然基下的旋转矩阵\begin{pmatrix}\cos\theta&-\sin\theta\\\sin\theta&\cos\theta\end{pmatrix} ,就能将[\boldsymbol{x}]_{\mathcal{E}} 映射成[\boldsymbol{y}]_{\mathcal{E}}

\begin{pmatrix}\cos\theta&-\sin\theta\\\sin\theta&\cos\theta\end{pmatrix} [\boldsymbol{x}]_{\mathcal{E}}=[\boldsymbol{y}]_{\mathcal{E}}

既然自然基可以完成旋转,那么下面只需要将非自然基转到自然基,旋转后,再转回非自然基就可以了,也就是下图中的橘色路径。

下面,我们就尝试把橘色路径表示出来。假设左边箭头的映射我们可以用矩阵\boldsymbol{P} 完成,那么右边箭头代表的映射就可以用\boldsymbol{P}^{-1} 表示。

从图中我们可以看到,左边这个箭头是将非自然基下的点映射到自然基下。根据基变换的知识可知,变换所用到的矩阵\boldsymbol{P} ,就是非自然基到自然基的过渡矩阵。而此过渡矩阵就是由非自然基构成的,即:

\boldsymbol{P}=(\boldsymbol{p}_1,\boldsymbol{p}_2)

这样

\boldsymbol{P}^{-1}=(\boldsymbol{p}_1,\boldsymbol{p}_2)^{-1}

\boldsymbol{p}_1,\boldsymbol{p}_2 在题目中已经给出了,这样,橘色路径上的所有元素我们就都知道了。思路讲完了,下面开始求解。

3.2 求解

根据题意,可列出等式

\boldsymbol{B}=(\boldsymbol{p}_1,\boldsymbol{p}_2)^{-1}\begin{pmatrix}\cos\theta&-\sin\theta\\\sin\theta&\cos\theta\end{pmatrix}(\boldsymbol{p}_1,\boldsymbol{p}_2)

\boldsymbol{p}_1=\begin{pmatrix}2\\0\end{pmatrix},\boldsymbol{p}_2=\begin{pmatrix}-1\\1\end{pmatrix} 带入上式可得:

\boldsymbol{B}=\begin{pmatrix}\cos\theta+\sin\theta&-\sin\theta\\2\sin\theta&-\sin\theta+\cos\theta\end{pmatrix}


 马同学马同学提供线性代数,微积分,概率论与数理统计,机器学习等知识讲解https://www.matongxue.com/madocs/2156/

您可能感兴趣的与本文相关的镜像

Qwen-Image-Edit-2509

Qwen-Image-Edit-2509

图片编辑
Qwen

Qwen-Image-Edit-2509 是阿里巴巴通义千问团队于2025年9月发布的最新图像编辑AI模型,主要支持多图编辑,包括“人物+人物”、“人物+商品”等组合玩法

在自然语言处理领域,文本向量化是文本表示的重要方式,当前大部分文本研究通过词向量化实现,word2vec便是其中一种重要技术[^1]。 可以将word2vec分为模型与通过模型获得的词向量两部分,其思路与自编码器相似,都是先基于训练数据构建一个神经网络。不过,训练好网络后并不利用它处理新任务,真正需要的是模型通过训练数据学得的参数,如隐层的权重矩阵,这些权重实际上就是要学习的“word vectors”。基于训练数据建模的过程被称作“Fake Task”,即建模并非最终目的[^2]。 通俗来讲,词向量能把抽象的词语语义关系量化成向量形式,有了合适的词向量,就能用机器学习、深度学习模型完成更多工作。嵌入是用向量表示物体、用数值表示标识符,在机器学习领域称为词嵌入,也称分布式表示。词嵌入通常有基于平台的Embedding学习和基于预训练模型两种方法,而word2vec是最早提出的embedding预训练模型。它有CBOW和Skip - Gram两种类型,其数据集的一个样本仅选取输入词前后各c个词和输入词进行组合,并且利用神经网络进行权重更新,Hierarchical Softmax和negative sampling是其两种优化策略[^3]。 此外,word2vec模型中重要的概念是词汇的上下文,也就是一个词周围的词,例如范围为1的上下文就是该词左右相邻的词[^4]。 ```python # 以下是使用Python中gensim库简单实现word2vec训练的示例代码 from gensim.models import Word2Vec import nltk from nltk.tokenize import word_tokenize nltk.download('punkt') # 示例文本数据 sentences = [ "I love natural language processing", "Word2Vec is a great technique", "Natural language processing is interesting" ] # 分词处理 tokenized_sentences = [word_tokenize(sentence.lower()) for sentence in sentences] # 训练Word2Vec模型 model = Word2Vec(sentences=tokenized_sentences, vector_size=100, window=5, min_count=1, workers=4) # 获取某个词的词向量 vector = model.wv['word2vec'] print(vector) ```
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

马同学图解数学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值