矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母表示向量,大写字母X表示矩阵。
首先来琢磨一下定义,标量f对矩阵X的导数,定义为,即f对X逐元素求导排成与X尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是在对较复杂的函数难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,为何要将f看做矩阵X而不是各元素
的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。
为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:;多元微积分中的梯度(标量对向量的导数)也与微分有联系:
,这里第一个等号是全微分公式,第二个等号表达了梯度
与微分的联系;受此启发,我们将矩阵导数与微分建立联系:
,这里tr代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,
,即
是矩阵A,B的内积,因此上式与原定义相容。
然后来建立运算法则。回想遇到较复杂的一元函数如,我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:
1)加减法:;矩阵乘法:
;转置:
;迹:
2)逆:,此式可在
两侧求微分来证明。
3)行列式:,其中
表示X的伴随矩阵,在X可逆时又可以写作
.此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。
4)逐元素乘法:,
表示尺寸相同的矩阵X,Y逐元素相乘。
5)逐元素函数:是逐元素运算的标量函数。
我们试图利用矩阵导数与微分的联系,在求出左侧的微分df后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):
1)标量套上迹:
2)转置:
3)线性:
4)矩阵乘法交换:,两侧都等于
5)矩阵乘法/逐元素乘法交换:.两侧都等于
观察一下可以断言,若标量函数f是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给df套上迹并将其它项交换至dX左侧,即能得到导数。
在建立法则的最后,来谈一谈复合:假设已求得,而Y是X的函数,如何求
呢?在微积分中有标量求导的链式法则
,但这里我们不能随意沿用标量的链式法则,因为矩阵对矩阵的导数
截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出
,再将dY用dX表示出来代入,并使用迹技巧将其他项交换至dX左侧,即可求得
。
接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。
- 例题
最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。