『科學計算_理論』矩陣求導

上篇原文連接算法

下篇原文連接網絡

標量對矩陣求導

矩陣求導的技術,在統計學、控制論、機器學習等領域有普遍的應用。鑑於我看過的一些資料或言之不詳、或繁亂無緒,本文來作個科普,分做兩篇,上篇講標量對矩陣的求導術,下篇講矩陣對矩陣的求導術。本文使用小寫字母x表示標量,粗體小寫字母\boldsymbol{x} 表示向量,大寫字母X表示矩陣。機器學習

首先來琢磨一下定義,標量f對矩陣X的導數,定義爲\frac{\partial f}{\partial X} := \left[\frac{\partial f }{\partial X_{ij}}\right],即f對X逐元素求導排成與X尺寸相同的矩陣。然而,這個定義在計算中並很差用,實用上的緣由是在對較複雜的函數難以逐元素求導;哲理上的緣由是逐元素求導破壞了總體性。試想,爲什麼要將f看作矩陣X而不是各元素X_{ij}的函數呢?答案是用矩陣運算更整潔。因此在求導時不宜拆開矩陣,而是要找一個從總體出發的算法。爲此,咱們來回顧,一元微積分中的導數(標量對標量的導數)與微分有聯繫:df = f'(x)dx;多元微積分中的梯度(標量對向量的導數)也與微分有聯繫:df = \sum_{i} \frac{\partial f}{\partial x_i}dx_i =  \frac{\partial f}{\partial \boldsymbol{x}}^T d\boldsymbol{x} ,這裏第一個等號是全微分公式,第二個等號表達了梯度\frac{\partial f}{\partial \boldsymbol{x}}與微分的聯繫;受此啓發,咱們將矩陣導數與微分創建聯繫:df = \sum_{i,j} \frac{\partial f}{\partial X_{ij}}dX_{ij} = \text{tr}\left(\frac{\partial f}{\partial X}^T dX\right) ,這裏tr表明跡(trace)是方陣對角線元素之和,知足性質:對尺寸相同的矩陣A,B,\text{tr}(A^TB) = \sum_{i,j}A_{ij}B_{ij},這用泛函分析的語言來講\text{tr}(A^TB)是矩陣A,B的內積,所以上式與原定義相容。

函數

 

而後來創建運算法則。回想遇到較複雜的一元函數如f = \log(2+\sin x)e^{\sqrt{x}},咱們是如何求導的呢?一般不是從定義開始求極限,而是先創建了初等函數求導和四則運算、複合等法則,再來運用這些法則。故而,咱們來創立經常使用的矩陣微分的運算法則:學習

  1. 加減法:d(X\pm Y) = dX \pm dY;矩陣乘法:d(XY) = dX Y + X dY ;轉置:d(X^T) = (dX)^T;跡:d\text{tr}(X) = \text{tr}(dX)
  2. 逆:dX^{-1} = -X^{-1}dX X^{-1}。此式可在XX^{-1}=I兩側求微分來證實。
  3. 行列式:d|X| = \text{tr}(X^{\#}dX) ,其中X^{\#}表示X的伴隨矩陣,在X可逆時又能夠寫做d|X|= |X|\text{tr}(X^{-1}dX)。此式可用Laplace展開來證實,詳見張賢達《矩陣分析與應用》第279頁。
  4. 逐元素乘法:d(X\odot Y) = dX\odot Y + X\odot dY\odot表示尺寸相同的矩陣X,Y逐元素相乘。
  5. 逐元素函數:d\sigma(X) = \sigma'(X)\odot dX \sigma(X) = \left[\sigma(X_{ij})\right]是逐元素運算的標量函數。



咱們試圖利用矩陣導數與微分的聯繫df = \text{tr}\left(\frac{\partial f}{\partial X}^T dX\right) ,在求出左側的微分df後,該如何寫成右側的形式並獲得導數呢?這須要一些跡技巧(trace trick):優化

  1. 標量套上跡:a = \text{tr}(a)
  2. 轉置:\mathrm{tr}(A^T) = \mathrm{tr}(A)
  3. 線性:\text{tr}(A\pm B) = \text{tr}(A)\pm \text{tr}(B)
  4. 矩陣乘法交換:\text{tr}(AB) = \text{tr}(BA)。兩側都等於\sum_{i,j}A_{ij}B_{ji}
  5. 矩陣乘法/逐元素乘法交換:\text{tr}(A^T(B\odot C)) = \text{tr}((A\odot B)^TC)。兩側都等於\sum_{i,j}A_{ij}B_{ij}C_{ij}

 

觀察一下能夠斷言,若標量函數f是矩陣X經加減乘法、行列式、逆、逐元素函數等運算構成,則使用相應的運算法則對f求微分,再使用跡技巧給df套上跡並將其它項交換至dX左側,即能獲得導數。get


在創建法則的最後,來談一談複合:假設已求得\frac{\partial f}{\partial Y},而Y是X的函數,如何求\frac{\partial f}{\partial X}呢?在微積分中有標量求導的鏈式法則\frac{\partial f}{\partial x} = \frac{\partial f}{\partial y} \frac{\partial y}{\partial x},但這裏咱們不能沿用鏈式法則,由於矩陣對矩陣的導數\frac{\partial Y}{\partial X}截至目前還是未定義的。因而咱們繼續追本溯源,鏈式法則是從何而來?源頭仍然是微分。咱們直接從微分入手創建複合法則:先寫出df = \text{tr}\left(\frac{\partial f}{\partial Y}^T dY\right),再將dY用dX表示出來代入,並使用跡技巧將其餘項交換至dX左側,便可獲得\frac{\partial f}{\partial X}

數學

接下來演示一些算例。特別提醒要依據已經創建的運算法則來計算,不能隨意套用微積分中標量導數的結論,好比認爲AX對X的導數爲A,這是沒有根據、意義不明的。io

例1:f = \boldsymbol{a}^T X\boldsymbol{b},求\frac{\partial f}{\partial X}變量

解:先使用矩陣乘法法則求微分:df =  \boldsymbol{a}^T dX\boldsymbol{b} ,再套上跡並作交換:df = \text{tr}(\boldsymbol{a}^TdX\boldsymbol{b}) = \text{tr}(\boldsymbol{b}\boldsymbol{a}^TdX),對照導數與微分的聯繫,獲得\frac{\partial f}{\partial X} =  \boldsymbol{a}\boldsymbol{b}^T

注意:這裏不能用\frac{\partial f}{\partial X} =\boldsymbol{a}^T \frac{\partial X}{\partial X}\boldsymbol{b}=?,導數與乘常數矩陣的交換是不合法則的運算(而微分是合法的)。有些資料在計算矩陣導數時,會略過求微分這一步,這是邏輯上解釋不通的。

例2【線性迴歸】:l = \|X\boldsymbol{w}-  \boldsymbol{y}\|^2,求\frac{\partial l}{\partial \boldsymbol{w}}

解:嚴格來講這是標量對向量的導數,不過能夠把向量看作矩陣的特例。將向量範數寫成l = (X\boldsymbol{w}-  \boldsymbol{y})^T(X\boldsymbol{w}-  \boldsymbol{y}),求微分,使用矩陣乘法、轉置等法則:dl = (Xd\boldsymbol{w})^T(X\boldsymbol{w}-\boldsymbol{y})+(X\boldsymbol{w}-\boldsymbol{y})^T(Xd\boldsymbol{w}) = 2(X\boldsymbol{w}-\boldsymbol{y})^TXd\boldsymbol{w}。對照導數與微分的聯繫,獲得\frac{\partial l}{\partial \boldsymbol{w}}= 2X^T(X\boldsymbol{w}-\boldsymbol{y})

例3【多元logistic迴歸】:l = -\boldsymbol{y}^T\log\text{softmax}(W\boldsymbol{x}),求\frac{\partial l}{\partial W}。其中\boldsymbol{y}是除一個元素爲1外其它元素爲0的向量;\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})}{\boldsymbol{1}^T\exp(\boldsymbol{a})},其中\exp(\boldsymbol{a})表示逐元素求指數,\boldsymbol{1}表明全1向量。

解:首先將softmax函數代入並寫成l = -\boldsymbol{y}^T \left(\log (\exp(W\boldsymbol{x}))-\boldsymbol{1}\log(\boldsymbol{1}^T\exp(W\boldsymbol{x}))\right) = -\boldsymbol{y}^TW\boldsymbol{x} + \log(\boldsymbol{1}^T\exp(W\boldsymbol{x})),這裏要注意向量除標量求逐元素log知足\log(\boldsymbol{b}/c) = \log(\boldsymbol{b}) - \boldsymbol{1}\log(c),以及\boldsymbol{y}知足\boldsymbol{y}^T \boldsymbol{1} = 1。求微分,使用矩陣乘法、逐元素函數等法則:dl =- \boldsymbol{y}^TdW\boldsymbol{x}+\frac{\boldsymbol{1}^T\left(\exp(W\boldsymbol{x})\odot(dW\boldsymbol{x})\right)}{\boldsymbol{1}^T\exp(W\boldsymbol{x})}。再套上跡並作交換,其中第二項的分子是\text{tr}\left(\boldsymbol{1}^T\left(\exp(W\boldsymbol{x})\odot(dW\boldsymbol{x})\right)\right) = \text{tr}\left((\boldsymbol{1}\odot\exp(W\boldsymbol{x}))^TdW\boldsymbol{x}\right) = \text{tr}(\exp(W\boldsymbol{x})^TdW\boldsymbol{x}),故dl = \text{tr}\left(-\boldsymbol{y}^TdW\boldsymbol{x}+\frac{\exp(W\boldsymbol{x})^TdW\boldsymbol{x}}{\boldsymbol{1}^T\exp(W\boldsymbol{x})}\right) =\text{tr}(\boldsymbol{x}(\text{softmax}(W\boldsymbol{x})-\boldsymbol{y})^TdW)。對照導數與微分的聯繫,獲得\frac{\partial l}{\partial W}= (\text{softmax}(W\boldsymbol{x})-\boldsymbol{y})\boldsymbol{x}^T

另解:定義\boldsymbol{a} = W\boldsymbol{x},則l = -\boldsymbol{y}^T\log\text{softmax}(\boldsymbol{a}) ,先如上求出\frac{\partial l}{\partial \boldsymbol{a}} = \text{softmax}(\boldsymbol{a})-\boldsymbol{y} ,再利用複合法則:dl = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^Td\boldsymbol{a}\right) = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}}^TdW \boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial \boldsymbol{a}}^TdW\right),獲得\frac{\partial l}{\partial W}= \frac{\partial l}{\partial\boldsymbol{a}}\boldsymbol{x}^T

 

例4【方差的最大似然估計】:樣本\boldsymbol{x}_1,\dots, \boldsymbol{x}_n\sim N(\boldsymbol{\mu}, \Sigma),其中\Sigma是對稱正定矩陣,求方差\Sigma的最大似然估計。寫成數學式是:l = \log|\Sigma|+\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}}),求\frac{\partial l }{\partial \Sigma}的零點。

 

解:首先求微分,使用矩陣乘法、行列式、逆等運算法則,第一項是d\log|\Sigma| = |\Sigma|^{-1}d|\Sigma| = \text{tr}(\Sigma^{-1}d\Sigma),第二項是\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^Td\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}}) = -\frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T\Sigma^{-1}d\Sigma\Sigma^{-1}(\boldsymbol{x}_i-\boldsymbol{\bar{x}})。再給第二項套上跡作交換:dl = \text{tr}\left(\left(\Sigma^{-1}-\Sigma^{-1}S_n\Sigma^{-1}\right)d\Sigma\right),其中S_n := \frac{1}{n}\sum_{i=1}^n(\boldsymbol{x}_i-\boldsymbol{\bar{x}})(\boldsymbol{x}_i-\boldsymbol{\bar{x}})^T定義爲樣本方差。對照導數與微分的聯繫,有\frac{\partial l }{\partial \Sigma}=(\Sigma^{-1}-\Sigma^{-1}S_n\Sigma^{-1})^T,其零點即\Sigma的最大似然估計爲\Sigma = S_n

最後一例留給經典的神經網絡。神經網絡的求導術是學術史上的重要成果,還有個專門的名字叫作BP算法,我相信現在不少人在初次推導BP算法時也會頗費一番腦筋,事實上使用矩陣求導術來推導並不複雜。爲簡化起見,咱們推導二層神經網絡的BP算法。

例5【二層神經網絡】:l = -\boldsymbol{y}^T\log\text{softmax}(W_2\sigma(W_1\boldsymbol{x})),求\frac{\partial l}{\partial W_1}\frac{\partial l}{\partial W_2}。其中\boldsymbol{y}是除一個元素爲1外其它元素爲0的向量,\text{softmax}(\boldsymbol{a}) = \frac{\exp(\boldsymbol{a})}{\boldsymbol{1}^T\exp(\boldsymbol{a})}同例3,\sigma(\cdot)是逐元素sigmoid函數\sigma(a) = \frac{1}{1+\exp(-a)}

解:定義\boldsymbol{a}_1=W_1\boldsymbol{x}\boldsymbol{h}_1 = \sigma(\boldsymbol{a}_1)\boldsymbol{a}_2 = W_2 \boldsymbol{h}_1,則l =-\boldsymbol{y}^T\log\text{softmax}(\boldsymbol{a}_2)。在例3中已求出\frac{\partial l}{\partial \boldsymbol{a}_2} = \text{softmax}(\boldsymbol{a}_2)-\boldsymbol{y} 。使用複合法則,注意此處\boldsymbol{h}_1, W_2都是變量:dl = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^Td\boldsymbol{a}_2\right) = \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^TdW_2 \boldsymbol{h}_1\right) + \text{tr}\left(\frac{\partial l}{\partial \boldsymbol{a}_2}^TW_2 d\boldsymbol{h}_1\right),使用矩陣乘法交換的跡技巧從第一項獲得\frac{\partial l}{\partial W_2}= \frac{\partial l}{\partial\boldsymbol{a}_2}\boldsymbol{h}_1^T,從第二項獲得\frac{\partial l}{\partial \boldsymbol{h}_1}= W_2^T\frac{\partial l}{\partial\boldsymbol{a}_2}。接下來求\frac{\partial l}{\partial \boldsymbol{a}_1},繼續使用複合法則,並利用矩陣乘法和逐元素乘法交換的跡技巧:\text{tr}\left(\frac{\partial l}{\partial\boldsymbol{h}_1}^Td\boldsymbol{h}_1\right) = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{h}_1}^T(\sigma'(\boldsymbol{a}_1)\odot d\boldsymbol{a}_1)\right) = \text{tr}\left(\left(\frac{\partial l}{\partial\boldsymbol{h}_1}\odot \sigma'(\boldsymbol{a}_1)\right)^Td\boldsymbol{a}_1\right),獲得\frac{\partial l}{\partial \boldsymbol{a}_1}= \frac{\partial l}{\partial\boldsymbol{h}_1}\odot\sigma'(\boldsymbol{a}_1)。爲求\frac{\partial l}{\partial W_1},再用一次複合法則:\text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^Td\boldsymbol{a}_1\right) = \text{tr}\left(\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\boldsymbol{x}\right) = \text{tr}\left(\boldsymbol{x}\frac{\partial l}{\partial\boldsymbol{a}_1}^TdW_1\right),獲得\frac{\partial l}{\partial W_1}= \frac{\partial l}{\partial\boldsymbol{a}_1}\boldsymbol{x}^T

 

矩陣對矩陣求導

使用小寫字母x表示標量,粗體小寫字母\boldsymbol{x} 表示列向量,大寫字母X表示矩陣。矩陣對矩陣的求導採用了向量化的思路,常應用於二階方法求解優化問題。

首先來琢磨一下定義。矩陣對矩陣的導數,須要什麼樣的定義?第一,矩陣F(p×q)對矩陣X(m×n)的導數應包含全部mnpq個偏導數\frac{\partial F_{kl}}{\partial X_{ij}},從而不損失信息;第二,導數與微分有簡明的聯繫,由於在計算導數和應用中須要這個聯繫;第三,導數有簡明的從總體出發的算法。咱們先定義向量\boldsymbol{f}(p×1)對向量\boldsymbol{x}(m×1)的導數\frac{\partial \boldsymbol{f}}{\partial \boldsymbol{x}} := 
\begin{bmatrix}
\frac{\partial f_1}{\partial x_1} & \frac{\partial f_2}{\partial x_1} & \cdots & \frac{\partial f_p}{\partial x_1}\\
\frac{\partial f_1}{\partial x_2} & \frac{\partial f_2}{\partial x_2} & \cdots & \frac{\partial f_p}{\partial x_2}\\
\vdots & \vdots & \ddots & \vdots\\
\frac{\partial f_1}{\partial x_m} & \frac{\partial f_2}{\partial x_m} & \cdots & \frac{\partial f_p}{\partial x_m}\\
\end{bmatrix}(m×p),有d\boldsymbol{f} = \frac{\partial \boldsymbol{f} }{\partial \boldsymbol{x} }^T d\boldsymbol{x} ;再定義矩陣的(按列優先)向量化\mathrm{vec}(X) := [X_{11}, \ldots, X_{m1}, X_{12}, \ldots, X_{m2}, \ldots, X_{1n}, \ldots, X_{mn}]^T(mn×1),並定義矩陣F對矩陣X的導數\frac{\partial F}{\partial X} := \frac{\partial \mathrm{vec}(F)}{\partial \mathrm{vec}(X)}(mn×pq)。導數與微分有聯繫\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX)。幾點說明以下:

  1. 按此定義,標量f對矩陣X(m×n)的導數\frac{\partial f}{\partial X}是mn×1向量,與上篇的定義不兼容,不過兩者容易相互轉換。爲避免混淆,用記號\nabla_X f表示上篇定義的m×n矩陣,則有\frac{\partial f}{\partial X}=\mathrm{vec}(\nabla_X f)。雖然本篇的技術能夠用於標量對矩陣求導這種特殊狀況,但使用上篇中的技術更方便。讀者能夠經過上篇中的算例試驗兩種方法的等價轉換。
  2. 標量對矩陣的二階導數,又稱Hessian矩陣,定義爲\nabla^2_X f := \frac{\partial^2 f}{\partial X^2} = \frac{\partial \nabla_X f}{\partial X}(mn×mn),是對稱矩陣。對\frac{\partial f}{\partial X}\nabla_X f求導均可以獲得Hessian矩陣,但從矩陣\nabla_X f出發更方便。
  3. \frac{\partial F}{\partial X} = \frac{\partial\mathrm{vec} (F)}{\partial X} = \frac{\partial F}{\partial \mathrm{vec}(X)} = \frac{\partial\mathrm{vec}(F)}{\partial \mathrm{vec}(X)},求導時矩陣被向量化,弊端是這在必定程度破壞了矩陣的結構,會致使結果變得形式複雜;好處是多元微積分中關於梯度、Hessian矩陣的結論能夠沿用過來,只需將矩陣向量化。例如優化問題中,牛頓法的更新\Delta X,知足\mathrm{vec}(\Delta X) = -(\nabla^2_X f)^{-1}\mathrm{vec}(\nabla_X f)
  4. 在資料中,矩陣對矩陣的導數還有其它定義,好比\frac{\partial F}{\partial X} := \left[\frac{\partial F_{kl}}{\partial X}\right](mp×nq),它能兼容上篇中的標量對矩陣導數的定義,但微分與導數的聯繫(dF等於\frac{\partial F}{\partial X}中每一個m×n子塊分別與dX作內積)不夠簡明,不便於計算和應用。



而後來創建運算法則。仍然要利用導數與微分的聯繫\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX),求微分的方法與上篇相同,而從微分獲得導數須要一些向量化的技巧:

  1. 線性:\mathrm{vec}(A+B) = \mathrm{vec}(A) + \mathrm{vec}(B)
  2. 矩陣乘法:\mathrm{vec}(AXB) = (B^T \otimes A) \mathrm{vec}(X),其中\otimes表示Kronecker積,A(m×n)與B(p×q)的Kronecker積是A\otimes B := [A_{ij}B](mp×nq)。此式證實見張賢達《矩陣分析與應用》第107-108頁。
  3. 轉置:\mathrm{vec}(A^T) = K_{mn}\mathrm{vec}(A),A是m×n矩陣,其中K_{mn}(mn×mn)是交換矩陣(commutation matrix)。
  4. 逐元素乘法:\mathrm{vec}(A\odot X) = \mathrm{diag}(A)\mathrm{vec}(X),其中\mathrm{diag}(A)(mn×mn)是用A的元素(按列優先)排成的對角陣。

觀察一下能夠斷言,若矩陣函數F是矩陣X經加減乘法、行列式、逆、逐元素函數等運算構成,則使用相應的運算法則對F求微分,再作向量化並使用技巧將其它項交換至vec(dX)左側,即能獲得導數。

再談一談複合:假設已求得\frac{\partial F}{\partial Y},而Y是X的函數,如何求\frac{\partial F}{\partial X}呢?從導數與微分的聯繫入手,\mathrm{vec}(dF) = \frac{\partial F}{\partial Y}^T\mathrm{vec}(dY) = \frac{\partial F}{\partial Y}^T\frac{\partial Y}{\partial X}^T\mathrm{vec}(dX) ,能夠推出鏈式法則\frac{\partial F}{\partial X} = \frac{\partial Y}{\partial X}\frac{\partial F}{\partial Y}

 

和標量對矩陣的導數相比,矩陣對矩陣的導數形式更加複雜,從不一樣角度出發常會獲得形式不一樣的結果。有一些Kronecker積和交換矩陣相關的恆等式,可用來作等價變形:

 

  1. (A\otimes B)^T = A^T \otimes B^T
  2. \mathrm{vec}(\boldsymbol{ab}^T) = \boldsymbol{b}\otimes\boldsymbol{a}
  3. (A\otimes B)(C\otimes D) = (AC)\otimes (BD)。能夠對F = D^TB^TXAC求導來證實,一方面,直接求導獲得\frac{\partial F}{\partial X} = (AC) \otimes (BD);另外一方面,引入Y = B^T X A,有\frac{\partial F}{\partial Y} = C \otimes D, \frac{\partial Y}{\partial X} = A \otimes B,用鏈式法則獲得\frac{\partial F}{\partial X} = (A\otimes B)(C \otimes D)
  4. K_{mn} = K_{nm}^T, K_{mn}K_{nm} = I
  5. K_{pm}A\otimes B K_{nq} = B\otimes A,A是m×n矩陣,B是p×q矩陣。能夠對AXB^T作向量化來證實,一方面,\mathrm{vec}(AXB^T) = (B\otimes A)\mathrm{vec}(X);另外一方面,\mathrm{vec}(AXB^T) = K_{pm}\mathrm{vec}(BX^TA^T) = (K_{pm}A\otimes B)\mathrm{vec}(X^T) = (K_{pm}A\otimes B K_{nq})\mathrm{vec}(X)



接下來演示一些算例。

例1:F = AX,X是m×n矩陣,求\frac{\partial F}{\partial X}

 

解:先求微分:dF=AdX,再作向量化,使用矩陣乘法的技巧,注意在dX右側添加單位陣:\mathrm{vec}(dF) = \mathrm{vec}(AdX) = (I_n\otimes A)\mathrm{vec}(dX),對照導數與微分的關係獲得\frac{\partial F}{\partial X} = I_n\otimes A^T

例2:f = \log |X| ,X是n×n矩陣,求\nabla_X f\nabla^2_X f

解:使用上篇中的技術可求得\nabla_X f = X^{-1T} 。爲求\nabla^2_X f,先求微分:d\nabla_X f = -(X^{-1}dXX^{-1})^T,再作向量化,使用轉置和矩陣乘法的技巧\mathrm{vec}(d\nabla_X f)= -K_{nn}\mathrm{vec}(X^{-1}dX X^{-1}) = -K_{nn}X^{-1T}\otimes X^{-1}\mathrm{vec}(dX),對照導數與微分的關係獲得\nabla^2_X f = -K_{nn}X^{-1T}\otimes X^{-1}。注意\nabla^2_X f是對稱矩陣。在X是對稱矩陣時,可簡化爲\nabla^2_X f = -X^{-1}\otimes X^{-1}

 

例3:F = A\exp(XB),A是l×m,X是m×n,B是n×p矩陣,exp()爲逐元素函數,求\frac{\partial F}{\partial X}

 

解:先求微分:dF = A(\exp(XB)\odot (dXB)),再作向量化,使用矩陣乘法的技巧:\mathrm{vec}(dF) = (I_p\otimes A)\mathrm{vec}(\exp(XB)\odot (dXB)),再用逐元素乘法的技巧:\mathrm{vec}(dF) = (I_p \otimes A) \mathrm{diag}(\exp(XB))\mathrm{vec}(dXB),再用矩陣乘法的技巧:\mathrm{vec}(dF) = (I_p\otimes A)\mathrm{diag}(\exp(XB))(B^T\otimes I_m)\mathrm{vec}(dX),對照導數與微分的關係獲得\frac{\partial F}{\partial X} = (B\otimes I_m)\mathrm{diag}(\exp(XB))(I_p\otimes A^T)



最後作個小結。咱們發展了從總體出發的矩陣求導的技術,導數與微分的聯繫是計算的樞紐,標量對矩陣的導數與微分的聯繫是df = \mathrm{tr}(\nabla_X^T f dX),先對f求微分,再使用跡技巧可求得導數;矩陣對矩陣的導數與微分的聯繫是\mathrm{vec}(dF) = \frac{\partial F}{\partial X}^T \mathrm{vec}(dX),先對F求微分,再使用向量化的技巧可求得導數。

相關文章
相關標籤/搜索