CSR-DCF視頻目標跟蹤論文筆記(2)——關於濾波器Learning的推導(Augmented Lagrangian方法)

1. 論文基本信息

這篇筆記主要針對濾波器求解的推導過程進行分析(拉格朗日乘子法),主要參考內容是原文的補充材料,關於論文其餘部分創新點及其總體思路會在後續文章中進行分析。(筆記1的連接:http://blog.csdn.net/discoverer100/article/details/78182306html

2. 濾波器求解目標函數的構建

在多通道狀況下,目標函數爲python

(1) arg min h d = 1 N d ( f d h d g 2 + λ h d 2 ) = arg min h d = 1 N d ( h ^ d H d i a g ( f ^ d ) g ^ d 2 + λ h ^ d 2 )

其中, h 表示濾波器, d = 1 t o N d 表示 N d 個通道, g 表示指望的響應輸出, λ 表示正則項用於防止過擬合(關於正則項爲何能夠防止過擬合能夠參考: http://www.cnblogs.com/alexanderkun/p/6922428.html

根據上述(1)式,爲簡化推導過程,將多通道狀況改成單通道狀況模式,則目標函數爲
git

(2) arg min h f h g 2 + λ h 2 = arg min h h ^ H d i a g ( f ^ ) g ^ 2 + λ h ^ 2

引入變量 h c 並定義約束條件
(3) h c h m = 0

其中, h m m h ,而 m 表示論文中的空間置信圖(spatial reliability map),也能夠理解爲一個mask,具體概念能夠參考前面的一篇文章: http://blog.csdn.net/discoverer100/article/details/78182306,上述(3)式中引入的變量 h c 能夠先不理會其物理意義,它的主要做用是讓算法可以收斂(論文原文表述:prohibits a closed-form solution),我的猜想:這裏的下標命名爲c,可能就是取constrained的第一個字母。

對(2)式引入上述約束條件,並進一步調整,獲得最終的目標函數
github

(4) arg min h c , h m h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h ^ m 2 s . t . h c h m = 0

上述的正則項前面多出了一個係數 1 / 2 ,其主要意圖是求導數後係數能夠變爲 1 ,便於公式書寫。

這樣,公式(4)就是咱們推導的起始表達式。web

3. 構建Lagrange表達式

根據上述目標函數,以及Augmented Lagrangian方法(參考Distributed optimization and statistical learning via the alternating direction method of multipliers),構建Lagrang表達式,以下
算法

(5) L ( h ^ c , h , I ^ | m ) = h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h m 2 + [ I ^ H ( h ^ c h ^ m ) + I ^ H ( h ^ c h ^ m ) ¯ ] + μ h ^ c h ^ m 2

其中,字母 I 表示Lagrange乘數,字母上面的橫槓表示 共軛矩陣,字母右上方的 H 表示 共軛轉置矩陣,所以有規律: A ¯ T = A H (後面的推導中可能同時存在兩種表示,須要留意)。將上述(5)式進行向量化表示,可得
(6) L ( h ^ c , h , I ^ | m ) = h ^ c H d i a g ( f ^ ) g ^ 2 + λ 2 h m 2 + [ I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ ] + μ h ^ c D F M h 2

不難看出,上述(5)式到(6)式,主要變化就是將變量 h ^ m 的表達式替換爲 D F M h ,其中 F 表示離散傅里葉變換矩陣,它至關於一個常量, D F 的大小( F 是一個 D × D 的方陣), M = d i a g ( m )

將上述(6)式簡單表述爲四個項的和,爲
微信

(7) L ( h ^ c , h , I ^ ) = L 1 + L 2 + L 3 + L 4

其中,
(8) { L 1 = h ^ c H d i a g ( f ^ ) g ^ 2 = ( h ^ c H d i a g ( f ^ ) g ^ ) ( h ^ c H d i a g ( f ^ ) g ^ ) ¯ T L 2 = λ 2 h m 2 L 3 = I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ L 4 = μ h ^ c D F M h 2 = μ ( h ^ c D F M h ) ( h ^ c D F M h ) ¯ T

4. 開始優化,首先對h_c求偏導數

對上述公式(4)的優化能夠表述爲下面的迭代過程
svg

(9) h ^ c o p t = arg min h c L ( h ^ c , h , I ^ ) h o p t = arg min h L ( h ^ c o p t , h , I ^ )

如今看關於變量 h ^ c 的優化,須要令知足 h ^ c ¯ L 0 ,也就是
(10) h ^ c ¯ L 1 + h ^ c ¯ L 2 + h ^ c ¯ L 3 + h ^ c ¯ L 4 0

對各個份量求偏導數,有
(11) h ^ c ¯ L 1 = h ^ c ¯ [ ( h ^ c H d i a g ( f ^ ) g ^ ) ( h ^ c H d i a g ( f ^ ) g ^ ) ¯ T ] = h ^ c ¯ [ h ^ c H d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c h ^ c H d i a g ( f ^ ) g ^ H g ^ d i a g ( f ^ ) H h ^ c + g ^ g ^ H ] = d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H 0 + 0 = d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H

(12) h ^ c ¯ L 2 = h ^ c ¯ [ λ 2 h m 2 ] = 0

(13) h ^ c ¯ L 3 = h ^ c ¯ [ I ^ H ( h ^ c D F M h ) + I ^ H ( h ^ c D F M h ) ¯ ] = h ^ c ¯ [ I ^ H h ^ c I ^ H D F M h + I ^ T h ^ c ¯ I ^ T D F M h ¯ ] = 0 0 + I ^ T 0 = I ^

(14) h ^ c ¯ L 4 = h ^ c ¯ [ μ ( h ^ c D F M h ) ( h ^ c D F M h ) ¯ T ] = h ^ c ¯ [ μ ( h ^ c h ^ c H h ^ c D h H M F H D F M h h ^ c H + D F M h D h H M F H ) ] = h ^ c ¯ [ μ ( h ^ c h ^ c H h ^ c D h H M F H D F M h h ^ c H + D F M h h H M F H ) ] = μ ( h ^ c 0 D F M h + 0 ) = μ h ^ c μ D F M h

因而,上述公式(10)能夠寫成
函數

(15) d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + 0 + I ^ + μ ( h ^ c 0 D F M h + 0 ) 0 d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + I ^ + μ ( h ^ c 0 D F M h + 0 ) 0

回顧公式(6),咱們曾將變量 h ^ m 的表達式替換爲 D F M h ,如今咱們將它替換回來,得
(16) d i a g ( f ^ ) d i a g ( f ^ ) H h ^ c d i a g ( f ^ ) g ^ H + I ^ + μ ( h ^ c 0 h ^ m + 0 ) 0

針對 h ^ c 合併同類項,得
相關文章
相關標籤/搜索