前一篇博客總結了動態規劃,可是對於我這初學者,仍是不少地方不能理解,因此我就在網上找到了一個大神的講解,確實很棒。轉載過來。html
原文連接在下面參考資料。java
下面經過對斐波那契數列和這道湊零錢問題詳解動態規劃。若是隻想看本題的答案,請直接翻到最後查看。python
動態規劃算法彷佛是一種很高深莫測的算法,你會在一些面試或算法書籍的高級技巧部分看到相關內容,什麼狀態轉移方程,重疊子問題,最優子結構等高大上的詞彙也可能讓你望而卻步。面試
並且,當你去看用動態規劃解決某個問題的代碼時,你會以爲這樣解決問題居然如此巧妙,但卻難以理解,你可能驚訝於人家是怎麼想到這種解法的。算法
實際上,動態規劃是一種常見的「算法設計技巧」,並無什麼高深莫測,至於各類高大上的術語,那是嚇唬別人用的,只要你親自體驗幾把,這些名詞的含義其實顯而易見,再簡單不過了。編程
至於爲何最終的解法看起來如此精妙,是由於動態規劃遵循一套固定的流程:遞歸的暴力解法 -> 帶備忘錄的遞歸解法 -> 非遞歸的動態規劃解法。這個過程是層層遞進的解決問題的過程,你若是沒有前面的鋪墊,直接看最終的非遞歸動態規劃解法,固然會以爲牛逼而不可及了。數組
固然,見的多了,思考多了,是能夠一步寫出非遞歸的動態規劃解法的。任何技巧都須要練習,咱們先遵循這個流程走,算法設計也就這些套路,除此以外,真的沒啥高深的。框架
如下,先經過兩個個比較簡單的例子:斐波那契和湊零錢問題,揭開動態規劃的神祕面紗,描述上述三個流程。後續還會寫幾篇文章探討如何使用動態規劃技巧解決比較複雜的經典問題。函數
首先,第一個快被舉爛了的例子,斐波那契數列。請讀者不要嫌棄這個例子簡單,由於簡單的例子才能讓你把精力充分集中在算法背後的通用思想和技巧上,而不會被那些隱晦的細節問題搞的莫名其妙。後續,困難的例子有的是。學習
int fib(int N) {
if (N == 1 || N == 2) return 1;
return fib(N - 1) + fib(N - 2);
}
複製代碼
這個不用多說了,學校老師講遞歸的時候彷佛都是拿這個舉例。咱們也知道這樣寫代碼雖然簡潔易懂,可是十分低效,低效在哪裏?假設 n = 20,請畫出遞歸樹。
PS:但凡遇到須要遞歸的問題,最好都畫出遞歸樹,這對你分析算法的複雜度,尋找算法低效的緣由都有巨大幫助。
這個遞歸樹怎麼理解?就是說想要計算原問題 f(20),我就得先計算出子問題 f(19) 和 f(18),而後要計算 f(19),我就要先算出子問題 f(18) 和 f(17),以此類推。最後遇到 f(1) 或者 f(2) 的時候,結果已知,就能直接返回結果,遞歸樹再也不向下生長了。
遞歸算法的時間複雜度怎麼計算?子問題個數乘以解決一個子問題須要的時間。
子問題個數,即遞歸樹中節點的總數。顯然二叉樹節點總數爲指數級別,因此子問題個數爲 O(2^n)。
解決一個子問題的時間,在本算法中,沒有循環,只有 f(n - 1) + f(n - 2) 一個加法操做,時間爲 O(1)。
因此,這個算法的時間複雜度爲 O(2^n),指數級別,爆炸。
觀察遞歸樹,很明顯發現了算法低效的緣由:存在大量重複計算,好比 f(18) 被計算了兩次,並且你能夠看到,以 f(18) 爲根的這個遞歸樹體量巨大,多算一遍,會耗費巨大的時間。更況且,還不止 f(18) 這一個節點被重複計算,因此這個算法及其低效。
這就是動態規劃問題的第一個性質:重疊子問題。下面,咱們想辦法解決這個問題。
明確了問題,其實就已經把問題解決了一半。即然耗時的緣由是重複計算,那麼咱們能夠造一個「備忘錄」,每次算出某個子問題的答案後別急着返回,先記到「備忘錄」裏再返回;每次遇到一個子問題先去「備忘錄」裏查一查,若是發現以前已經解決過這個問題了,直接把答案拿出來用,不要再耗時去計算了。
通常使用一個數組充當這個「備忘錄」,固然你也可使用哈希表(字典),思想都是同樣的。
int fib(int N) {
if (N < 1) return 0;
// 備忘錄全初始化爲 0
vector<int> memo(N + 1, 0);
return helper(memo, N);
}
int helper(vector<int>& memo, int n) {
if (n == 1 || n == 2) return 1;
if (memo[n] != 0) return memo[n];
// 未被計算過
memo[n] = helper(memo, n - 1) + helper(memo, n - 2);
return memo[n];
}
複製代碼
如今,畫出遞歸樹,你就知道「備忘錄」到底作了什麼。
實際上,帶「備忘錄」的遞歸算法,把一棵存在巨量冗餘的遞歸樹經過「剪枝」,改形成了一幅不存在冗餘的遞歸圖,極大減小了子問題(即遞歸圖中節點)的個數。
遞歸算法的時間複雜度怎麼算?子問題個數乘以解決一個子問題須要的時間。
子問題個數,即圖中節點的總數,因爲本算法不存在冗餘計算,子問題就是 f(1), f(2), f(3) ... f(20),數量和輸入規模 n = 20 成正比,因此子問題個數爲 O(n)。
解決一個子問題的時間,同上,沒有什麼循環,時間爲 O(1)。
因此,本算法的時間複雜度是 O(n)。比起暴力算法,是降維打擊。
至此,帶備忘錄的遞歸解法的效率已經和動態規劃同樣了。實際上,這種解法和動態規劃的思想已經差很少了,只不過這種方法叫作「自頂向下」,動態規劃叫作「自底向上」。
啥叫「自頂向下」?注意咱們剛纔畫的遞歸樹(或者說圖),是從上向下延伸,都是從一個規模較大的原問題好比說 f(20),向下逐漸分解規模,直到 f(1) 和 f(2) 觸底,而後逐層返回答案,這就叫「自頂向下」。
啥叫「自底向上」?反過來,咱們直接從最底下,最簡單,問題規模最小的 f(1) 和 f(2) 開始往上推,直到推到咱們想要的答案 f(20),這就是動態規劃的思路,這也是爲何動態規劃通常都脫離了遞歸,而是由循環迭代完成計算。
有了上一步「備忘錄」的啓發,咱們能夠把這個「備忘錄」獨立出來成爲一張表,就叫作 DP table 吧,在這張表上完成「自底向上」的推算豈不美哉!
int fib(int N) {
vector<int> dp(N + 1, 0);
dp[1] = dp[2] = 1;
for (int i = 3; i <= N; i++)
dp[i] = dp[i - 1] + dp[i - 2];
return dp[N];
}
複製代碼
畫個圖就很好理解了,並且你發現這個 DP table 特別像以前那個「剪枝」後的結果,只是反過來算而已。實際上,帶備忘錄的遞歸解法中的「備忘錄」,最終完成後就是這個 DP table,因此說這兩種解法實際上是差很少的,大部分狀況下,效率也基本相同。
這裏,引出 「動態轉移方程」 這個名詞,實際上就是描述問題結構的數學形式:
爲啥叫「狀態轉移方程」?爲了聽起來高端。你把 f(n) 想作一個狀態 n,這個狀態 n 是由狀態 n - 1 和狀態 n - 2 相加轉移而來,這就叫狀態轉移,僅此而已。
你會發現,上面的幾種解法中的全部操做,例如 return f(n - 1) + f(n - 2),dp[i] = dp[i - 1] + dp[i - 2],以及對備忘錄或 DP table 的初始化操做,都是圍繞這個方程式的不一樣表現形式。可見列出「狀態轉移方程」的重要性,它是解決問題的核心。很容易發現,其實狀態轉移方程直接表明着暴力解法。
千萬不要看不起暴力解,動態規劃問題最困難的就是寫出狀態轉移方程,即這個暴力解。優化方法無非是用備忘錄或者 DP table,再無奧妙可言。
這個例子的最後,講一個細節優化。細心的讀者會發現,根據斐波那契數列的狀態轉移方程,當前狀態只和以前的兩個狀態有關,其實並不須要那麼長的一個 DP table 來存儲全部的狀態,只要想辦法存儲以前的兩個狀態就好了。因此,能夠進一步優化,把空間複雜度降爲 O(1):
int fib(int n) {
if (n < 2) return n;
int prev = 0, curr = 1;
for (int i = 0; i < n - 1; i++) {
int sum = prev + curr;
prev = curr;
curr = sum;
}
return curr;
}
複製代碼
有人會問,動態規劃的另外一個重要特性「最優子結構」,怎麼沒有涉及?下面會涉及。斐波那契數列的例子嚴格來講不算動態規劃,以上旨在演示算法設計螺旋上升的過程。當問題中要求求一個最優解或在代碼中看到循環和 max、min 等函數時,十有八九,須要動態規劃大顯身手。
下面,看第二個例子,湊零錢問題,有了上面的詳細鋪墊,這個問題會很快解決。
題目:給你 k 種面值的硬幣,面值分別爲 c1, c2 ... ck,再給一個總金額 n,問你最少須要幾枚硬幣湊出這個金額,若是不可能湊出,則回答 -1 。
好比說,k = 3,面值分別爲 1,2,5,總金額 n = 11,那麼最少須要 3 枚硬幣,即 11 = 5 + 5 + 1 。下面走流程。
1、暴力解法 首先是最困難的一步,寫出狀態轉移方程,這個問題比較好寫:
其實,這個方程就用到了「最優子結構」性質:原問題的解由子問題的最優解構成。即 f(11) 由 f(10), f(9), f(6) 的最優解轉移而來。
記住,要符合「最優子結構」,子問題間必須互相獨立。啥叫相互獨立?你確定不想看數學證實,我用一個直觀的例子來說解。
好比說,你的原問題是考出最高的總成績,那麼你的子問題就是要把語文考到最高,數學考到最高...... 爲了每門課考到最高,你要把每門課相應的選擇題分數拿到最高,填空題分數拿到最高...... 固然,最終就是你每門課都是滿分,這就是最高的總成績。
獲得了正確的結果:最高的總成績就是總分。由於這個過程符合最優子結構,「每門科目考到最高」這些子問題是互相獨立,互不干擾的。
可是,若是加一個條件:你的語文成績和數學成績會互相制約,此消彼長。這樣的話,顯然你能考到的最高總成績就達不到總分了,按剛纔那個思路就會獲得錯誤的結果。由於子問題並不獨立,語文數學成績沒法同時最優,因此最優子結構被破壞。關注個人衆公號 labuladong 看更多精彩算法文章
回到湊零錢問題,顯然子問題之間沒有相互制約,而是互相獨立的。因此這個狀態轉移方程是能夠獲得正確答案的。
以後就沒啥難點了,按照方程寫暴力遞歸算法便可。
int coinChange(vector<int>& coins, int amount) {
if (amount == 0) return 0;
int ans = INT_MAX;
for (int coin : coins) {
// 金額不可達
if (amount - coin < 0) continue;
int subProb = coinChange(coins, amount - coin);
// 子問題無解
if (subProb == -1) continue;
ans = min(ans, subProb + 1);
}
return ans == INT_MAX ? -1 : ans;
}
複製代碼
畫出遞歸樹:
時間複雜度分析:子問題總數 x 每一個子問題的時間。子問題總數爲遞歸樹節點個數,這個比較難看出來,是 O(n^k),總之是指數級別的。每一個子問題中含有一個 for 循環,複雜度爲 O(k)。因此總時間複雜度爲 O(k*n^k),指數級別。
2、帶備忘錄的遞歸算法
int coinChange(vector<int>& coins, int amount) {
// 備忘錄初始化爲 -2
vector<int> memo(amount + 1, -2);
return helper(coins, amount, memo);
}
int helper(vector<int>& coins, int amount, vector<int>& memo) {
if (amount == 0) return 0;
if (memo[amount] != -2) return memo[amount];
int ans = INT_MAX;
for (int coin : coins) {
// 金額不可達
if (amount - coin < 0) continue;
int subProb = helper(coins, amount - coin, memo);
// 子問題無解
if (subProb == -1) continue;
ans = min(ans, subProb + 1);
}
// 記錄本輪答案
memo[amount] = (ans == INT_MAX) ? -1 : ans;
return memo[amount];
}
複製代碼
不畫圖了,很顯然「備忘錄」大大減少了子問題數目,徹底消除了子問題的冗餘,因此子問題總數不會超過金額數 n,即子問題數目爲 O(n)。處理一個子問題的時間不變,還是 O(k),因此總的時間複雜度是 O(kn)。
3、動態規劃
int coinChange(vector<int>& coins, int amount) {
vector<int> dp(amount + 1, amount + 1);
dp[0] = 0;
for (int i = 1; i <= amount; i++) {
for (int coin : coins)
if (coin <= i)
dp[i] = min(dp[i], dp[i - coin] + 1);
}
return dp[amount] > amount ? -1 : dp[amount];
}
複製代碼
最後總結 若是你不太瞭解動態規劃,還能看到這裏,真得給你鼓掌,相信你已經掌握了這個算法的設計技巧。
計算機解決問題其實沒有任何奇技淫巧,它惟一的解決辦法就是窮舉,窮舉全部可能性。算法設計無非就是先思考「如何窮舉」,而後再追求「如何聰明地窮舉」。
列出動態轉移方程,就是在解決「如何窮舉」的問題。之因此說它難,一是由於不少窮舉須要遞歸實現,二是由於有的問題自己的解空間複雜,不那麼容易窮舉完整。
備忘錄、DP table 就是在追求「如何聰明地窮舉」。用空間換時間的思路,是下降時間複雜度的不二法門,除此以外,試問,還能玩出啥花活?
可是智力題終究是智力題,真正的算法問題確定不會是投機取巧能搞定的。因此,本文就借石頭遊戲來說講「假設兩我的都足夠聰明,最後誰會獲勝」這一類問題該如何用動態規劃算法解決。
博弈類問題的套路都差很少,下文舉例講解,其核心思路是在二維 dp 的基礎上使用元組分別存儲兩我的的博弈結果。掌握了這個技巧之後,別人再問你什麼倆海盜分寶石,倆人拿硬幣的問題,你就告訴別人:我懶得想,直接給你寫個算法算一下得了。
咱們「石頭遊戲」改的更具備通常性:
你和你的朋友面前有一排石頭堆,用一個數組 piles 表示,piles[i] 表示第 i 堆石子有多少個。大家輪流拿石頭,一次拿一堆,可是隻能拿走最左邊或者最右邊的石頭堆。全部石頭被拿完後,誰擁有的石頭多,誰獲勝。
石頭的堆數能夠是任意正整數,石頭的總數也能夠是任意正整數,這樣就能打破先手必勝的局面了。好比有三堆石頭 piles = [1, 100, 3],先手無論拿 1 仍是 3,可以決定勝負的 100 都會被後手拿走,後手會獲勝。
假設兩人都很聰明,請你設計一個算法,返回先手和後手的最後得分(石頭總數)之差。好比上面那個例子,先手能得到 4 分,後手會得到 100 分,你的算法應該返回 -96。
這樣推廣以後,這個問題算是一道 Hard 的動態規劃問題了。博弈問題的難點在於,兩我的要輪流進行選擇,並且都賊精明,應該如何編程表示這個過程呢?
仍是強調屢次的套路,首先明確 dp 數組的含義,而後和股票買賣系列問題相似,只要找到「狀態」和「選擇」,一切就水到渠成了。
定義 dp 數組的含義是頗有技術含量的,同一問題可能有多種定義方法,不一樣的定義會引出不一樣的狀態轉移方程,不過只要邏輯沒有問題,最終都能獲得相同的答案。
我建議不要迷戀那些看起來很牛逼,代碼很短小的奇技淫巧,最好是穩一點,採起可解釋性最好,最容易推廣的設計思路。本文就給出一種博弈問題的通用設計框架。
介紹 dp 數組的含義以前,咱們先看一下 dp 數組最終的樣子:
下文講解時,認爲元組是包含 first 和 second 屬性的一個類,並且爲了節省篇幅,將這兩個屬性簡寫爲 fir 和 sec。好比按上圖的數據,咱們說 dp[1][3].fir = 10,dp[0][1].sec = 3。
先回答幾個讀者可能提出的問題:
這個二維 dp table 中存儲的是元組,怎麼編程表示呢?這個 dp table 有一半根本沒用上,怎麼優化?很簡單,都不要管,先把解題的思路想明白了再談也不遲。
如下是對 dp 數組含義的解釋:
dp[i][j].fir 表示,對於 piles[i...j] 這部分石頭堆,先手能得到的最高分數。
dp[i][j].sec 表示,對於 piles[i...j] 這部分石頭堆,後手能得到的最高分數。
舉例理解一下,假設 piles = [3, 9, 1, 2],索引從 0 開始
dp[0][1].fir = 9 意味着:面對石頭堆 [3, 9],先手最終可以得到 9 分。
dp[1][3].sec = 2 意味着:面對石頭堆 [9, 1, 2],後手最終可以得到 2 分。
複製代碼
咱們想求的答案是先手和後手最終分數之差,按照這個定義也就是 dp[0][n-1].fir - dp[0][n-1].secdp[0][n−1].fir−dp[0][n−1].sec,即面對整個 piles,先手的最優得分和後手的最優得分之差。
寫狀態轉移方程很簡單,首先要找到全部「狀態」和每一個狀態能夠作的「選擇」,而後擇優。
根據前面對 dp 數組的定義,狀態顯然有三個:開始的索引 i,結束的索引 j,當前輪到的人。
dp[i][j][fir or sec]
其中:
0 <= i < piles.length
i <= j < piles.length
複製代碼
對於這個問題的每一個狀態,能夠作的選擇有兩個:選擇最左邊的那堆石頭,或者選擇最右邊的那堆石頭。 咱們能夠這樣窮舉全部狀態:
n = piles.length
for 0 <= i < n:
for j <= i < n:
for who in {fir, sec}:
dp[i][j][who] = max(left, right)
複製代碼
上面的僞碼是動態規劃的一個大體的框架,股票系列問題中也有相似的僞碼。這道題的難點在於,兩人是交替進行選擇的,也就是說先手的選擇會對後手有影響,這怎麼表達出來呢?
根據咱們對 dp 數組的定義,很容易解決這個難點,寫出狀態轉移方程:
dp[i][j].fir = max(piles[i] + dp[i+1][j].sec, piles[j] + dp[i][j-1].sec)
dp[i][j].fir = max(選擇最左邊的石頭堆, 選擇最右邊的石頭堆)
# 解釋:我做爲先手,面對 piles[i...j] 時,有兩種選擇:
# 要麼我選擇最左邊的那一堆石頭,而後面對 piles[i+1...j]
# 可是此時輪到對方,至關於我變成了後手;
# 要麼我選擇最右邊的那一堆石頭,而後面對 piles[i...j-1]
# 可是此時輪到對方,至關於我變成了後手。
if 先手選擇左邊:
dp[i][j].sec = dp[i+1][j].fir
if 先手選擇右邊:
dp[i][j].sec = dp[i][j-1].fir
# 解釋:我做爲後手,要等先手先選擇,有兩種狀況:
# 若是先手選擇了最左邊那堆,給我剩下了 piles[i+1...j]
# 此時輪到我,我變成了先手;
# 若是先手選擇了最右邊那堆,給我剩下了 piles[i...j-1]
# 此時輪到我,我變成了先手。
複製代碼
根據 dp 數組的定義,咱們也能夠找出 base case,也就是最簡單的狀況:
dp[i][j].fir = piles[i]
dp[i][j].sec = 0
其中 0 <= i == j < n
# 解釋:i 和 j 相等就是說面前只有一堆石頭 piles[i]
# 那麼顯然先手的得分爲 piles[i]
# 後手沒有石頭拿了,得分爲 0
複製代碼
這裏須要注意一點,咱們發現 base case 是斜着的,並且咱們推算 dp[i][j] 時須要用到 dp[i+1][j] 和 dp[i][j-1]:
因此說算法不能簡單的一行一行遍歷 dp 數組,而要斜着遍歷數組:
說實話,斜着遍歷二維數組提及來容易,你還真不必定能想出來怎麼實現,不信你思考一下?這麼巧妙的狀態轉移方程都列出來了,要是不會寫代碼實現,那真的很尷尬了。。。
如何實現這個 fir 和 sec 元組呢,你能夠用 python,自帶元組類型;或者使用 C++ 的 pair 容器;或者用一個三維數組 dp[n][n][2],最後一個維度就至關於元組;或者咱們本身寫一個 Pair 類:
class Pair {
int fir, sec;
Pair(int fir, int sec) {
this.fir = fir;
this.sec = sec;
}
}
複製代碼
而後直接把咱們的狀態轉移方程翻譯成代碼便可,能夠注意一下斜着遍歷數組的技巧:
/* 返回遊戲最後先手和後手的得分之差 */
int stoneGame(int[] piles) {
int n = piles.length;
// 初始化 dp 數組
Pair[][] dp = new Pair[n][n];
for (int i = 0; i < n; i++)
for (int j = i; j < n; j++)
dp[i][j] = new Pair(0, 0);
// 填入 base case
for (int i = 0; i < n; i++) {
dp[i][i].fir = piles[i];
dp[i][i].sec = 0;
}
// 斜着遍歷數組
for (int l = 2; l <= n; l++) {
for (int i = 0; i <= n - l; i++) {
int j = l + i - 1;
// 先手選擇最左邊或最右邊的分數
int left = piles[i] + dp[i+1][j].sec;
int right = piles[j] + dp[i][j-1].sec;
// 套用狀態轉移方程
if (left > right) {
dp[i][j].fir = left;
dp[i][j].sec = dp[i+1][j].fir;
} else {
dp[i][j].fir = right;
dp[i][j].sec = dp[i][j-1].fir;
}
}
}
Pair res = dp[0][n-1];
return res.fir - res.sec;
}
複製代碼
動態規劃解法,若是沒有狀態轉移方程指導,絕對是一頭霧水,可是根據前面的詳細解釋,讀者應該能夠清晰理解這一大段代碼的含義。
並且,注意到計算 dp[i][j] 只依賴其左邊和下邊的元素,因此說確定有優化空間,轉換成一維 dp,想象一下把二維平面壓扁,也就是投影到一維。可是,一維 dp 比較複雜,可解釋性不好,你們就沒必要浪費這個時間去理解了。
本文給出瞭解決博弈問題的動態規劃解法。博弈問題的前提通常都是在兩個聰明人之間進行,編程描述這種遊戲的通常方法是二維 dp 數組,數組中經過元組分別表示兩人的最優決策。
之因此這樣設計,是由於先手在作出選擇以後,就成了後手,後手在對方作完選擇後,就變成了先手。這種角色轉換使得咱們能夠重用以前的結果,典型的動態規劃標誌。
讀到這裏的朋友應該能理解算法解決博弈問題的套路了。學習算法,必定要注重算法的模板框架,而不是一些看起來牛逼的思路,也不要奢求上來就寫一個最優的解法。不要捨不得多用空間,不要過早嘗試優化,不要害怕多維數組。dp 數組就是存儲信息避免重複計算的,隨便用,直到咱滿意爲止。
瞭解了動態規劃的套路,也不會寫狀態轉移方程,沒有思路,怎麼辦?本文就藉助「最長遞增子序列」來說一種設計動態規劃的通用技巧:數學概括思想。
最長遞增子序列(Longest Increasing Subsequence,簡寫 LIS)是比較經典的一個問題,比較容易想到的是動態規劃解法,時間複雜度 O(N^2),咱們借這個問題來由淺入深講解如何寫動態規劃。比較難想到的是利用二分查找,時間複雜度是 O(NlogN),咱們經過一種簡單的紙牌遊戲來輔助理解這種巧妙的解法。
先看一下題目,很容易理解:
注意「子序列」和「子串」這兩個名詞的區別,子串必定是連續的,而子序列不必定是連續的。下面先來一步一步設計動態規劃算法解決這個問題。
動態規劃解法 動態規劃的核心設計思想是數學概括法。
相信你們對數學概括法都不陌生,高中就學過,並且思路很簡單。好比咱們想證實一個數學結論,那麼咱們先假設這個結論在 k<nk<n 時成立,而後想辦法證實 k=nk=n 的時候此結論也成立。若是可以證實出來,那麼就說明這個結論對於 k 等於任何數都成立。
相似的,咱們設計動態規劃算法,不是須要一個 dp 數組嗎?咱們能夠假設 dp[0...i-1]dp[0...i−1] 都已經被算出來了,而後問本身:怎麼經過這些結果算出 dp[i]?
直接拿最長遞增子序列這個問題舉例你就明白了。不過,首先要定義清楚 dp 數組的含義,即 dp[i] 的值到底表明着什麼?
咱們的定義是這樣的:dp[i] 表示以 nums[i] 這個數結尾的最長遞增子序列的長度。
舉兩個例子:
算法演進的過程是這樣的,:
根據這個定義,咱們的最終結果(子序列的最大長度)應該是 dp 數組中的最大值。
int res = 0;
for (int i = 0; i < dp.size(); i++) {
res = Math.max(res, dp[i]);
}
return res;
複製代碼
讀者也許會問,剛纔這個過程當中每一個 dp[i] 的結果是咱們肉眼看出來的,咱們應該怎麼設計算法邏輯來正確計算每一個 dp[i] 呢?
這就是動態規劃的重頭戲了,要思考如何進行狀態轉移,這裏就可使用數學概括的思想:
咱們已經知道了 dp[0...4]dp[0...4] 的全部結果,咱們如何經過這些已知結果推出 dp[5]dp[5] 呢?
根據剛纔咱們對 dp 數組的定義,如今想求 dp[5] 的值,也就是想求以 nums[5] 爲結尾的最長遞增子序列。
nums[5] = 3,既然是遞增子序列,咱們只要找到前面那些結尾比 3 小的子序列,而後把 3 接到最後,就能夠造成一個新的遞增子序列,並且這個新的子序列長度加一。
固然,可能造成不少種新的子序列,可是咱們只要最長的,把最長子序列的長度做爲 dp[5] 的值便可。
for (int j = 0; j < i; j++) {
if (nums[i] > nums[j])
dp[i] = Math.max(dp[i], dp[j] + 1);
}
複製代碼
這段代碼的邏輯就能夠算出 dp[5]。到這裏,這道算法題咱們就基本作完了。讀者也許會問,咱們剛纔只是算了 dp[5] 呀,dp[4], dp[3] 這些怎麼算呢?
相似數學概括法,你已經能夠算出 dp[5] 了,其餘的就均可以算出來:
for (int i = 0; i < nums.length; i++) {
for (int j = 0; j < i; j++) {
if (nums[i] > nums[j])
dp[i] = Math.max(dp[i], dp[j] + 1);
}
}
複製代碼
還有一個細節問題,dp 數組應該所有初始化爲 1,由於子序列最少也要包含本身,因此長度最小爲 1。下面咱們看一下完整代碼:
public int lengthOfLIS(int[] nums) {
int[] dp = new int[nums.length];
// dp 數組全都初始化爲 1
Arrays.fill(dp, 1);
for (int i = 0; i < nums.length; i++) {
for (int j = 0; j < i; j++) {
if (nums[i] > nums[j])
dp[i] = Math.max(dp[i], dp[j] + 1);
}
}
int res = 0;
for (int i = 0; i < dp.length; i++) {
res = Math.max(res, dp[i]);
}
return res;
}
複製代碼
至此,這道題就解決了,時間複雜度 O(N^2)。總結一下動態規劃的設計流程:
首先明確 dp 數組所存數據的含義。這步很重要,若是不得當或者不夠清晰,會阻礙以後的步驟。
而後根據 dp 數組的定義,運用數學概括法的思想,假設 dp[0...i-1]dp[0...i−1] 都已知,想辦法求出 dp[i]dp[i],一旦這一步完成,整個題目基本就解決了。
但若是沒法完成這一步,極可能就是 dp 數組的定義不夠恰當,須要從新定義 dp 數組的含義;或者多是 dp 數組存儲的信息還不夠,不足以推出下一步的答案,須要把 dp 數組擴大成二維數組甚至三維數組。
最後想想問題的 base case 是什麼,以此來初始化 dp 數組,以保證算法正確運行。
此篇博客爲轉載總結,爲了更加深刻理解動態規劃。 感謝原做者,如下爲連接。