者:碼農面試
問題描述:算法
這是在網上找到的一道百度的面試題:數組
搜索引擎會經過日誌文件把用戶每次檢索使用的全部檢索串都記錄下來,每一個查詢串的長度爲1-255字節。假設目前有一千萬個記錄,這些查詢串的重複度比較 高,雖然總數是1千萬,但若是除去重複後,不超過3百萬個。一個查詢串的重複度越高,說明查詢它的用戶越多,也就是越熱門。請你統計最熱門的10個查詢 串,要求使用的內存不能超過1G。數據結構
問題解析:優化
【分析】:要統計最熱門查詢,首先就是要統計每一個Query出現的次數,而後根據統計結果,找出Top 10。因此咱們能夠基於這個思路分兩步來設計該算法。下面分別給出這兩步的算法:搜索引擎
第一步:Query統計設計
算法一:直接排序法日誌
首先咱們能想到的算法就是排序了,首先對這個日誌裏面的全部Query都進行排序,而後再遍歷排好序的Query,統計每一個Query出現的次數了。但 是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是225Byte,很顯然要佔據2.55G內存,這個條件就不知足要求了。排序
讓咱們回憶一下數據結構課程上的內容,當數據量比較大並且內存沒法裝下的時候,咱們能夠採用外排序的方法來進行排序,這裏筆者採用歸併排序,是由於歸併排序有一個比較好的時間複雜度O(NlgN)。索引
排完序以後咱們再對已經有序的Query文件進行遍歷,統計每一個Query出現的次數,再次寫入文件中。
綜合分析一下,排序的時間複雜度是O(NlgN),而遍歷的時間複雜度是O(N),所以該算法的整體時間複雜度就是O(NlgN)。
算法二:Hash Table法
在上個方法中,咱們採用了排序的辦法來統計每一個Query出現的次數,時間複雜度是NlgN,那麼能不能有更好的方法來存儲,而時間複雜度更低呢?
題目中說明了,雖然有一千萬個Query,可是因爲重複度比較高,所以事實上只有300萬的Query,每一個Query255Byte,所以咱們能夠考慮 把他們都放進內存中去,而如今只是須要一個合適的數據結構,在這裏,Hash Table絕對是咱們優先的選擇,由於Hash Table的查詢速度很是的快,幾乎是O(1)的時間複雜度。
那麼,咱們的算法就有了:維護一個Key爲Query字串,Value爲該Query出現次數的HashTable,每次讀取一個Query,若是該字串 不在Table中,那麼加入該字串,而且將Value值設爲1;若是該字串在Table中,那麼將該字串的計數加一便可。最終咱們在O(N)的時間複雜度 內完成了對該海量數據的處理。
本方法相比算法一:在時間複雜度上提升了一個數量級,但不單單是時間複雜度上的優化,該方法只須要IO數據文件一次,而算法一的IO次數較多的,所以該算法比算法一在工程上有更好的可操做性。
第二步:找出Top 10
算法一:排序
我想對於排序算法你們都已經不陌生了,這裏不在贅述,咱們要注意的是排序算法的時間複雜度是NlgN,在本題目中,三百萬條記錄,用1G內存是能夠存下的。
算法二:部分排序
題目要求是求出Top 10,所以咱們沒有必要對全部的Query都進行排序,咱們只須要維護一個10個大小的數組,初始化放入10Query,按照每一個Query的統計次數由 大到小排序,而後遍歷這300萬條記錄,每讀一條記錄就和數組最後一個Query對比,若是小於這個Query,那麼繼續遍歷,不然,將數組中最後一條數 據淘汰,加入當前的Query。最後當全部的數據都遍歷完畢以後,那麼這個數組中的10個Query即是咱們要找的Top10了。
不難分析出,這樣的算法的時間複雜度是N*K, 其中K是指top多少。
算法三:堆
在算法二中,咱們已經將時間複雜度由
NlogN優化到NK,不得不說這是一個比較大的改進了,但是有沒有更好的辦法呢?
分析一下,在算法二中,每次比較完成以後,須要的操做複雜度都是K,由於要把元素插入到一個線性表之中,並且採用的是順序比較。這裏咱們注意一下,該數組 是有序的,一次咱們每次查找的時候能夠採用二分的方法查找,這樣操做的複雜度就降到了logK,但是,隨之而來的問題就是數據移動,由於移動數據次數增多 了。不過,這個算法仍是比算法二有了改進。
基於以上的分析,咱們想一想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?回答是確定的,那就是堆。
藉助堆結構,咱們能夠在log量級的時間內查找和調整/移動。所以到這裏,咱們的算法能夠改進爲這樣,維護一個K(該題目中是10)大小的小根堆,而後遍歷300萬的Query,分別和根元素進行對比。。。
那麼這樣,這個算法發時間複雜度就降到了NlogK,和算法而相比,又有了比較大的改進。
結語:
至此,咱們的算法就徹底結束了,通過步驟一和步驟二的最優結合,咱們最終的時間複雜度是O(N) + O(N')logK。若是各位有什麼好的算法,歡迎跟帖討論。