哈希排序——Top-K算法

百度面試題: 面試

    搜索引擎會經過日誌文件把用戶每次檢索使用的全部檢索串都記錄下來,每一個查詢串的長度爲1-255字節。 算法

    假設目前有一千萬個記錄(這些查詢串的重複度比較高,雖然總數是1千萬,但若是除去重複後,不超過3百萬個。一個查詢串的重複度越高,說明查詢它的用戶越多,也就是越熱門。),請你統計最熱門的10個查詢串,要求使用的內存不能超過1G 數組

什麼是哈希表? 數據結構

    哈希表(Hash table,也叫散列表),是根據關鍵碼值(Key value)而直接進行訪問的數據結構。也就是說,它經過把關鍵碼值映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫作散列函數,存放記錄的數組叫作散列表。 函數

 

    哈希表的作法其實很簡單,就是把Key經過一個固定的算法函數既所謂的哈希函數轉換成一個整型數字,而後就將該數字對數組長度進行取餘,取餘結果就看成數組的下標,將value存儲在以該數字爲下標的數組空間裏。 優化

問題解析: 搜索引擎

此問題的解決分爲如下倆個步驟: spa

第一步:統計每一個Query出現的次數。 日誌

   Query統計有如下倆個方法,可供選擇: 排序

    一、直接排序法

    首先咱們最早想到的的算法就是排序了,首先對這個日誌裏面的全部Query都進行排序,而後再遍歷排好序的Query,統計每一個Query出現的次數了。

    可是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是225Byte,很顯然要佔據2.55G內存,這個條件就不知足要求了。

 

   讓咱們回憶一下數據結構課程上的內容,當數據量比較大並且內存沒法裝下的時候,咱們能夠採用外排序的方法來進行排序,這裏咱們能夠採用歸併排序,由於歸併排序有一個比較好的時間複雜度O(NlgN)。

    排完序以後咱們再對已經有序的Query文件進行遍歷,統計每一個Query出現的次數,再次寫入文件中。

    綜合分析一下,排序的時間複雜度是O(NlgN),而遍歷的時間複雜度是O(N),所以該算法的整體時間複雜度就是O(N+NlgN)=O(NlgN)。

    二、Hash Table法

    在第1個方法中,咱們採用了排序的辦法來統計每一個Query出現的次數,時間複雜度是NlgN,那麼能不能有更好的方法來存儲,而時間複雜度更低呢?

    題目中說明了,雖然有一千萬個Query,可是因爲重複度比較高,所以事實上只有300萬的Query,每一個Query255Byte,所以咱們能夠考慮把他們都放進內存中去,而如今只是須要一個合適的數據結構,在這裏,Hash Table絕對是咱們優先的選擇,由於Hash Table的查詢速度很是的快,幾乎是O(1)的時間複雜度。

    那麼,咱們的算法就有了:維護一個Key爲Query字串,Value爲該Query出現次數的HashTable,每次讀取一個Query,若是該字串不在Table中,那麼加入該字串,而且將Value值設爲1;若是該字串在Table中,那麼將該字串的計數加一便可。最終咱們在O(N)的時間複雜度內完成了對該海量數據的處理。

    本方法相比算法1:在時間複雜度上提升了一個數量級,爲O(N),但不只僅是時間複雜度上的優化,該方法只須要IO數據文件一次,而算法1的IO次數較多的,所以該算法2比算法1在工程上有更好的可操做性。

第二步:根據統計結果,找出Top 10

    算法一:普通排序

    我想對於排序算法你們都已經不陌生了,這裏不在贅述,咱們要注意的是排序算法的時間複雜度是NlgN,在本題目中,三百萬條記錄,用1G內存是能夠存下的。

    算法二:部分排序

    題目要求是求出Top 10,所以咱們沒有必要對全部的Query都進行排序,咱們只須要維護一個10個大小的數組,初始化放入10個Query,按照每一個Query的統計次數由大到小排序,而後遍歷這300萬條記錄,每讀一條記錄就和數組最後一個Query對比,若是小於這個Query,那麼繼續遍歷,不然,將數組中最後一條數據淘汰,加入當前的Query。最後當全部的數據都遍歷完畢以後,那麼這個數組中的10個Query即是咱們要找的Top10了。

    不難分析出,這樣,算法的最壞時間複雜度是N*K, 其中K是指top多少。

    算法三:堆

    在算法二中,咱們已經將時間複雜度由NlogN優化到NK,不得不說這是一個比較大的改進了,但是有沒有更好的辦法呢?

    分析一下,在算法二中,每次比較完成以後,須要的操做複雜度都是K,由於要把元素插入到一個線性表之中,並且採用的是順序比較。這裏咱們注意一下,該數組是有序的,一次咱們每次查找的時候能夠採用二分的方法查找,這樣操做的複雜度就降到了logK,但是,隨之而來的問題就是數據移動,由於移動數據次數增多了。不過,這個算法仍是比算法二有了改進。

    基於以上的分析,咱們想一想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?回答是確定的,那就是堆。

    藉助堆結構,咱們能夠在log量級的時間內查找和調整/移動。所以到這裏,咱們的算法能夠改進爲這樣,維護一個K(該題目中是10)大小的小根堆,而後遍歷300萬的Query,分別和根元素進行對比。

    思想與上述算法二一致,只是算法在算法三,咱們採用了最小堆這種數據結構代替數組,把查找目標元素的時間複雜度有O(K)降到了O(logK)。

    那麼這樣,採用堆數據結構,算法三,最終的時間複雜度就降到了N‘logK,和算法二相比,又有了比較大的改進。

總結:

    至此,算法就徹底結束了,通過上述第一步、先用Hash表統計每一個Query出現的次數,O(N);而後第二步、採用堆數據結構找出Top 10,N*O(logK)。因此,咱們最終的時間複雜度是:O(N) + N'*O(logK)。(N爲1000萬,N’爲300萬)。若是各位有什麼更好的算法,歡迎留言評論。第一部分,完。

相關文章
相關標籤/搜索