有一道校招生的面試題,是要給一個很大的文件(不能所有放內存,好比1T)按行來排序和去重。面試
一種簡單解決方案就是分而治之,先打大文件分詞大小均勻的若干個小文件,而後對小文件排好序,最後再Merge全部的小文件,在Merge的過程當中去掉重複的內容。shell
在Linux下實現這個邏輯甚至不用本身寫代碼,只要用shell內置的一些命令: split, sort就足夠了。咱們把這個流程用腳本串起來,寫到shell腳本文件裏。文件名叫sort_uniq.sh.bash
1 #!/bin/bash 2 lines=$(wc -l $1 | sed 's/ .*//g') 3 lines_per_file=`expr $lines / 20` 4 split -d -l $lines_per_file $1 __part_$1 5 6 for file in __part_* 7 do 8 { 9 sort $file > sort_$file 10 } & 11 done 12 wait 13 14 sort -smu sort_* > $2 15 rm -f __part_* 16 rm -f sort_*
使用方法:./sort_uniq.sh file_to_be_sort file_sortedspa
這段代碼把大文件分詞20或21個小文件,後臺並行排序各個小文件,最後合併結果並去重。code
若是隻要去重,不須要排序,還有另一種思路:對文件的每一行計算hash值,按照hash值把該行內容放到某個小文件中,假設須要分詞100個小文件,則能夠按照(hash % 100)來分發文件內容,而後在小文件中實現去重就能夠了。blog