是這樣的,如今須要對nginx的access.log進行按照每小時進行分割,而且最好還要可以以 「日期+時間」的形式,命名保存。nginx
兩點,一個是按照每小時進行分割,一個是將日誌以「日期+時間」的形式進行保存。bash
1.將日誌按照每小時進行分割:3d
利用crontab日誌
輸入crontab -e,手動添加一個定時任務blog
0 */1 * * * /bin/bash /root/tools/log_per_hour.shcrontab
那麼這種是我最終須要的,是在每一個整點都執行寫好的log_per_hour腳本。定時任務
確定有一些大兄弟須要的是「從如今開始每隔一個小時進行執行」,這個時候的crontab定時任務應該這麼寫:im
*/60 * * * * /bin/bash /root/tools/log_per_hour.sh命名
是「每隔60分鐘執行一次」,這樣會從任務生效時開始計算間隔。腳本
2.將日誌以「日期+時間」的形式進行保存:
其中,爲了保證可以及時發現若是文件或者目錄異常,中間作了條件斷定。
而且爲了讓最後的access.log文件可以自動從新生成(等因而以前每一個小時的都已經分割好了,nginx重載以後日誌文件會從新生成並記錄,這樣就避免到時候把文件mv了以後,原先運行的nginx日誌沒地方寫入尷尬的境地)
運行了兩天,看一下成果~
小百萬的訪問量,每一個日誌仍是很大~
下一步得要作威脅分析,進一步挖掘日誌中的內容,祝我好運~