linux實用的日誌分析腳本

 日誌分析apache

隨意的tail一個access_log文件,下面是一條經典的訪問記錄less

218.19.140.242 – - [10/Dec/2010:09:31:17 +0800] 「GET /query/trendxml/district/todayreturn/month/2009-12-14/2010-12-09/haizhu_tianhe.xml HTTP/1.1″ 200 1933 「-」 「Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.8) Gecko/20100722 Firefox/3.6.8 (.NET CLR 3.5.30729)」ide

實用的日誌分析腳本
瞭解日誌的各類定義後,這裏分享一下從網上淘來的一些對日誌分析的腳本
url

1.查看apache的進程數
ps -aux | grep httpd | wc -l
spa

2.分析日誌查看當天的ip鏈接數
cat default-access_log | grep 「10/Dec/2010″ | awk ‘{print $2}’ | sort | uniq -c | sort -nr
日誌

3.查看指定的ip在當天究竟訪問了什麼url
cat default-access_log | grep 「10/Dec/2010″ | grep 「218.19.140.242″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr
xml

4.查看當天訪問排行前10的url
cat default-access_log | grep 「10/Dec/2010″ | awk ‘{print $7}’ | sort | uniq -c | sort -nr | head -n 10
進程

5.看到指定的ip究竟幹了什麼
cat default-access_log | grep 218.19.140.242 | awk ‘{print $1″\t」$8}’ | sort | uniq -c | sort -nr | less
ip

6.查看訪問次數最多的幾個分鐘(找到熱點)
awk ‘{print $4}’ default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head
it

相關文章
相關標籤/搜索