經常使用tomcat、nginx日誌分析命令

記錄幾條博主常用的日誌分析命令,固然,如今博主都使用hadoop來進行分析了。不過命令仍是留個記錄,備用!apache

 

1.根據訪問IP統計UVless

awk '{print $1}'  localhost_access_log.2018-01-09.txt|sort | uniq -c |wc -loop

2.統計訪問URL統計PVurl

awk '{print $7}' access.log|wc -l日誌

awk '{print $7}' localhost_access_log.2018-01-09.txt|wc -l進程

3.查詢訪問最頻繁的URLip

awk '{print $7}' localhost_access_log.2018-01-09.txt| uniq -c |sort -n -k 1 -r|morehadoop


4.查詢訪問最頻繁的IPawk

awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |sort -n -k 1 -r|moresed

5.根據時間段統計查看日誌

cat  access.log| sed -n '/14\/Mar\/2015:21/,/14\/Mar\/2015:22/p'|more

6.每秒訪問數

cut -d ' ' -f 4 localhost_access_log.2016-05-23.txt|sort|uniq -c

7.每分訪問數

cut -d : -f 2-3 localhost_access_log.2018-01-09.txt|sort|uniq -c

8查看apache的進程數 

ps -aux | grep httpd | wc -l 

9.分析日誌查看當天的ip鏈接數 

cat default-access_log | grep "10/Dec/2010" | awk '{print $2}' | sort | uniq -c | sort -nr 

10.查看指定的ip在當天究竟訪問了什麼url 

cat default-access_log | grep "10/Dec/2010" | grep "218.19.140.242" | awk '{print $7}' | sort | uniq -c | sort -nr 

11.查看當天訪問排行前10的url 

cat localhost_access_log.2018-01-09.txt | grep "09/Jan/2018" | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10 

12.看到指定的ip究竟幹了什麼 

cat default-access_log | grep 218.19.140.242 | awk '{print $1"\t"$8}' | sort | uniq -c | sort -nr | less 

13.查看訪問次數最多的幾個分鐘(找到熱點) 

awk '{print $4}' default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head

相關文章
相關標籤/搜索