記錄幾條博主常用的日誌分析命令,固然,如今博主都使用hadoop來進行分析了。不過命令仍是留個記錄,備用!apache
1.根據訪問IP統計UVless
awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |wc -loop
2.統計訪問URL統計PVurl
awk '{print $7}' access.log|wc -l日誌
awk '{print $7}' localhost_access_log.2018-01-09.txt|wc -l進程
3.查詢訪問最頻繁的URLip
awk '{print $7}' localhost_access_log.2018-01-09.txt| uniq -c |sort -n -k 1 -r|morehadoop
4.查詢訪問最頻繁的IPawk
awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |sort -n -k 1 -r|moresed
5.根據時間段統計查看日誌
cat access.log| sed -n '/14\/Mar\/2015:21/,/14\/Mar\/2015:22/p'|more
6.每秒訪問數
cut -d ' ' -f 4 localhost_access_log.2016-05-23.txt|sort|uniq -c
7.每分訪問數
cut -d : -f 2-3 localhost_access_log.2018-01-09.txt|sort|uniq -c
8查看apache的進程數
ps -aux | grep httpd | wc -l
9.分析日誌查看當天的ip鏈接數
cat default-access_log | grep "10/Dec/2010" | awk '{print $2}' | sort | uniq -c | sort -nr
10.查看指定的ip在當天究竟訪問了什麼url
cat default-access_log | grep "10/Dec/2010" | grep "218.19.140.242" | awk '{print $7}' | sort | uniq -c | sort -nr
11.查看當天訪問排行前10的url
cat localhost_access_log.2018-01-09.txt | grep "09/Jan/2018" | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10
12.看到指定的ip究竟幹了什麼
cat default-access_log | grep 218.19.140.242 | awk '{print $1"\t"$8}' | sort | uniq -c | sort -nr | less
13.查看訪問次數最多的幾個分鐘(找到熱點)
awk '{print $4}' default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head