Nginx Log日誌統計分析經常使用命令

1.Nginx訪問日誌中 按照ip請求次數統計命令(必備)

cat access.log |awk '{print $1}'|sort -nr |uniq -c |sort -nr |more
   2761 183.185.117.4
   1828 221.205.161.114
   1672 223.12.67.104
   1106 223.12.161.30
    951 183.185.112.241
    876 223.11.221.212
    795 223.11.15.195
    793 183.185.112.128

2.統計IP訪問量(獨立ip訪問數量)php

awk '{print $1}' access.log | sort -n | uniq | wc -l

3.查看某一時間段的IP訪問量(4-5點)nginx

grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l 

4.查看訪問最頻繁的前100個IP    (必備)ruby

awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100 

5.查看訪問100次以上的IPbash

awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn 

6.查詢某個IP的詳細訪問狀況,按訪問頻率排序服務器

grep '127.0.01' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100 

7.查看訪問最頻的頁面(TOP100)less

awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100 

8.查看訪問最頻的頁面([排除php頁面】(TOP100)tcp

grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100 

9.查看頁面訪問次數超過100次的頁面ide

cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less 

10.查看最近1000條記錄,訪問量最高的頁面性能

tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less 

11.統計每秒的請求數,top100的時間點(精確到秒)網站

awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100' 

12.統計每分鐘的請求數,top100的時間點(精確到分鐘)

awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100 

13.統計每小時的請求數,top100的時間點(精確到小時)

awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100 

14.性能分析,在nginx log中最後一個字段加入$request_time

列出傳輸時間超過 3 秒的頁面,顯示前20條

cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20 

列出php頁面請求時間超過3秒的頁面,並統計其出現的次數,顯示前100條

cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100 

15.統計蜘蛛抓取次數

grep 'Baiduspider' access.log |wc -l 

16.統計蜘蛛抓取404的次數

grep 'Baiduspider' access.log |grep '404' | wc -l 

17.TCP鏈接統計,查看當前TCP鏈接數

netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l 

18.用tcpdump嗅探80端口的訪問看看誰最高

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort| uniq -c | sort -nr
 
實例腳本:
獲取前一分鐘nginx訪問日誌條數
#!/bin/bash
  
export LANG=C
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M")
  
grep "$TIME" /var/log/nginx/access.log | wc -l

獲取前一分鐘nginx錯誤日誌條數

#!/bin/bash
  
export LANG=C
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M")
  
grep "$TIME" /var/log/nginx/error.log | wc -l

查詢訪問最頻繁的IP 倒序排序列表

awk '{print $1}' access*.log|sort | uniq -c |sort -n -k 1 -r|more

根據時間段統計查看日誌
cat access.log| sed -n '/14\/Mar\/2015:21/,/14\/Mar\/2015:22/p'|more

 

三、每秒客戶端請求數 TOP5

awk  -F'[ []' '{print $5}' access.log|sort|uniq -c|sort -rn|head -5

四、訪問最頻繁IP Top5

awk '{print $1}' access.log|sort |uniq -c | sort -rn |head -5

五、訪問最頻繁的URL TOP5

awk '{print $7}' access.log|sort |uniq -c | sort -rn |head -5

六、響應大於10秒的URL TOP5

awk '{if ($12 > 10){print $7}}' access.log|sort|uniq -c|sort -rn |head -5

七、HTTP狀態碼(非200)統計 Top5

awk '{if ($13 != 200){print $13}}' access.log|sort|uniq -c|sort -rn|head -5

八、分析請求數大於50000的源IP的行爲

awk '{print $1}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt 
for i in $(cat tmp.txt) 
do
  echo $i  >> analysis.txt 
  echo "訪問行爲統計" >> analysis.txt 
  grep $i  access.log|awk '{print $6}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
  echo "訪問接口統計" >> analysis.txt 
  grep $i  access.log|awk '{print $7}' |sort |uniq -c | sort -rn |head -5 >> analysis.txt 
  echo -e "\n"  >> /root/analysis/$Ydate.txt 
done

注:若是源IP來自代理服務器,應將第一條命令過濾地址改成$http_x_forwarded_for地址
awk '{print $NF}' access.log|sort |uniq -c |sort -rn|awk '{if ($1 > 50000){print $2}}' > tmp.txt

4、延伸    Nginx日誌按日切割後可以使用上述命令得出每日網站流量分析概況,而後能夠寫一個Python腳本讀取後發送。也能夠將數據導入MySQL而後使用Python繪製曲線。固然使用日誌分析系統,如ELK,效果更佳。

netstat -ntu | awk ‘{print $5}’ | cut -d: -f1 | sort | uniq -c | sort -n  執行後,將會顯示服務器上全部的每一個IP多少個鏈接數。 
相關文章
相關標籤/搜索