網站每日PV/IP統計/總帶寬/URL統計腳本分享(依據網站訪問日誌)

 

在平時的運維工做中,咱們運維人員須要清楚本身網站天天的總訪問量、總帶寬、ip統計和url統計等。
雖然網站已經在服務商那裏作了CDN加速,因此網站流量壓力都在前方CDN層了
像每日PV,帶寬,ip統計等數據也均可以在他們後臺裏查看到的。nginx

======================================================================
經過下面的方法,能夠快速根據子網掩碼算出它的掩碼位:web

子網掩碼            掩碼位
255.255.255.0       24位    (最後一個數是0,則256-0=256=2^8,一共32位,則該掩碼位是32-8=24)
255.255.255.248     29位    (256-248=8=2^3,則該掩碼位是32-3=29)
255.255.255.224     27位    (256-224=32=2^5,則該掩碼位是32-5=27)
255.255.252.0       22位    (256-0=256=2^8,256-252=4=2^2,則該掩碼位是32-8-2=22位)
255.255.224.0       19位    (256-0=256=2^8,256-224=32=2^5,則該掩碼位是32-8-5=19位)
 
也能夠根據掩碼位快速算出它的子網掩碼
掩碼位    子網掩碼
28位      255.255.255.240  (32-28=4,2^4=16,256-16=240,則該子網掩碼爲255.255.255.240)
30位      255.255.255.252  (32-30=2,2^2=4,256-4=252,則該子網掩碼爲255.255.255.252)
21位      255.255.248.0    (32-21=11=3+8,2^3=8,256-8=248,2^8=256,256-256=0,則該子網掩碼爲255.255.248.0)
18位      255.255.192.0    (32-18=14=6+8,2^6=64,256-64=192,2^8=256,256-256=0,則該子網掩碼爲255.255.192.0)
11位      255.224.0.0      (32-11=21=5+8+8,2^5=32,256-32=224,2^8=256,256-256=0,2^8=256,256-256=0,則該子網掩碼爲255.224.0.0)
------------------------------------------------------------------------------------------------------------------------
192.168.10.8/16
192.168.8./16

172.16.50.5/24
172.16.51.7/24

以上兩組ip,其中:
第一組是同網段ip,由於子網掩碼是16,即255.255.0.0,前兩個是網絡地址,後兩個機器地址,只要前兩個數字相同就是同網段ip。
第一組不是同網段ip,由於子網掩碼是24,即255.255.255.0,前三個是網絡地址,後兩個機器地址,只要前三個數字不相同就不是同網段ip。

簡單來講:
不一樣網段的ip相互通訊,須要通過三層網絡。即三層網絡能夠跨多個衝突域,能夠組大型的網絡。
相同網段的ip相互通訊,通過大二層網絡。即二層網絡僅僅是同一個衝突域內,組網能力很是有限,通常只是小局域網

---------------------------------------------------------------------------------------------------------------------
在這裏,仍是分享一個很早前用到過的shell統計腳本,能夠結合crontab計劃任務,天天給你的郵箱發送一個統計報告~【前提是本機已安裝sendmail並啓動】
腳本統計了:
1)總訪問量
2)總帶寬
3)獨立訪客量
4)訪問IP統計
5)訪問url統計
6)來源統計
7)404統計
8)搜索引擎訪問統計(谷歌,百度)
9)搜索引擎來源統計(谷歌,百度)shell

[root@115r ~]# cat tongji.sh     //腳本以下bash

#!/bin/bash
log_path=/Data/logs/nginx/www.huanqiu.com/access.log
domain="huanqiu.com"
email="wangshibo@huanqiuc.com"
maketime=`date +%Y-%m-%d" "%H":"%M`
logdate=`date -d "yesterday" +%Y-%m-%d`
total_visit=`wc -l ${log_path} | awk '{print $1}'`
total_bandwidth=`awk -v total=0 '{total+=$10}END{print total/1024/1024}' ${log_path}`
total_unique=`awk '{ip[$1]++}END{print asort(ip)}' ${log_path}`
ip_pv=`awk '{ip[$1]++}END{for (k in ip){print ip[k],k}}' ${log_path} | sort -rn | head -20`
url_num=`awk '{url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
referer=`awk -v domain=$domain '$11 !~ /http:\/\/[^/]*'"$domain"'/{url[$11]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
notfound=`awk '$9 == 404 {url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
spider=`awk -F'"' '$6 ~ /Baiduspider/ {spider["baiduspider"]++} $6 ~ /Googlebot/ {spider["googlebot"]++}END{for (k in spider){print k,spider[k]}}' ${log_path}`
search=`awk -F'"' '$4 ~ /http:\/\/www\.baidu\.com/ {search["baidu_search"]++} $4 ~ /http:\/\/www\.google\.com/ {search["google_search"]++}END{for (k in search){print k,search[k]}}' ${log_path}`
echo -e "概況\n報告生成時間:${maketime}\n總訪問量:${total_visit}\n總帶寬:${total_bandwidth}M\n獨立訪客:${total_unique}\n\n訪問IP統計\n${ip_pv}\n\n訪問url統計\n${url_num}\n\n來源頁面統計\n${referer}\n\n404統計\n${notfound}\n\n蜘蛛統計\n${spider}\n\n搜索引擎來源統計\n${search}" | mail -s "$domain $logdate log statistics" ${email}

上述腳本可適用於其餘網站的統計。只須要修改上面腳本中的三個變量便可:
log_path
domain
email
把此腳本添加到計劃任務,就能夠天天接收到統計的數據了。網絡

執行上面的腳本,去wangshibo@huanqiu.com郵箱裏查看統計報告:
[root@115r ~]# sh tongji.sh 運維

[root@115r ~]#crontab -e
#天天凌晨按時統計一次
59 23 * * * /bin/bash -x /root/tongji.sh >/dev/null 2>&1dom

------------------------------------------------------------------------------------------------------------------------------
上面是單個url的統計狀況,若是時多個網站的訪問狀況(使用for do done語句作shell腳本),則腳本以下:
 
[root@web ~]# cat all_wang_access.sh
#!/bin/bash
for log_path in /data/nginx/logs/athena_access.log /data/nginx/logs/ehr_access.log /data/nginx/logs/im_access.log /data/nginx/logs/www_access.log /data/nginx/logs/zrx_access.log
 
do
 
domain=`echo $(echo ${log_path}|cut -d"_" -f1|awk -F"/" '{print $5}').wang.com`
email="shibo.wang@wang.com daiying.qi@wang.com nan.li@wang.com"
maketime=`date +%Y-%m-%d" "%H":"%M`
logdate=`date -d "yesterday" +%Y-%m-%d`
total_visit=`wc -l ${log_path} | awk '{print $1}'`
total_bandwidth=`awk -v total=0 '{total+=$10}END{print total/1024/1024}' ${log_path}`
total_unique=`awk '{ip[$1]++}END{print asort(ip)}' ${log_path}`
ip_pv=`awk '{ip[$1]++}END{for (k in ip){print ip[k],k}}' ${log_path} | sort -rn | head -20`
url_num=`awk '{url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
referer=`awk -v domain=$domain '$11 !~ /http:\/\/[^/]*'"$domain"'/{url[$11]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
notfound=`awk '$9 == 404 {url[$7]++}END{for (k in url){print url[k],k}}' ${log_path} | sort -rn | head -20`
spider=`awk -F'"' '$6 ~ /Baiduspider/ {spider["baiduspider"]++} $6 ~ /Googlebot/ {spider["googlebot"]++}END{for (k in spider){print k,spider[k]}}' ${log_path}`
search=`awk -F'"' '$4 ~ /http:\/\/www\.baidu\.com/ {search["baidu_search"]++} $4 ~ /http:\/\/www\.google\.com/ {search["google_search"]++}END{for (k in search){print k,search[k]}}' ${log_path}`
 
echo -e "-----------------------------------$domain訪問概況-----------------------------------\n報告生成時間:${maketime}\n總訪問量:${total_visit}\n總帶寬:${total_bandwidth}M\n獨立訪客:${total_unique}\n\n訪問IP統計\n${ip_pv}\n\n訪問url統計\n${url_num}\n\n來源頁面統計\n${referer}\n\n404統計\n${notfound}\n\n蜘蛛統計\n${spider}\n\n搜索引擎來源統計\n${search}" | mail -s "$domain $logdate log statistics" ${email}
 
done
 
使用crontab作定時任務
[root@web ~]# crontab -l
#網站訪問狀況統計
50 23 * * * /bin/bash -x /opt/wang.com_access/all_wang_access.sh > /dev/null 2>&1
相關文章
相關標籤/搜索