案例1:使用awk提取文本 案例2:awk處理條件 案例3:awk綜合腳本應用 案例4:awk流程控制 案例5:awk擴展應用
1 案例1:使用awk提取文本
1.1 問題mysql
本案例要求使用awk工具完成下列過濾任務:nginx
練習awk工具的基本用法 提取本機的網卡流量、根分區剩餘容量、獲取SSH遠程失敗的IP地址 格式化輸出/etc/passwd文件中的用戶名、UID、宿主目錄信息
1.2 步驟sql
實現此案例須要按照以下步驟進行。數組
步驟一:awk文本過濾的基本用法bash
1)基本操做方法網絡
格式:awk [選項] '[條件]{指令}' 文件dom
其中,print 是最經常使用的編輯指令;如有多條編輯指令,可用分號分隔。ide
Awk過濾數據時支持僅打印某一列,如第2列、第5列等。工具
處理文本時,若未指定分隔符,則默認將空格、製表符等做爲分隔符。測試
直接過濾文件內容:
[root@svr5 ~]# cat test.txt hello the world welcome to beijing [root@svr5 ~]# awk '{print $1,$3}' test.txt //打印文檔第1列和第3列 hello world welcome beijing
結合管道過濾命令輸出:
[root@svr5 ~]# df -h | awk '{print $4}' //打印磁盤的剩餘空間
2)選項 -F 可指定分隔符
輸出passwd文件中以分號分隔的第一、7個字段,顯示的不一樣字段之間以逗號隔開,操做以下:
[root@svr5 ~]# awk -F: '{print $1,$7}' /etc/passwd root /bin/bash bin /sbin/nologin daemon /sbin/nologin adm /sbin/nologin lp /sbin/nologin … …
awk還識別多種單個的字符,好比以「:」或「/」分隔,輸出第一、10個字段:
[root@svr5 ~]# awk -F [:/] '{print $1,$10}' /etc/passwd root bash bin nologin daemon nologin adm sbin … …
awk經常使用內置變量:
$0 文本當前行的所有內容
$1 文本的第1列
$2 文件的第2列
$3 文件的第3列,依此類推
NR 文件當前行的行號
NF 文件當前行的列數(有幾列)
輸出每次處理行的行號,以及當前行以「:」分隔的字段個數(有幾列):
[root@svr5 ~]# awk -F: '{print NR,NF}' passwd.txt 1 7 2 7 3 7 .. ..
2)awk的print指令不只能夠打印變量,還能夠打印常量
[root@svr5 ~]# awk -F: '{print $1,"的解釋器:",$7}' /etc/passwd root 的解釋器: /bin/bash bin 的解釋器: /sbin/nologin … …
步驟二:利用awk提取本機的網絡流量、根分區剩餘容量、獲取遠程失敗的IP地址
1)提取IP地址
分步實現的思路及操做參考以下——
經過ifconfig eth0查看網卡信息,其中包括網卡流量:
[root@svr5 ~]# ifconfig eth0 eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 192.168.4.21 netmask 255.255.255.0 broadcast 192.168.4.255 inet6 fe80::fa64:c143:ad6a:5159 prefixlen 64 scopeid 0x20<link> ether 52:54:00:b3:11:11 txqueuelen 1000 (Ethernet) RX packets 313982 bytes 319665556 (304.8 MiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 51809 bytes 40788621 (38.8 MiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
RX爲接收的數據量,TX爲發送的數據量。packets以數據包的數量爲單位,bytes以字節爲單位:
[root@svr5 ~]# ifconfig eth0 | awk '/RX p/{print $5}' //過濾接收數據的流量 319663094 [root@svr5 ~]# ifconfig eth0 | awk '/TX p/{print $5}' //過濾發送數據的流量 40791683
2)提取根分區剩餘容量
分步實現的思路及操做參考以下——
經過df命令查看根分區的使用狀況,其中包括剩餘容量:
[root@svr5 ~]# df -h / 文件系統 容量 已用 可用 已用% 掛載點 /dev/sda2 19G 7.2G 11G 40% /
輸出上述結果中最後一行的第4列:
[root@svr5 ~]# df -h / | tail -1 | awk '{print $6}' 11G
或者直接在awk中使用正則:
[root@svr5 ~]# df -h | awk '/\/$/{print $4}' 11G
3)根據/var/log/secure日誌文件,過濾遠程鏈接密碼失敗的IP地址
[root@svr5 ~]# awk '/Failed/{print $11}' /var/log/secure 192.168.2.254 192.168.2.100 ... ...
步驟三:格式化輸出/etc/passwd文件
1)awk處理的時機
awk會逐行處理文本,支持在處理第一行以前作一些準備工做,以及在處理完最後一行以後作一些總結性質的工做。在命令格式上分別體現以下:
awk [選項] '[條件]{指令}' 文件 awk [選項] ' BEGIN{指令} {指令} END{指令}' 文件 BEGIN{ } 行前處理,讀取文件內容前執行,指令執行1次 { } 逐行處理,讀取文件過程當中執行,指令執行n次 END{ } 行後處理,讀取文件結束後執行,指令執行1次
只作預處理的時候,能夠沒有操做文件,好比:
[root@svr5 ~]# awk 'BEGIN{A=24;print A*2}' [root@svr5 ~]# awk 'BEGIN{print x+1}' #x能夠不定義,直接用,默認值位0 [root@svr5 ~]# awk 'BEGIN{print 3.2+3.5}'
舉個例子(統計系統中使用bash做爲登陸Shell的用戶總個數):
a.預處理時賦值變量x=0
b.而後逐行讀入/etc/passwd文件,若是發現登陸Shell是/bin/bash則x加1
c.所有處理完畢後,輸出x的值便可。相關操做及結果以下:
[root@svr5 ~]# awk 'BEGIN{x=0}/bash$/{x++} END{print x}' /etc/passwd 29
2)格式化輸出/etc/passwd文件
要求: 格式化輸出passwd文件內容時,要求第一行爲列表標題,中間打印用戶的名稱、UID、家目錄信息,最後一行提示一共已處理文本的總行數,如圖-1所示。
圖-1
3)根據實現思路編寫、驗證awk過濾語句
輸出信息時,可使用「\t」顯示Tab製表位:
[root@svr5 ~]# awk -F: 'BEGIN{print "User\tUID\tHome"} \ {print $1 "\t" $3 "\t" $6} \ END{print "Total",NR,"lines."}' /etc/passwd User UID Home root 0 /root bin 1 /bin daemon 2 /sbin adm 3 /var/adm lp 4 /var/spool/lpd sync 5 /sbin .. .. Total 67 lines.
2 案例2:awk處理條件
2.1 問題
本案例要求使用awk工具完成下列過濾任務,注意awk處理條件的設置:
列出UID間於1~1000的用戶詳細信息 輸出/etc/hosts文件內以127或192開頭的記錄 列出100之內整數中7的倍數或是含7的數
2.2 步驟
實現此案例須要按照以下步驟進行。
步驟一:認識awk處理條件的設置
1)使用正則設置條件
輸出其中以bash結尾的完整記錄:
[root@svr5 ~]# awk -F: '/bash$/{print}' /etc/passwd root:x:0:0:root:/root:/bin/bash
輸出包含root的行數據:
[root@svr5 ~]# awk -F: '/root/' /etc/passwd
輸出root或adm帳戶的用戶名和UID信息:
[root@svr5 ~]# awk -F: '/^(root|adm)/{print $1,$3}' /etc/passwd root 0 adm 3
輸出帳戶名稱包含root的基本信息(第1列包含root):
[root@svr5 ~]# awk -F: '$1~/root/' /etc/passwd
輸出其中登陸Shell不以nologin結尾(對第7個字段作!~反向匹配)的用戶名、登陸Shell信息:
[root@svr5 ~]# awk -F: '$7!~/nologin$/{print $1,$7}' /etc/passwd root /bin/bash sync /bin/sync shutdown /sbin/shutdown
2)使用數值/字符串比較設置條件
比較符號:==(等於) !=(不等於) >(大於)
=(大於等於) <(小於) <=(小於等於)
輸出第3行(行號NR等於3)的用戶記錄:
[root@svr5 ~]# awk -F: 'NR==3{print}' /etc/passwd
輸出帳戶UID大於等於1000的帳戶名稱和UID信息:
[root@svr5 ~]# awk -F: '$3>=1000{print $1,$3}' /etc/passwd tom 1000 jerry 1001
輸出帳戶UID小於10的帳戶名稱和UID信息:
[root@svr5 ~]# awk -F: '$3<10{print $1,$3}' /etc/passwd root 0 bin 1 daemon 2 adm 3 lp 4 sync 5 shutdown 6 halt 7 mail 8
輸出用戶名爲「root」的行:
[root@svr5 ~]# awk -F: '$1=="root"' /etc/passwd root:x:0:0:root:/root:/bin/bash
3)邏輯測試條件
輸出帳戶UID大於10而且小於20的帳戶信息:
[root@svr5 ~]# awk -F: '$3>10 && $3<20' /etc/passwd operator:x:11:0:operator:/root:/sbin/nologin games:x:12:100:games:/usr/games:/sbin/nologin ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin
輸出帳戶UID大於1000或者帳戶UID小於10的帳戶信息:
[root@svr5 ~]# awk -F: '$3>1000 || $3<10' /etc/passwd root:x:0:0:root:/root:/bin/bash bin:x:1:1:bin:/bin:/sbin/nologin daemon:x:2:2:daemon:/sbin:/sbin/nologin adm:x:3:4:adm:/var/adm:/sbin/nologin lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin sync:x:5:0:sync:/sbin:/bin/sync shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown halt:x:7:0:halt:/sbin:/sbin/halt mail:x:8:12:mail:/var/spool/mail:/sbin/nologin varnish:x:1001:1001::/home/varnish:/sbin/nologin nginx:x:1002:1002::/home/nginx:/sbin/nologin
4)數學運算
[root@svr5 ~]# awk 'BEGIN{x++;print x}' 1 [root@svr5 ~]# awk 'BEGIN{x=8;print x+=2}' 10 [root@svr5 ~]# awk 'BEGIN{x=8;x--;print x}' 7 [root@svr5 ~]# awk 'BEGIN{print 2+3}' 5 [root@svr5 ~]# awk 'BEGIN{print 2*3}' 6 [root@svr5 ~]# awk 'BEGIN{print 2*3}' 6 [root@svr5 ~]# awk 'BEGIN{ print 23%8}' 7 [root@svr5 ~]# seq 200 | awk '$1%3==0' //找200之內3的倍數 … …
步驟二:完成任務要求的awk過濾操做
1)列出UID間於1~1000的用戶詳細信息:
[root@svr5 ~]# awk -F: '$3>=1 && $3<=1000' /etc/passwd
2)輸出/etc/hosts映射文件內以127或者192開頭的記錄:
[root@svr5 ~]# awk -F: '/^(127|192)/' /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 192.168.4.5 svr5.tarena.com svr5
3)列出100之內整數中7的倍數或是含7的數:
[root@svr5 ~]# seq 100 | awk '$1%7==0||$1~/7/' 7 14 17 21 27 28 35 37 42 47 .. ..
3 案例3:awk綜合腳本應用
3.1 問題
本案例要求編寫腳本,實現如下需求:
找到使用bash做登陸Shell的本地用戶 列出這些用戶的shadow密碼記錄,如圖-2所示
圖-2
3.2 步驟
實現此案例須要按照以下步驟進行。
步驟一:任務需求及思路分析
編寫腳本的任務要求以下:
分析出使用bash做登陸Shell的本地用戶 列出這些用戶的shadow密碼記錄 按每行「用戶名 -- 密碼記錄」保存結果
步驟二:根據實現思路編寫腳本
[root@svr5 ~]# cat getupwd-awk.sh #/bin/bash A=$(awk -F: '/bash$/{print $1}' /etc/passwd) ## 提取符合條件的帳號記錄 for i in $A do grep $i /etc/shadow | awk -F: '{print $1,"-->",$2}' done
步驟三:驗證、測試腳本
[root@svr5 ~]# ./getupwd-awk.sh root --> $6$IWgMYmRACwdbfwBo$dr8Yn983nswiJVw0dTMjzbDvSLeCd1GMYjbvsDiFEkL8jnXOLcocBQypOCr4C6BRxNowIxjh6U2qeFU0u1LST/ zengye --> $6$Qb37LOdzRl5995PI$L0zTOgnhGz8ihWkW81J.5XhPp/l7x2./Me2ag0S8tRndCBL9nIjHIKkUKulHxJ6TXyHYmffbVgUT6pbSwf8O71 clamav --> !! mysql --> !! .. ..
4 案例4:awk流程控制
4.1 問題
本案例要求瞭解awk的流程控制操做,可自行設置awk語句來有驗證如下操做:
if分支結構(但分支、雙分支、多分支) 練習awk數組的使用
4.2 步驟
實現此案例須要按照以下步驟進行。
步驟一:awk過濾中的if分支結構
1)單分支
統計/etc/passwd文件中UID小於或等於1000的用戶個數:
[root@svr5 ~]# awk -F: '{if($3<=1000){i++}}END{print i}' /etc/passwd 39
統計/etc/passwd文件中UID大於1000的用戶個數:
[root@svr5 ~]# awk -F: '{if($3>1000){i++}}END{print i}' /etc/passwd 8
統計/etc/passwd文件中登陸Shell是「/bin/bash」的用戶個數:
[root@svr5 ~]# awk -F: '{if($7~/bash$/){i++}}END{print i}' /etc/passwd 29
2)雙分支
分別統計/etc/passwd文件中UID小於或等於1000、UID大於1000的用戶個數:
[root@svr5 ~]# awk -F: '{if($3<=1000){i++}else{j++}}END{print i,j}' /etc/passwd 39 8
分別統計/etc/passwd文件中登陸Shell是「/bin/bash」、 登陸Shell不是「/bin/bash」的用戶個數:
[root@svr5 ~]# awk -F: '{if($7~/bash$/){i++}else{j++}} END{print i,j}' /etc/passwd 29 38
步驟二:awk數組
1)數組的語法格式
數組是一個能夠存儲多個值的變量,具體使用的格式以下:
定義數組的格式:數組名[下標]=元素值
調用數組的格式:數組名[下標]
遍歷數組的用法:for(變量 in 數組名){print 數組名[變量]}。
[root@svr5 ~]# awk 'BEGIN{a[0]=11;a[1]=88;print a[1],a[0]}' 88 11 [root@svr5 ~]# awk 'BEGIN{a++;print a}' 1 [root@svr5 ~]# awk 'BEGIN{a0++;print a0}' 1 [root@svr5 ~]# awk 'BEGIN{a[0]++;print a[0]}' 1 [root@svr5 ~]# awk 'BEGIN{a[0]=0;a[1]=11;a[2]=22; for(i in a){print i,a[i]}}' 0 0 1 11 2 22
注意,awk數組的下標除了可使用數字,也可使用字符串,字符串須要使用雙引號:
[root@svr5 ~]# awk 'BEGIN{a["hehe"]=11;print a["hehe"]}' 11
5 案例5:awk擴展應用
5.1 問題
本案例要求使用awk工具完成下列兩個任務:
分析Web日誌的訪問量排名,要求得到客戶機的地址、訪問次數,而且按照訪問次數排名
5.2 方案
1)awk統計Web訪問排名
在分析Web日誌文件時,每條訪問記錄的第一列就是客戶機的IP地址,其中會有不少重複的IP地址。所以只用awk提取出這一列是不夠的,還須要統計重複記錄的數量而且進行排序。
經過awk提取信息時,利用IP地址做爲數組下標,每遇到一個重複值就將此數組元素遞增1,最終就得到了這個IP地址出現的次數。
針對文本排序輸出能夠採用sort命令,相關的常見選項爲-r、-n、-k。其中-n表示按數字順序升序排列,而-r表示反序,-k能夠指定按第幾個字段來排序。
5.3 步驟
實現此案例須要按照以下步驟進行。
步驟一:統計Web訪問量排名
分步測試、驗證效果以下所述。
1)提取IP地址及訪問量
[root@svr5 ~]# awk '{ip[$1]++} \ > END{for(i in ip) {print ip[i],i }}' /var/log/httpd/access_log 4 127.0.0.1 17 192.168.4.5 13 192.168.4.110 .. ..
2)對第1)步的結果根據訪問量排名
[root@svr5 ~]# awk '{ip[$1]++} END{for(i in ip) {print i,ip[i]}}' /var/log/httpd/access_log | sort -nr 17 192.168.4.5 13 192.168.4.110 4 127.0.0.1 .. ..