只作工做總結備忘之用。linux
正在燒鏡像,稍總結一下進來改bug遇到的問題。程序員
一個項目裏要用到L3 switch的nat,vrrp功能,但實地測試中偶然出現write file掛死的狀況,但不是必現。交付在即,因而加調試信息,反覆跑配置的腳本,定位bug。shell
一,期初懷疑是vtysh與vrrpd進程通訊出現阻塞(現象便是系統掛死)。小程序
(1)由於在跑配置腳本時,出現了enable命令也掛死的狀況,因此這麼懷疑;vim
(2)在vrrpd與vtysh命令傳輸的關鍵點加打印信息(注意vrrpd不要-d daemon化,用& 來後臺),跟蹤結果是vtysh 確實把‘enable’命令發了出去,只是vrrpd進程不接收。命令通訊框架公用的,基本能夠肯定沒有問題,由 此,把bug收斂到vrrpd進程的問題;數組
(3)在vtysh進程中ctrl+c信號處理中加進入Linux shell的代碼,當vrrpd致使系統掛死(現象是阻塞)時,能夠進 入shell來top,top發現,vrrpd進程cpu利用率很高,並且sys:92.0%,因此肯定了是vrrpd進程使用了某個系 統調用,而該系統調用接口阻塞,致使了vrrpd阻塞,進而致使了vrrpd進程不接收vtysh進程發多來的命令。緩存
(4)接下來要肯定哪一個系統調用致使vrrpd阻塞,因而使用了strace來把vrrpd進程拉起來。安全
關於strace的用法,網上一大堆,連接:點擊打開連接,並附件一到文章尾部,以防原文刪除。框架
用的: strace -aef -p /usr/sbin/vrrpd -o /tmp/vrrpdstrace.logless
當復現vrrpd進程阻塞時,查看vrrpdstrace.log文件,分析裏邊的各個系統調用,肯定進程阻塞在了ioctl系 統調用上,根據ioctl的參數,跟蹤到內核,最終定位到博通刪除mac表項的sdk接口。(該接口先後加打印)
鑑於繼續跟蹤太難,bug暫告一段落........
2、跟蹤博通sdk接口刪除mac表項
(1)過程是曲折和痛苦的,不知道的地方隨便加一個打印,而後就刷屏了,但已經明確了確定是內核處理函數中 有一個沒有釋放鎖而致使的阻塞,接下來就是跟進鎖的過程,因爲該接口底層用的鎖(不清楚什麼鎖)也不 像用戶態的信號量同樣有個semid的關鍵字,。但終於仍是找到了一個區分mem的宏來做爲關鍵字,叫L2Xm,
刷屏總算少一點了。而後就查找內核中使用L2Xm的鎖,最後反覆跑腳本,肯定了多是_soc_l2x_thread線程 中也使用了該鎖。
(2)最後,肯定了是_soc_l2x_thread中 LOCK(L2Xm)與UNLOCK(L2Xm)之間的其餘鎖的阻塞,進而致使了該鎖沒有
沒有執行不到;進而發現了沒有釋放鎖的地方,問題基本完結。
3、內核kmalloc的內存類型,可能致使內核panic。
(1)在內核接收報文bnet_rx_deferred中報文處理中申請了內存kmalloc,但類型是GFP_KERNEL,,巧合的是,正 好該處理報文中出現了內存泄露,致使時間一長(或者故意打該報文),就會內存不足,一內存不足就會導 致kmalloc出現申請不成功的現象,即不會當即申請的到內存,,內核會在其正在申請的時候把其切換出 去,由於GFP_kernel類型是可睡眠的,非原子的。因此,問題來了,把接收報文中斷處理的kmalloc切換了出 去,而接收報文中斷處理是不能再切換回來的。即,中斷接收報文處理被內核認爲應該是原子的,當其中出 現了不是原子的kmalloc(GFP_KERNEL,)時就會panic。
(2)由此,同時發現了內存泄露和GFP_KERNEL兩個問題。
(3)關於kmalloc的類型問題,網上也一大堆,連接:點擊打開連接,並附錄二在文章末尾。
完畢。
附件一:strace的用法。
strace命令詳解
strace 命令是一種強大的工具,它可以顯示全部由用戶空間程序發出的系統調用。
strace 顯示這些調用的參數並返回符號形式的值。strace 從內核接收信息,並且不須要以任何特殊的方式來構建內核。
下面記錄幾個經常使用 option .
1 -f -F選項告訴strace同時跟蹤fork和vfork出來的進程
2 -o xxx.txt 輸出到某個文件。
3 -e execve 只記錄 execve 這類系統調用
---------------------------------------------------
進程沒法啓動,軟件運行速度忽然變慢,程序的"SegmentFault"等等都是讓每一個Unix系統用戶頭痛的問題,
本文經過三個實際案例演示如何使用truss、strace和ltrace這三個經常使用的調試工具來快速診斷軟件的"疑難雜症"。
truss和strace用來跟蹤一個進程的系統調用或信號產生的狀況,而 ltrace用來跟蹤進程調用庫函數的狀況。truss是早期爲System V R4開發的調試程序,包括Aix、FreeBSD在內的大部分Unix系統都自帶了這個工具;
而strace最初是爲SunOS系統編寫的,ltrace最先出如今GNU/DebianLinux中。
這兩個工具如今也已被移植到了大部分Unix系統中,大多數Linux發行版都自帶了strace和ltrace,而FreeBSD也可經過Ports安裝它們。
你不只能夠從命令行調試一個新開始的程序,也能夠把truss、strace或ltrace綁定到一個已有的PID上來調試一個正在運行的程序。三個調試工具的基本使用方法大致相同,下面僅介紹三者共有,並且是最經常使用的三個命令行參數:
-f :除了跟蹤當前進程外,還跟蹤其子進程。
-o file :將輸出信息寫到文件file中,而不是顯示到標準錯誤輸出(stderr)。
-p pid :綁定到一個由pid對應的正在運行的進程。此參數經常使用來調試後臺進程。
使用上述三個參數基本上就能夠完成大多數調試任務了,下面舉幾個命令行例子:
truss -o ls.truss ls -al: 跟蹤ls -al的運行,將輸出信息寫到文件/tmp/ls.truss中。
strace -f -o vim.strace vim: 跟蹤vim及其子進程的運行,將輸出信息寫到文件vim.strace。
ltrace -p 234: 跟蹤一個pid爲234的已經在運行的進程。
三個調試工具的輸出結果格式也很類似,以strace爲例:
brk(0) = 0x8062aa8
brk(0x8063000) = 0x8063000
mmap2(NULL, 4096, PROT_READ, MAP_PRIVATE, 3, 0x92f) = 0x40016000
每一行都是一條系統調用,等號左邊是系統調用的函數名及其參數,右邊是該調用的返回值。 truss、strace和ltrace的工做原理大同小異,都是使用ptrace系統調用跟蹤調試運行中的進程,詳細原理不在本文討論範圍內,有興趣能夠參考它們的源代碼。
舉兩個實例演示如何利用這三個調試工具診斷軟件的"疑難雜症":
案例一:運行clint出現Segment Fault錯誤
操做系統:FreeBSD-5.2.1-release
clint是一個C++靜態源代碼分析工具,經過Ports安裝好以後,運行:
# clint foo.cpp
Segmentation fault (core dumped)
在Unix系統中碰見"Segmentation Fault"就像在MS Windows中彈出"非法操做"對話框同樣使人討厭。OK,咱們用truss給clint"把把脈":
# truss -f -o clint.truss clint
Segmentation fault (core dumped)
# tail clint.truss
739: read(0x6,0x806f000,0x1000) = 4096 (0x1000)
739: fstat(6,0xbfbfe4d0) = 0 (0x0)
739: fcntl(0x6,0x3,0x0) = 4 (0x4)
739: fcntl(0x6,0x4,0x0) = 0 (0x0)
739: close(6) = 0 (0x0)
739: stat("/root/.clint/plugins",0xbfbfe680) ERR#2 'No such file or directory'
SIGNAL 11
SIGNAL 11
Process stopped because of: 16
process exit, rval = 139
咱們用truss跟蹤clint的系統調用執行狀況,並把結果輸出到文件clint.truss,而後用tail查看最後幾行。
注意看clint執行的最後一條系統調用(倒數第五行):stat("/root/.clint/plugins",0xbfbfe680) ERR#2 'No such file or directory',問題就出在這裏:clint找不到目錄"/root/.clint/plugins",從而引起了段錯誤。怎樣解決?很簡單: mkdir -p /root/.clint/plugins,不過此次運行clint仍是會"Segmentation Fault"9。繼續用truss跟蹤,發現clint還須要這個目錄"/root/.clint/plugins/Python",建好這個目錄後 clint終於可以正常運行了。
案例二:vim啓動速度明顯變慢
操做系統:FreeBSD-5.2.1-release
vim版本爲6.2.154,從命令行運行vim後,要等待近半分鐘才能進入編輯界面,並且沒有任何錯誤輸出。仔細檢查了.vimrc和全部的vim腳本都沒有錯誤配置,在網上也找不到相似問題的解決辦法,難不成要hacking source code?沒有必要,用truss就能找到問題所在:
# truss -f -D -o vim.truss vim
這裏-D參數的做用是:在每行輸出前加上相對時間戳,即每執行一條系統調用所耗費的時間。咱們只要關注哪些系統調用耗費的時間比較長就能夠了,用less仔細查看輸出文件vim.truss,很快就找到了疑點:
735: 0.000021511 socket(0x2,0x1,0x0) = 4 (0x4)
735: 0.000014248 setsockopt(0x4,0x6,0x1,0xbfbfe3c8,0x4) = 0 (0x0)
735: 0.000013688 setsockopt(0x4,0xffff,0x8,0xbfbfe2ec,0x4) = 0 (0x0)
735: 0.000203657 connect(0x4,{ AF_INET 10.57.18.27:6000 },16) ERR#61 'Connection refused'
735: 0.000017042 close(4) = 0 (0x0)
735: 1.009366553 nanosleep(0xbfbfe468,0xbfbfe460) = 0 (0x0)
735: 0.000019556 socket(0x2,0x1,0x0) = 4 (0x4)
735: 0.000013409 setsockopt(0x4,0x6,0x1,0xbfbfe3c8,0x4) = 0 (0x0)
735: 0.000013130 setsockopt(0x4,0xffff,0x8,0xbfbfe2ec,0x4) = 0 (0x0)
735: 0.000272102 connect(0x4,{ AF_INET 10.57.18.27:6000 },16) ERR#61 'Connection refused'
735: 0.000015924 close(4) = 0 (0x0)
735: 1.009338338 nanosleep(0xbfbfe468,0xbfbfe460) = 0 (0x0)
vim試圖鏈接10.57.18.27這臺主機的6000端口(第四行的connect()),鏈接失敗後,睡眠一秒鐘繼續重試(第6行的 nanosleep())。以上片段循環出現了十幾回,每次都要耗費一秒多鐘的時間,這就是vim明顯變慢的緣由。但是,你確定會納悶:"vim怎麼會平白無故鏈接其它計算機的6000端口呢?"。問得好,那麼請你回想一下6000是什麼服務的端口?沒錯,就是X Server。看來vim是要把輸出定向到一個遠程X Server,那麼Shell中確定定義了DISPLAY變量,查看.cshrc,果真有這麼一行:setenv DISPLAY ${REMOTEHOST}:0,把它註釋掉,再從新登陸,問題就解決了。
案例三:用調試工具掌握軟件的工做原理
操做系統:Red Hat Linux 9.0
用調試工具實時跟蹤軟件的運行狀況不只是診斷軟件"疑難雜症"的有效的手段,也可幫助咱們理清軟件的"脈絡",即快速掌握軟件的運行流程和工做原理,不失爲一種學習源代碼的輔助方法。下面這個案例展示瞭如何使用strace經過跟蹤別的軟件來"觸發靈感",從而解決軟件開發中的難題的。
你們都知道,在進程內打開一個文件,都有惟一一個文件描述符(fd:file descriptor)與這個文件對應。而本人在開發一個軟件過程當中遇到這樣一個問題:
已知一個fd,如何獲取這個fd所對應文件的完整路徑?無論是Linux、FreeBSD或是其它Unix系統都沒有提供這樣的API,怎麼辦呢?咱們換個角度思考:Unix下有沒有什麼軟件能夠獲取進程打開了哪些文件?若是你經驗足夠豐富,很容易想到lsof,使用它既能夠知道進程打開了哪些文件,也能夠了解一個文件被哪一個進程打開。好,咱們用一個小程序來試驗一下lsof,看它是如何獲取進程打開了哪些文件。lsof: 顯示進程打開的文件。
/* testlsof.c */
#include #include #include #include #include
int main(void)
{
open("/tmp/foo", O_CREAT|O_RDONLY); /* 打開文件/tmp/foo */
sleep(1200); /* 睡眠1200秒,以便進行後續操做 */
return 0;
}
將testlsof放入後臺運行,其pid爲3125。命令lsof -p 3125查看進程3125打開了哪些文件,咱們用strace跟蹤lsof的運行,輸出結果保存在lsof.strace中:
# gcc testlsof.c -o testlsof
# ./testlsof &
[1] 3125
# strace -o lsof.strace lsof -p 3125
咱們以"/tmp/foo"爲關鍵字搜索輸出文件lsof.strace,結果只有一條:
# grep '/tmp/foo' lsof.strace
readlink("/proc/3125/fd/3", "/tmp/foo", 4096) = 8
原來lsof巧妙的利用了/proc/nnnn/fd/目錄(nnnn爲pid):Linux內核會爲每個進程在/proc/創建一個以其pid爲名的目錄用來保存進程的相關信息,而其子目錄fd保存的是該進程打開的全部文件的fd。目標離咱們很近了。好,咱們到/proc/3125/fd/看個究竟:
# cd /proc/3125/fd/
# ls -l
total 0
lrwx------ 1 root root 64 Nov 5 09:50 0 -> /dev/pts/0
lrwx------ 1 root root 64 Nov 5 09:50 1 -> /dev/pts/0
lrwx------ 1 root root 64 Nov 5 09:50 2 -> /dev/pts/0
lr-x------ 1 root root 64 Nov 5 09:50 3 -> /tmp/foo
# readlink /proc/3125/fd/3
/tmp/foo
答案已經很明顯了:/proc/nnnn/fd/目錄下的每個fd文件都是符號連接,而此連接就指向被該進程打開的一個文件。咱們只要用readlink()系統調用就能夠獲取某個fd對應的文件了,代碼以下:
#include #include #include #include #include #include
int get_pathname_from_fd(int fd, char pathname[], int n)
{
char buf[1024];
pid_t pid;
bzero(buf, 1024);
pid = getpid();
snprintf(buf, 1024, "/proc/%i/fd/%i", pid, fd);
return readlink(buf, pathname, n);
}
int main(void)
{
int fd;
char pathname[4096];
bzero(pathname, 4096);
fd = open("/tmp/foo", O_CREAT|O_RDONLY);
get_pathname_from_fd(fd, pathname, 4096);
printf("fd=%d; pathname=%sn", fd, pathname);
return 0;
}
出於安全方面的考慮,在FreeBSD 5 以後系統默認已經再也不自動裝載proc文件系統,所以,要想使用truss或strace跟蹤程序,你必須手工裝載proc文件系統:mount -t procfs proc /proc;或者在/etc/fstab中加上一行:
proc /proc procfs rw 0 0
malloc內存分配和malloc類似,除非被阻塞不然他執行的速度很是快,並且不對得到空間清零。
Flags參數
#include<linux/slab.h>
Void *kmalloc(size_t size, int flags);
第一個參數是要分配的塊的大小,第二個參數是分配標誌(flags),他提供了多種kmalloc的行爲。
最經常使用的GFP_KERNEL,他表示內存分配(最終老是調用get_free_pages來實現實際的分配,這就是,這就是GFP前綴的由來)是表明運行在內核空間的進程執行的。使用GFP_KERNEL允許kmalloc在分配空閒內存時候若是內存不足允許把當前進程睡眠以等待。所以這時分配函數必須是可重入的。若是在進程上下文以外如:中斷處理程序、tasklet以及內核定時器中這種狀況下current進程不應睡眠,驅動程序該使用GFP_ATOMIC.
GFP_ATOMIC
用來從中斷處理和進程上下文以外的其餘代碼中分配內存. 從不睡眠.
GFP_KERNEL
內核內存的正常分配. 可能睡眠.
GFP_USER
用來爲用戶空間頁來分配內存; 它可能睡眠.
GFP_HIGHUSER
如同 GFP_USER, 可是從高端內存分配, 若是有. 高端內存在下一個子節描述.
GFP_NOIO
GFP_NOFS
這個標誌功能如同 GFP_KERNEL, 可是它們增長限制到內核能作的來知足請求. 一個 GFP_NOFS 分配不容許進行任何文件系統調用, 而 GFP_NOIO 根本不容許任何 I/O 初始化. 它們主要地用在文件系統和虛擬內存代碼, 那裏容許一個分配睡眠, 可是遞歸的文件系統調用會是一個壞注意.
上面列出的這些分配標誌能夠是下列標誌的相或來做爲參數, 這些標誌改變這些分配如何進行:
__GFP_DMA
這個標誌要求分配在可以 DMA 的內存區. 確切的含義是平臺依賴的而且在下面章節來解釋.
__GFP_HIGHMEM
這個標誌指示分配的內存能夠位於高端內存.
__GFP_COLD
正常地, 內存分配器盡力返回"緩衝熱"的頁 -- 可能在處理器緩衝中找到的頁. 相反, 這個標誌請求一個"冷"頁, 它在一段時間沒被使用. 它對分配頁做 DMA 讀是有用的, 此時在處理器緩衝中出現是無用的. 一個完整的對如何分配 DMA 緩存的討論看"直接內存存取"一節在第 1 章.
__GFP_NOWARN
這個不多用到的標誌阻止內核來發出警告(使用 printk ), 當一個分配沒法知足.
__GFP_HIGH
這個標誌標識了一個高優先級請求, 它被容許來消耗甚至被內核保留給緊急情況的最後的內存頁.
__GFP_REPEAT
__GFP_NOFAIL
__GFP_NORETRY
這些標誌修改分配器如何動做, 當它有困難知足一個分配. __GFP_REPEAT 意思是" 更盡力些嘗試" 經過重複嘗試 -- 可是分配可能仍然失敗. __GFP_NOFAIL 標誌告訴分配器不要失敗; 它盡最大努力來知足要求. 使用 __GFP_NOFAIL 是強烈不推薦的; 可能從不會有有效的理由在一個設備驅動中使用它. 最後, __GFP_NORETRY 告知分配器當即放棄若是得不到請求的內存.
2.內存區段
__GFP_DMA和__GFP_HIGHMEM的使用與平臺相關,Linux把內存分紅3個區段:可用於DMA的內存、常規內存、以及高端內存。X86平臺上ISA設備DMA區段是內存的前16MB,而PCI設備無此限制。
內存區後面的機制在 mm/page_alloc.c 中實現, 而內存區的初始化在平臺特定的文件中, 經常在 arch 目錄樹的 mm/init.c。
Linux 處理內存分配經過建立一套固定大小的內存對象池. 分配請求被這樣來處理, 進入一個持有足夠大的對象的池子而且將整個內存塊遞交給請求者. 驅動開發者應當記住的一件事情是, 內核只能分配某些預約義的, 固定大小的字節數組.
若是你請求一個任意數量內存, 你可能獲得稍微多於你請求的, 至可能是 2 倍數量. 一樣, 程序員應當記住 kmalloc 可以處理的最小分配是 32 或者 64 字節, 依賴系統的體系所使用的頁大小. kmalloc 可以分配的內存塊的大小有一個上限. 這個限制隨着體系和內核配置選項而變化. 若是你的代碼是要徹底可移植, 它不能期望能夠分配任何大於 128 KB. 若是你須要多於幾個 KB, 可是, 有個比 kmalloc 更好的方法來得到內存
在設備驅動程序或者內核模塊中動態開闢內存,不是用malloc,而是kmalloc ,vmalloc,或者用get_free_pages直接申請頁。釋放內存用的是kfree,vfree,或free_pages. kmalloc函數返回的是虛擬地址(線性地址). kmalloc特殊之處在於它分配的內存是物理上連續的,這對於要進行DMA的設備十分重要. 而用vmalloc分配的內存只是線性地址連續,物理地址不必定連續,不能直接用於DMA.
注意kmalloc最大隻能開闢128k-16,16個字節是被頁描述符結構佔用了。kmalloc用法參見khg.
內存映射的I/O口,寄存器或者是硬件設備的RAM(如顯存)通常佔用F0000000以上的地址空間。在驅動程序中不能直接訪問,要經過kernel函數vremap得到從新映射之後的地址。
另外,不少硬件須要一塊比較大的連續內存用做DMA傳送。這塊內存須要一直駐留在內存,不能被交換到文件中去。可是kmalloc最多隻能開闢大小爲32XPAGE_SIZE的內存,通常的PAGE_SIZE=4kB,也就是128kB的大小的內存。