1、freeios
total used free shared buffers cached Mem: 65928660 26432972 39495688 0 486724 23058704 -/+ buffers/cache: 2887544 63041116 Swap: 67060732 0 67060732
概念:buffers是用於存放要輸出到disk(塊設備)的數據的,而cache是存放從disk上讀出的數據 nginx
命令:free -s 三、free -m/gweb
優化:這塊命令主要是用來看內存是否夠用,若是free的話須要考慮增長內存了apache
2、vmstatubuntu
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 1 0 0 39504384 486736 23044124 0 0 0 9 0 1 2 0 97 0
概念:ruby
r 表示運行隊列(就是說多少個進程真的分配到CPU),我測試的服務器目前CPU比較空閒,沒什麼程序在跑,當這個值超過了CPU數目,就會出現CPU瓶頸了。
這個也和top的負載有關係,通常負載超過了3就比較高,超過了5就高,超過了10就不正常了,服務器的狀態很危險。top的負載相似每秒的運行隊列。若是運行隊列過大,表示你的CPU很繁忙,通常會形成CPU使用率很高。 b 表示阻塞的進程。 swpd 虛擬內存已使用的大小, free 空閒的物理內存的大小, buff Linux/Unix系統是用來存儲, cache 直接用來記憶咱們打開的文件,給文件作緩衝, si 每秒從磁盤讀入虛擬內存的大小,若是這個值大於0,表示物理內存不夠用或者內存泄露了, so 每秒虛擬內存寫入磁盤的大小,若是這個值大於0,同上。 bi 塊設備每秒接收的塊數量,這裏的塊設備是指系統上全部的磁盤和其餘塊設備,默認塊大小是1024byte,拷貝大量數據(2-3T)的機器上看過能夠達到140000/s,磁盤寫入速度差很少140M每秒 bo 塊設備每秒發送的塊數量,例如咱們讀取文件,bo就要大於0。bi和bo通常都要接近0,否則就是IO過於頻繁,須要調整。 in 每秒CPU的中斷次數,包括時間中斷 cs 每秒上下文切換次數,例如咱們調用系統函數,就要進行上下文切換,線程的切換,也要進程上下文切換。
這個值要越小越好,太大了,要考慮調低線程或者進程的數目,例如在apache和nginx這種web服務器中,咱們通常作性能測試時會進行幾千併發甚至幾萬併發的測試,選擇web服務器的進程能夠由進程或者線程的峯值一直下調,壓測,直到cs到一個比較小的值,這個進程和線程數就是比較合適的值了。
系統調用也是,每次調用系統函數,咱們的代碼就會進入內核空間,致使上下文切換,這個是很耗資源,也要儘可能避免頻繁調用系統函數。上下文切換次數過多表示你的CPU大部分浪費在上下文切換,致使CPU幹正經事的時間少了,CPU沒有充分利用,是不可取的。 us 用戶CPU時間, sy 系統CPU時間, id 空閒 CPU時間,通常來講,id + us + sy = 100,通常我認爲id是空閒CPU使用率,us是用戶CPU使用率,sy是系統CPU使用率。 wa 等待IO CPU時間。
命令:vmstat 2 5、vmstat 2服務器
3、iostat併發
Linux 3.11.0-12-generic (ubuntu) 04/16/2014 _x86_64_ (24 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 2.33 0.00 0.28 0.01 0.00 97.38 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 0.00 13.49 0.09 12.33 5.75 214.13 35.38 0.01 0.45 2.65 0.44 0.05 0.07 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 7.98 0.00 0.56 0.56 0.00 0.27 0.00
概念:函數
cpu的統計信息,若是是多cpu系統,顯示的全部cpu的平均統計信息。 %user:用戶進程消耗cpu的比例 %nice:用戶進程優先級調整消耗的cpu比例 %sys:系統內核消耗的cpu比例 %iowait:等待磁盤io所消耗的cpu比例 %idle:閒置cpu的比例(不包括等待磁盤io的s) rrqm/s:每秒進行merge(多個io的合併)讀操做的數量 wrqm/s:每秒進行merge(多個io的合併)寫操做的數量 r/s:每秒完成讀io設備的次數 w/s:每秒完成寫io設備的次數 rkB/s:每秒讀多少k字節,在kernel2.4以上,rkB/s=2×rsec/s,由於一個扇區爲512bytes wkB/s:每秒寫多少k字節,在kernel2.4以上,wkB/s =2×wsec/s,由於一個扇區爲512bytes avgrq-sz:平均每次io設備的大小(以扇區爲單位),由於有merge讀或寫,因此每次io大小須要計算 avgqu-sz:平均I/O隊列長度 await:每次io設備的等待時間,也包括io服務時間(毫秒)。
這裏能夠理解爲IO的響應時間,通常地系統IO響應時間應該低於5ms,若是大於10ms就比較大了。
這個時間包括了隊列時間和服務時間,也就是說,通常狀況下,await大於svctm,它們的差值越小,則說明隊列時間越短,反之差值越大,隊列時間越長,說明系統出了問題。 svctm:每次io設備的服務時間(毫秒),它的大小通常和磁盤性能有關:CPU/內存的負荷也會對其有影響,請求過多也會間接致使 svctm 的增長 %util:處理io操做的cpu比例,若是這個着接近100%,說明io請求很是多,cpu的全部時間都用來處理io請求,io系統負載很大(也有可能cpu資源不足),磁盤可能存在瓶頸;在%util等於70%的時候,io的讀取就會有不少等待。
命令:iostat -x 1 5性能
4、top
top - 17:19:20 up 22 days, 4:57, 4 users, load average: 0.16, 0.35, 0.52 Tasks: 412 total, 1 running, 411 sleeping, 0 stopped, 0 zombie %Cpu(s): 3.9 us, 0.3 sy, 0.0 ni, 95.8 id, 0.0 wa, 0.0 hi, 0.1 si, 0.0 st KiB Mem: 65928660 total, 25125592 used, 40803068 free, 486788 buffers KiB Swap: 67060732 total, 0 used, 67060732 free, 21681652 cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND —————————————————————————————————————————————— 1:顯示系統已啓動的時間、目前上線人數、系統總體的負載(load)。 比較須要注意的是系統的負載,三個數據分別表明 1, 5, 10 分鐘的平均負載。 通常來講,這個負載值應該不太可能超過 1 纔對,除非您的系統很忙碌。 若是持續高於 5 的話,那麼.....仔細的看看究竟是那個程序在影響總體系統吧! 2:顯示的是目前的觀察程序數量,比較須要注意的是最後的 zombie 那個數值,若是不是 0 ,嘿嘿!好好看看究竟是那個 process 變成疆屍了吧?! 3:顯示的是 CPU 的總體負載,每一個項目可以使用 ? 查閱。須要觀察的是 id (idle) 的數值,通常來講,他應該要接近 100% 纔好,表示系統不多資源被使用啊! ^_^。 四、5:表示目前的物理內存與虛擬內存 (Mem/Swap) 的使用狀況。 6:這個是當在 top 程序當中輸入指令時,顯示狀態的地方。 例如範例四就是一個簡單的使用例子。 至於 top 底下的畫面,則是每一個 process 使用的資源狀況。比較須要注意的是: PID :每一個 process 的 ID 啦! USER:該 process 所屬的使用者; PR :Priority 的簡寫,程序的優先執行順序,越小越早被執行; NI :Nice 的簡寫,與 Priority 有關,也是越小越早被執行; %CPU:CPU 的使用率,多核的話CPU的負載爲各個core之和; %MEM:內存的使用率; TIME+:CPU 使用時間的累加;
命令:top -d 2
、top -b -n 2 > /tmp/top.txt、
top -d 2 -p10604