Linux系統優化

linux服務器的性能分析與優化node

1】影響Linux服務器性能的因素linux

操做系統級ios

Ø CPUnginx

目前大部分CPU在同一時間只能運行一個線程,超線程的處理器能夠在同一時間處理多個線程,所以能夠利用超線程特性提升系統性能。web

在linux系統下只有運行SMP內核才能支持超線程,可是安裝的CPu數量越多,從超線程得到的性能提高越少。算法

另外linux內核會將多核的處理器當作多個單獨的CPU來識別,例如,兩個4核的CPU會被當成8個單個CPU,從性能角度講,兩個4核的CPU總體性能要比8個單核CPU低25%-30%。shell

可能出現CPU瓶頸的應用有郵件服務器、動態web服務器等。數據庫

 

Ø 內存緩存

內存過小,系統進程將被阻塞,應用也將變得緩慢,甚至失去響應;內存太大,致使資源浪費。安全

虛擬內存能夠緩解物理內存的不足,可是虛擬內存的過多佔用會致使應用程序的性能明顯降低。

在一個32位處理器的linux系統中超過8GB的物理內存都將被浪費,所以要使用更大的內存,建議安裝64位的操做系統,同時開啓linux的大內存內核支持。

因爲處理器尋址範圍的限制,在32位linux操做系統上,應用程序單個進程最大隻能使用2GB的內存。

可能出現內存瓶頸的有打印服務器、數據庫服務器、靜態web服務器等。

 

Ø 磁盤I/O性能

磁盤RAID技術,Redundant Array of Independent Disk,即獨立磁盤冗餘陣列,簡稱磁盤陣列。

RAID經過將多塊獨立的磁盤(物理硬盤)按不一樣的方式組合起來造成一個磁盤組(邏輯硬盤),從而提供比單個磁盤更高的IO性能和數據冗餘。

根據磁盤組合方式不一樣,分爲RAID0、RAID一、RAID二、RAID三、RAID四、RAID五、RAID六、RAID七、RAID0+一、RAID10等,經常使用的有RAID0、RAID一、RAID五、RAID0+1。

RAID0:經過把多塊硬盤粘合成一個容量更大的硬盤組,提升磁盤的性能和吞吐量,成本低,至少兩塊磁盤,可是沒有容錯和數據修復功能,只能用在對數據安全性要求不高的環境中。

RAID1:也就是磁盤鏡像,經過把一個磁盤的數據鏡像到另一個磁盤上,最大限度的保證磁盤數據的可靠性和可修改性,具備很高的數據冗餘能力,可是磁盤利用率只有50%,成本較高,多用在保存重要數據的場合。

RAID5:磁盤分段加奇偶校驗技術,提升了系統的可靠性。讀出效率很高,寫效率通常,至少須要3塊磁盤,容許一塊磁盤故障,不影響數據的可用性。

RAID0+1:把RAID0和RAID1技術結合起來,至少須要4塊硬盤,每一個盤都有其鏡像盤,提升全冗餘能力,並具備快速讀寫能力。

 

Ø 網絡帶寬

程序應用級

2】系統性能評估標準

其中:

     %user:表示CPU處在用戶模式下的時間百分比。

     %sys:表示CPU處在系統模式下的時間百分比。

     %iowait:表示CPU等待輸入輸出完成時間的百分比。

     swap in:即si,表示虛擬內存的頁導入,即從SWAP DISK交換到RAM

     swap out:即so,表示虛擬內存的頁導出,即從RAM交換到SWAP DISK。

3】系統性能分析工具

經常使用系統命令

Vmstat、sar、iostat、netstat、free、ps、top等

經常使用組合方式

l   用vmstat、sar、iostat檢測是不是CPU瓶頸

l   用free、vmstat檢測是不是內存瓶頸

l   用iostat檢測是不是磁盤I/O瓶頸

l   用netstat檢測是不是網絡帶寬瓶頸

 

1:系統總體性能評估(uptime命令)

[root@web1 ~]# uptime

16:38:00 up 118 days,  3:01,  5 users,  load average: 1.22, 1.02, 0.91

    這裏須要注意的是:load average這個輸出值,這三個值的大小通常不能大於系統CPU的個數,例如,本輸出中系統有8個CPU,若是load average的三個值長期大於8時,說明CPU很繁忙,負載很高,可能會影響系統性能,可是偶爾大於8時,倒不用擔憂,通常不會影響系統性能。相反,若是load average的輸出值小於CPU的個數,則表示CPU還有空閒的時間片,好比本例中的輸出,CPU是很是空閒的。

2cpu性能評估

(1)利用vmstat命令監控系統CPU

   該命令能夠顯示關於系統各類資源之間相關性能的簡要信息,這裏咱們主要用它來看CPU一個負載狀況。

   下面是vmstat命令在某個系統的輸出結果:

 

 

 

[root@node1 ~]# vmstat 2 3    #每2秒更新信息,統計3次

procs -----------memory----------  ---swap--  -----io---- --system--  -----cpu------

 r  b   swpd   free      buff  cache   si   so    bi    bo       in     cs     us sy  id   wa st

 0  0    0    162240   8304  67032   0    0    13    21   1007   23     0  1   98   0   0

 0  0    0    162240   8304  67032   0    0     1     0     1010   20     0  1   100 0   0

 0  0    0    162240   8304  67032   0    0     1     1     1009   18     0  1    99  0   0

Procs

     r列表示運行和等待cpu時間片的進程數,這個值若是長期大於系統CPU的個數,說明CPU不足,須要增長CPU。

     b列表示在等待資源的進程數,好比正在等待I/O、或者內存交換等。

Cpu

     us列顯示了用戶進程消耗的CPU 時間百分比。us的值比較高時,說明用戶進程消耗的cpu時間多,可是若是長期大於50%,就須要考慮優化程序或算法。

     sy列顯示了內核進程消耗的CPU時間百分比。Sy的值較高時,說明內核消耗的CPU資源不少。

    根據經驗,us+sy的參考值爲80%,若是us+sy大於 80%說明可能存在CPU資源不足。

(2) 利用sar命令監控系統CPU

sar功能很強大,能夠對系統的每一個方面進行單獨的統計,可是使用sar命令會增長系統開銷,不過這些開銷是能夠評估的,對系統的統計結果不會有很大影響。

 下面是sar命令對某個系統的CPU統計輸出:

[root@webserver ~]# sar -u 3 5 #u顯示系統全部cpu在採樣時間內的負載狀態

Linux 2.6.9-42.ELsmp (webserver)        11/28/2008      _i686_  (8 CPU)

11:41:24 AM     CPU     %user     %nice   %system   %iowait    %steal     %idle

11:41:27 AM     all      0.88      0.00      0.29      0.00      0.00     98.83

11:41:30 AM     all      0.13      0.00      0.17      0.21      0.00     99.50

11:41:33 AM     all      0.04      0.00      0.04      0.00      0.00     99.92

11:41:36 AM     all      90.08     0.00      0.13      0.16      0.00     9.63

11:41:39 AM     all      0.38      0.00      0.17      0.04      0.00     99.41

Average:        all      0.34      0.00      0.16      0.05      0.00     99.45

    

對上面每項的輸出解釋以下:

l   %user列顯示了用戶進程消耗的CPU 時間百分比。

l   %nice列顯示了運行正常進程所消耗的CPU 時間百分比。

l   %system列顯示了系統進程消耗的CPU時間百分比。

l   %iowait列顯示了IO等待所佔用的CPU時間百分比

l   %steal列顯示了在內存相對緊張的環境下pagein強制對不一樣的頁面進行的steal操做 。

l   %idle列顯示了CPU處在空閒狀態的時間百分比。

3:內存性能評估
(1)利用free指令監控內存

free是監控linux內存使用情況最經常使用的指令,看下面的一個輸出:

[root@webserver ~]# free  -m  #查看以M爲單位的內存使用狀況

                total         used       free     shared    buffers     cached

Mem:       8111       7185        926          0        243           6299

-/+ buffers/cache:     643       7468

Swap:       8189          0         8189

     通常有這樣一個經驗公式:應用程序可用內存/系統物理內存>70%時,表示系統內存資源很是充足,不影響系統性能,應用程序可用內存/系統物理內存<20%時,表示系統內存資源緊缺,須要增長系統內存,20%<應用程序可用內存/系統物理內存<70%時,表示系統內存資源基本能知足應用需求,暫時不影響系統性能。

(2利用vmstat命令監控內存

[root@node1 ~]# vmstat 2 3

procs -----------memory----------  ---swap--  -----io---- --system--  -----cpu------

 r  b   swpd   free      buff  cache   si   so    bi    bo       in     cs     us sy  id  wa st

 0  0    0    162240   8304  67032   0    0    13    21   1007   23     0  1  98   0  0

 0  0    0    162240   8304  67032   0    0     1     0     1010   20     0  1  100 0  0

 0  0    0    162240   8304  67032   0    0     1     1     1009   18     0  1  99   0  0

memory

      swpd列表示切換到內存交換區的內存數量(以k爲單位)。若是swpd的值不爲0,或者比較大,只要si、so的值長期爲0,這種狀況下通常不用擔憂,不會影響系統性能。

      free列表示當前空閒的物理內存數量(以k爲單位)

      buff列表示buffers cache的內存數量,通常對塊設備的讀寫才須要緩衝。

      cache列表示page cached的內存數量,通常做爲文件系統cached,頻繁訪問的文件都會被cached,若是cache值較大,說明cached的文件數較多,若是此時IO中bi比較小,說明文件系統效率比較好。

swap

si列表示由磁盤調入內存,也就是內存進入內存交換區的數量。

so列表示由內存調入磁盤,也就是內存交換區進入內存的數量。

通常狀況下,si、so的值都爲0,若是si、so的值長期不爲0,則表示系統內存不足。須要增長系統內存。

4:磁盤I/O性能評估

(1)磁盤存儲基礎

l  熟悉RAID存儲方式,能夠根據應用的不一樣,選擇不一樣的RAID方式。

l 儘量用內存的讀寫代替直接磁盤I/O,使頻繁訪問的文件或數據放入內存中進行操做處理,由於內存讀寫操做比直接磁盤讀寫的效率要高千倍。

l   將常常進行讀寫的文件與長期不變的文件獨立出來,分別放置到不一樣的磁盤設備上。

l         對於寫操做頻繁的數據,能夠考慮使用裸設備代替文件系統。

     

       使用裸設備的優勢有:

ü  數據能夠直接讀寫,不須要通過操做系統級的緩存,節省了內存資源,避免了     內存資源爭用。

ü         避免了文件系統級的維護開銷,好比文件系統須要維護超級塊、I-node等。

ü         避免了操做系統的cache預讀功能,減小了I/O請求。

ü          使用裸設備的缺點是:

ü          數據管理、空間管理不靈活,須要很專業的人來操做。

(2)利用iostat評估磁盤性能

[root@webserver ~]#   iostat -d 2 3  #-d 顯示磁盤的使用狀況

Linux 2.6.9-42.ELsmp (webserver)        12/01/2008      _i686_  (8 CPU)

 

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read      Blk_wrtn

sda               1.87         2.58       114.12        6479462     286537372

 

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

sda               0.00         0.00         0.00              0                0

 

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read    Blk_wrtn

sda               1.00         0.00        12.00             0                24

對上面每項的輸出解釋以下:

Blk_read/s表示每秒讀取的數據塊數。

Blk_wrtn/s表示每秒寫入的數據塊數。

Blk_read表示讀取的全部塊數。

Blk_wrtn表示寫入的全部塊數。

Ø       能夠經過Blk_read/s和Blk_wrtn/s的值對磁盤的讀寫性能有一個基本的瞭解,若是Blk_wrtn/s值很大,表示磁盤的寫操做很頻繁,能夠考慮優化磁盤或者優化程序,若是Blk_read/s值很大,表示磁盤直接讀取操做不少,能夠將讀取的數據放入內存中進行操做。

Ø       對於這兩個選項的值沒有一個固定的大小,根據系統應用的不一樣,會有不一樣的值,可是有一個規則仍是能夠遵循的:長期的、超大的數據讀寫,確定是不正常的,這種狀況必定會影響系統性能。

(3)利用sar估磁盤性能

         經過「sar –d」組合,能夠對系統的磁盤IO作一個基本的統計,請看下面的一個輸出:

[root@webserver ~]# sar -d 2 3

Linux 2.6.9-42.ELsmp (webserver)        11/30/2008      _i686_  (8 CPU)

 

11:09:33 PM  DEV     tps   rd_sec/s   wr_sec/s  avgrq-sz  avgqu-sz   await  svctm   %util

11:09:35 PM dev8-0  0.00  0.00            0.00        0.00          0.00         0.00   0.00     0.00

 

11:09:35 PM  DEV     tps  rd_sec/s    wr_sec/s  avgrq-sz  avgqu-sz  await   svctm   %util

11:09:37 PM dev8-0  1.00  0.00         12.00        12.00         0.00        0.00    0.00     0.00

 

11:09:37 PM   DEV    tps    rd_sec/s  wr_sec/s   avgrq-sz  avgqu-sz  await  svctm   %util

11:09:39 PM dev8-0  1.99   0.00         47.76         24.00       0.00        0.50    0.25     0.05

 

Average:  DEV          tps    rd_sec/s   wr_sec/s  avgrq-sz  avgqu-sz    await  svctm   %util

Average:  dev8-0      1.00   0.00          19.97         20.00       0.00         0.33    0.17     0.02

      須要關注的幾個參數含義:

      await表示平均每次設備I/O操做的等待時間(以毫秒爲單位)。

      svctm表示平均每次設備I/O操做的服務時間(以毫秒爲單位)。

      %util表示一秒中有百分之幾的時間用於I/O操做。

 

對以磁盤IO性能,通常有以下評判標準:

      正常狀況下svctm應該是小於await值的,而svctm的大小和磁盤性能有關,CPU、內存的負荷也會對svctm值形成影響,過多的請求也會間接的致使svctm值的增長。

      await值的大小通常取決與svctm的值和I/O隊列長度以及I/O請求模式,若是svctm的值與await很接近,表示幾乎沒有I/O等待,磁盤性能很好,若是await的值遠高於svctm的值,則表示I/O隊列等待太長,系統上運行的應用程序將變慢,此時能夠經過更換更快的硬盤來解決問題。

      %util項的值也是衡量磁盤I/O的一個重要指標,若是%util接近100%,表示磁盤產生的I/O請求太多,I/O系統已經滿負荷的在工做,該磁盤可能存在瓶頸。長期下去,勢必影響系統的性能,能夠經過優化程序或者經過更換更高、更快的磁盤來解決此問題。

5:網絡性能評估.

(1)經過ping命令檢測網絡的連通性

(2)經過netstat –i組合檢測網絡接口情況

(3)經過netstat –r組合檢測系統的路由表信息

(4)經過sar –n組合顯示系統的網絡運行狀態  sar -n DEV 5 3

5】經常使用分析

 

netstat -an|awk '/^tcp/{++S[$NF]}END{for (a in S)print a,S[a]}'   查看tcp連接數

netstat -pant |grep ":80"|awk '{print $5}' | awk -F: '{print $1}'|sort|uniq -c|sort -nr    查看鏈接數最多的ip

cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -n10

提取日誌  分別是訪問URL和URL訪問來源  排序

awk '{print $7}' access.log | sort | uniq -c |sort -nr | head -n10 > test.txt

6shell分析nginx日誌

 

178.255.215.86 - - [04/Jul/2013:00:00:31 +0800] "GET /tag/316/PostgreSQL HTTP/1.1" 200 4779 "-" "Mozilla/5.0 (compatible; Exabot/3.0 (BiggerBetter); +http://www.exabot.com/go/robot)" "-"- 178.255.215.86 - - [04/Jul/2013:00:00:34 +0800] "GET /tag/317/edit HTTP/1.1" 303 5 "-" "Mozilla/5.0 (compatible; Exabot/3.0 (BiggerBetter); +http://www.exabot.com/go/robot)" "-"- 103.29.134.200 - - [04/Jul/2013:00:00:34 +0800] "GET /code-snippet/2022/edit HTTP/1.0" 303 0 "-" "Mozilla/5.0 (Windows NT 6.1; rv:17.0) Gecko/17.0 Firefox/17.0" "-"- 103.29.134.200 - - [04/Jul/2013:00:00:35 +0800] "GET /user/login?url=http%3A//outofmemory.cn/code-snippet/2022/edit HTTP/1.0" 200 4748 "-" "Mozilla/5.0 (Windows NT 6.1; rv:17.0) Gecko/17.0 Firefox/17.0" "-"-

 

如下腳本都是基於上面日誌格式的,若是你的日誌格式不一樣須要調整awk後面的參數。

分析日誌中的UserAgent

cat access_20130704.log | awk -F "\"" '{print $(NF-3)}' | sort | uniq -c | sort -nr | head -20

上面的腳本將分析出日誌文件中最多的20個UserAgent

分析日誌中那些IP訪問最多

cat access_20130704.log | awk '{print $1}' | sort | uniq -c | sort -nr | head -20

分析日誌中那些Url請求訪問次數最多

cat access_20130704.log | awk -F "\"" '{print $(NF-5)}' | sort | uniq -c | sort -nr | head -20

相關文章
相關標籤/搜索