Linux服務器性能評估

1、影響Linux服務器性能的因素

1. 操做系統級java

  • CPU
  • 內存
  • 磁盤I/O帶寬
  • 網絡I/O帶寬

2. 程序應用級node

2、系統性能評估標準

影響性能因素linux

影響性能因素ios

評判標準web

算法

數據庫

糟糕緩存

CPU性能優化

user% + sys%< 70%服務器

user% + sys%= 85%

user% + sys% >=90%

內存

Swap In(si)=0Swap Out(so)=0

Per CPU with 10 page/s

More Swap In & Swap Out

磁盤

iowait % < 20%

iowait % =35%

iowait % >= 50%

 

其中:
%user:表示CPU處在用戶模式下的時間百分比。
%sys:表示CPU處在系統模式下的時間百分比。
%iowait:表示CPU等待輸入輸出完成時間的百分比。
swap in:即si,表示虛擬內存的頁導入,即從SWAP DISK交換到RAM
swap out:即so,表示虛擬內存的頁導出,即從RAM交換到SWAP DISK。

3、系統性能分析工具

1.經常使用系統命令
Vmstat、sar、iostat、netstat、free、ps、top等

2.經常使用組合方式
• 用vmstat、sar、iostat檢測是不是CPU瓶頸
• 用free、vmstat檢測是不是內存瓶頸
• 用iostat檢測是不是磁盤I/O瓶頸
• 用netstat檢測是不是網絡帶寬瓶頸

4、Linux性能評估與優化

1. 系統總體性能評估(uptime命令)

Shell

 

1

2

[root@server ~]# uptime

16:38:00 up 118 days, 3:01, 5 users, load average: 1.22, 1.02, 0.91

這裏須要注意的是:load average這個輸出值,這三個值的大小通常不能大於系統CPU的個數,例如,本輸出中系統有8個CPU,若是load average的三個值長期大於8時,說明CPU很繁忙,負載很高,可能會影響系統性能,可是偶爾大於8時,倒不用擔憂,通常不會影響系統性能。相反,若是load average的輸出值小於CPU的個數,則表示CPU還有空閒的時間片,好比本例中的輸出,CPU是很是空閒的。

2. CPU性能評估

1)利用vmstat命令監控系統CPU
該命令能夠顯示關於系統各類資源之間相關性能的簡要信息,這裏咱們主要用它來看CPU一個負載狀況。

下面是vmstat命令在某個系統的輸出結果:

Shell

 

1

2

3

4

5

6

[root@node1 ~]# vmstat 2 3

procs ———–memory———- —swap– —–io—- –system– —–cpu——

r b swpd free buff cache si so bi bo in cs us sy id wa st

0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0

0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0

0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0

  • Procs

r列表示運行和等待cpu時間片的進程數,這個值若是長期大於系統CPU的個數,說明CPU不足,須要增長CPU。
b列表示在等待資源的進程數,好比正在等待I/O、或者內存交換等。

  • Cpu

us列顯示了用戶進程消耗的CPU 時間百分比。us的值比較高時,說明用戶進程消耗的cpu時間多,可是若是長期大於50%,就須要考慮優化程序或算法。

sy列顯示了內核進程消耗的CPU時間百分比。Sy的值較高時,說明內核消耗的CPU資源不少。
根據經驗,us+sy的參考值爲80%,若是us+sy大於 80%說明可能存在CPU資源不足。

2)利用sar命令監控系統CPU

sar功能很強大,能夠對系統的每一個方面進行單獨的統計,可是使用sar命令會增長系統開銷,不過這些開銷是能夠評估的,對系統的統計結果不會有很大影響。

下面是sar命令對某個系統的CPU統計輸出:

Shell

 

1

2

3

4

5

6

7

8

9

[root@webserver ~]# sar -u 3 5

Linux 2.6.9-42.ELsmp (webserver) 11/28/2008 _i686_ (8 CPU)

11:41:24 AM CPU %user %nice %system %iowait %steal %idle

11:41:27 AM all 0.88 0.00 0.29 0.00 0.00 98.83

11:41:30 AM all 0.13 0.00 0.17 0.21 0.00 99.50

11:41:33 AM all 0.04 0.00 0.04 0.00 0.00 99.92

11:41:36 AM all 90.08 0.00 0.13 0.16 0.00 9.63

11:41:39 AM all 0.38 0.00 0.17 0.04 0.00 99.41

Average: all 0.34 0.00 0.16 0.05 0.00 99.45

對上面每項的輸出解釋以下:

  • %user列顯示了用戶進程消耗的CPU 時間百分比。
  • %nice列顯示了運行正常進程所消耗的CPU 時間百分比。
  • %system列顯示了系統進程消耗的CPU時間百分比。
  • %iowait列顯示了IO等待所佔用的CPU時間百分比
  • %steal列顯示了在內存相對緊張的環境下pagein強制對不一樣的頁面進行的steal操做 。
  • %idle列顯示了CPU處在空閒狀態的時間百分比。

問題
1.你是否遇到過系統CPU總體利用率不高,而應用緩慢的現象?

在一個多CPU的系統中,若是程序使用了單線程,會出現這麼一個現象,CPU的總體使用率不高,可是系統應用卻響應緩慢,這多是因爲程序使用單線程的緣由,單線程只使用一個CPU,致使這個CPU佔用率爲100%,沒法處理其它請求,而其它的CPU卻閒置,這就致使了總體CPU使用率不高,而應用緩慢現象的發生。

3. 內存性能評估

1)利用free指令監控內存
free是監控linux內存使用情況最經常使用的指令,看下面的一個輸出:

Shell

 

1

2

3

4

5

[root@webserver ~]# free -m

total used free shared buffers cached

Mem: 8111 7185 926 0 243 6299

-/+ buffers/cache: 643 7468

Swap: 8189 0 8189

通常有這樣一個經驗公式:應用程序可用內存/系統物理內存>70%時,表示系統內存資源很是充足,不影響系統性能,應用程序可用內存/系統物理內存<20%時,表示系統內存資源緊缺,須要增長系統內存,20%<應用程序可用內存/系統物理內存<70%時,表示系統內存資源基本能知足應用需求,暫時不影響系統性能。

2)利用vmstat命令監控內存

Shell

 

1

2

3

4

5

6

[root@node1 ~]# vmstat 2 3

procs ———–memory———- —swap– —–io—- –system– —–cpu——

r b swpd free buff cache si so bi bo in cs us sy id wa st

0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0

0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0

0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0

  • memory

swpd列表示切換到內存交換區的內存數量(以k爲單位)。若是swpd的值不爲0,或者比較大,只要si、so的值長期爲0,這種狀況下通常不用擔憂,不會影響系統性能。
free列表示當前空閒的物理內存數量(以k爲單位)
buff列表示buffers cache的內存數量,通常對塊設備的讀寫才須要緩衝。
cache列表示page cached的內存數量,通常做爲文件系統cached,頻繁訪問的文件都會被cached,若是cache值較大,說明cached的文件數較多,若是此時IO中bi比較小,說明文件系統效率比較好。

  • swap

si列表示由磁盤調入內存,也就是內存進入內存交換區的數量。
so列表示由內存調入磁盤,也就是內存交換區進入內存的數量。
通常狀況下,si、so的值都爲0,若是si、so的值長期不爲0,則表示系統內存不足。須要增長系統內存。

4.磁盤I/O性能評估

1)磁盤存儲基礎

  • 熟悉RAID存儲方式,能夠根據應用的不一樣,選擇不一樣的RAID方式。
  • 儘量用內存的讀寫代替直接磁盤I/O,使頻繁訪問的文件或數據放入內存中進行操做處理,由於內存讀寫操做比直接磁盤讀寫的效率要高千倍。
  • 將常常進行讀寫的文件與長期不變的文件獨立出來,分別放置到不一樣的磁盤設備上。
  • 對於寫操做頻繁的數據,能夠考慮使用裸設備代替文件系統。

使用裸設備的優勢有:

  • 數據能夠直接讀寫,不須要通過操做系統級的緩存,節省了內存資源,避免了內存資源爭用。
  • 避免了文件系統級的維護開銷,好比文件系統須要維護超級塊、I-node等。
  • 避免了操做系統的cache預讀功能,減小了I/O請求。

使用裸設備的缺點是:

  • 數據管理、空間管理不靈活,須要很專業的人來操做。

2)利用iostat評估磁盤性能

Shell

 

1

2

3

4

5

6

7

8

9

10

11

[root@webserver ~]# iostat -d 2 3

Linux 2.6.9-42.ELsmp (webserver) 12/01/2008 _i686_ (8 CPU)

 

Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn

sda 1.87 2.58 114.12 6479462 286537372

 

Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn

sda 0.00 0.00 0.00 0 0

 

Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn

sda 1.00 0.00 12.00 0 24

對上面每項的輸出解釋以下:

  • Blk_read/s表示每秒讀取的數據塊數。
  • Blk_wrtn/s表示每秒寫入的數據塊數。
  • Blk_read表示讀取的全部塊數。
  • Blk_wrtn表示寫入的全部塊數。
  1. 能夠經過Blk_read/s和Blk_wrtn/s的值對磁盤的讀寫性能有一個基本的瞭解,若是Blk_wrtn/s值很大,表示磁盤的寫操做很頻繁,能夠考慮優化磁盤或者優化程序,若是Blk_read/s值很大,表示磁盤直接讀取操做不少,能夠將讀取的數據放入內存中進行操做。
  2. 對於這兩個選項的值沒有一個固定的大小,根據系統應用的不一樣,會有不一樣的值,可是有一個規則仍是能夠遵循的:長期的、超大的數據讀寫,確定是不正常的,這種狀況必定會影響系統性能。

3)利用sar評估磁盤性能
經過「sar –d」組合,能夠對系統的磁盤IO作一個基本的統計,請看下面的一個輸出:

Shell

 

1

2

3

4

5

6

7

8

9

10

11

12

13

14

[root@webserver ~]# sar -d 2 3

Linux 2.6.9-42.ELsmp (webserver) 11/30/2008 _i686_ (8 CPU)

 

11:09:33 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util

11:09:35 PM dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

 

11:09:35 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util

11:09:37 PM dev8-0 1.00 0.00 12.00 12.00 0.00 0.00 0.00 0.00

 

11:09:37 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util

11:09:39 PM dev8-0 1.99 0.00 47.76 24.00 0.00 0.50 0.25 0.05

 

Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util

Average: dev8-0 1.00 0.00 19.97 20.00 0.00 0.33 0.17 0.02

須要關注的幾個參數含義:

  • await表示平均每次設備I/O操做的等待時間(以毫秒爲單位)。
  • svctm表示平均每次設備I/O操做的服務時間(以毫秒爲單位)。
  • %util表示一秒中有百分之幾的時間用於I/O操做。

對以磁盤IO性能,通常有以下評判標準:

正常狀況下svctm應該是小於await值的,而svctm的大小和磁盤性能有關,CPU、內存的負荷也會對svctm值形成影響,過多的請求也會間接的致使svctm值的增長。

await值的大小通常取決與svctm的值和I/O隊列長度以及I/O請求模式,若是svctm的值與await很接近,表示幾乎沒有I/O等待,磁盤性能很好,若是await的值遠高於svctm的值,則表示I/O隊列等待太長,系統上運行的應用程序將變慢,此時能夠經過更換更快的硬盤來解決問題。

%util項的值也是衡量磁盤I/O的一個重要指標,若是%util接近100%,表示磁盤產生的I/O請求太多,I/O系統已經滿負荷的在工做,該磁盤可能存在瓶頸。長期下去,勢必影響系統的性能,能夠經過優化程序或者經過更換更高、更快的磁盤來解決此問題。

5. 網絡性能評估

1)經過ping命令檢測網絡的連通性
2)經過netstat –i組合檢測網絡接口情況
3)經過netstat –r組合檢測系統的路由表信息
4)經過sar –n組合顯示系統的網絡運行狀態

5、Oracle在Linux下的性能優化

Oracle數據庫內存參數的優化

  • oracle相關的系統內核參數
  • SGA、PGA參數設置

Oracle下磁盤存儲性能優化

  • 文件系統的選擇(ext2/ext三、xfs、ocfs2)
  • Oracle ASM存儲

1.優化oracle性能參數以前要了解的狀況

  • 1)物理內存有多大
  • 2)操做系統估計要使用多大內存
  • 3)數據庫是使用文件系統仍是裸設備
  • 4)有多少併發鏈接
  • 5)應用是OLTP類型仍是OLAP類型

2.oracle數據庫內存參數的優化

1)系統內核參數

修改 /etc/sysctl.conf 這個文件,加入如下的語句:

Shell

 

1

2

3

4

5

6

7

8

9

10

11

kernel.shmmax = 2147483648

 

kernel.shmmni = 4096

 

kernel.shmall = 2097152

 

kernel.sem = 250 32000 100 128

 

fs.file-max = 65536

 

net.ipv4.ip_local_port_range = 1024 65000

參數依次爲:

  • Kernel.shmmax:共享內存段的最大尺寸(以字節爲單位)。
  • Kernel.shmmni:系統中共享內存段的最大數量。
  • Kernel.shmall:共享內存總量,以頁爲單位。
  • fs.file-max:文件句柄數,表示在Linux系統中能夠打開的文件數量。
  • net.ipv4.ip_local_port_range:應用程序可以使用的IPv4端口範圍。

須要注意的幾個問題

關於Kernel.shmmax

Oracle SGA 由共享內存組成,若是錯誤設置 SHMMAX可能會限制SGA 的大小,SHMMAX設置不足可能會致使如下問題:ORA-27123:unable to attach to shared memory segment,若是該參數設置小於Oracle SGA設置,那麼SGA就會被分配多個共享內存段。這在繁忙的系統中可能成爲性能負擔,帶來系統問題。

Oracle建議Kernel.shmmax最好大於sga,以讓oracle共享內存區SGA在一個共享內存段中,從而提升性能。

關於Kernel.shmall

表示系統共享內存總大小,以頁爲單位。

一個32位的Linux系統,8G的內存,能夠設置kernel.shmall = 2097152,即爲: 2097152*4k/1024/1024 = 8G就是說可用共享內存一共8G,這裏的4K是32位操做系統一頁的大小,即4096字節。

關於Kernel.shmmni

表示系統中共享內存段的最大數量。系統默認是4096,通常無需修改,在SUN OS下還有Kernel.shmmin參數,表示共享內存段最小尺寸,勿要混餚!
2)SGA、PAG參數的設置

A Oracle在內存管理方面的改進

Oracle 9i經過參數PGA_AGGREGATE_TARGET參數實現PGA自動管理 Oracle 10g經過參數SGA_TARGET參數實現了SGA的自動管理,

Oracle 11g實現了數據庫全部內存塊的全自動化管理,使得動態管理SGA和PGA成爲現實。

自動內存管理的兩個參數:

  • MEMORY_TARGET:表示整個ORACLE實例所能使用的內存大小,包括PGA和SGA的總體大小,即這個參數是動態的,能夠動態控制SGA和PGA的大小。
  • MEMORY_MAX_TARGET:這個參數定義了MEMORY_TARGET最大能夠達到而不用重啓實例的值,若是沒有設置MEMORY_MAX_TARGET值,默認等於MEMORY_TARGET的值。

使用動態內存管理時,SGA_TARGET和PGA_AGGREGATE_TARGET表明它們各自內存區域的最小設置,要讓Oracle徹底控制內存管理,這兩個參數應該設置爲0。

B Oracle五種內存管理方式

  • 自動內存管理,即AMM (Automatic Memory Management)
  • 自動共享內存管理,即ASMM(Automatic Shared Memory Management)
  • 手動共享內存管理
  • 自動PGA管理
  • 手動PGA管理

自動內存管理(AMM)

默認安裝oracle11g的實例就是AMM方式。經過以下查看:

示例以下:

Shell

 

1

2

3

4

5

6

7

8

9

10

11

SQL> show parameters target

NAME TYPE VALUE

———— ——————— —————— ———————-

archive_lag_target integer 0

db_flashback_retention_target integer 1860

fast_start_io_target integer 0

fast_start_mttr_target integer 0

memory_max_target big integer 1400M

memory_target big integer 1400M

pga_aggregate_target big integer 0

sga_target big integer 0

注意:若是初始化參數 LOCK_SGA = true ,則 AMM 是不可用的。

自動共享內存管理

自動共享內存管理是oracle10g引進的,若是要使用自動共享內存管理,只需設置MEMORY_TARGET=0,而後顯式指定SGA_TARGET便可。

示例以下:

Shell

 

1

2

3

4

5

SQL> alter system set memory_target=0 scope=both;

System altered.

SQL> alter system set sga_target=1024m scope=both;

System altered.

SQL>

手工共享內存管理

Oracle9i以及之前版本,只能手工設置共享內存管理,若是要使用手動共享內存管理,首先須要設置SGA_TARGET 與MEMORY_TARGET爲0。

SGA包含主要參數有:

  • share_pool_size:共享池大小,建議300-500M之間。
  • Log_buffer:日誌緩衝區大小,建議1-3M之間。
  • Large_pool_size:大緩衝池大小,非MTS系統,建議在20-30M之間。
  • Java_pool_size:java池大小,沒有java應用時,建議10-20M之間。
  • db_cache_size:數據緩衝區大小,根據可以使用內存大小,儘量大。

自動PAG管理

Oracle9i版本引入了自動PGA管理,若是使用的是AMM管理方式,則無需擔憂PGA的配置,可是若是對對AMM管理不放心的話,能夠設置自動PGA管理,設置

WORKAREA_SIZE_POLICY = AUTO

而後指定PGA_AGGREGATE_TARGET大小便可。,

手工PAG管理

若是要作到精確的控制PGA,還能夠設置手動管理PGA,設置

WORKAREA_SIZE_POLICY = manual

而後分別指定PGA相關參數便可:

PGA相關參數有:

SORT_AREA_SIZE

SORT_AREA_RETAINED_SIZE,

3.Oracle下磁盤存儲性能優化

① 選擇文件系統存取數據

文件系統的選擇

  • 單一文件系統(ext二、ext三、xfs等)
  • 集羣文件系統(gfs、ocfs2)

文件系統存儲優缺點:

優勢:管理維護方便。

缺點:數據讀寫要通過操做系統級的緩存,效率不是很高。

② ASM(Automatic Storage Management)

ASM優勢:

數據可直接讀寫,無需通過操做系統存取效率很高,讀寫效率與直接的原始設備基本相同。

Oracle提供了專門的管理和維護工具

相關文章
相關標籤/搜索