http://www.t086.com/article/4553、http://www.javashuo.com/article/p-odlxziwt-ce.htmljava
1、影響Linux服務器性能的因素 node
1. 操做系統級linux
Ø CPUios
Ø 內存web
Ø 磁盤I/O帶寬算法
Ø 網絡I/O帶寬數據庫
2. 程序應用級緩存
2、系統性能評估標準性能優化
影響性能因素服務器 |
評判標準 |
||
好 |
壞 |
糟糕 |
|
CPU |
user% + sys%< 70% |
user% + sys%= 85% |
user% + sys% >=90% |
內存 |
Swap In(si)=0 Swap Out(so)=0 |
Per CPU with 10 page/s |
More Swap In & Swap Out |
磁盤 |
iowait % < 20% |
iowait % =35% |
iowait % >= 50% |
其中:
%user:表示CPU處在用戶模式下的時間百分比。
%sys:表示CPU處在系統模式下的時間百分比。
%iowait:表示CPU等待輸入輸出完成時間的百分比。
swap in:即si,表示虛擬內存的頁導入,即從SWAP DISK交換到RAM
swap out:即so,表示虛擬內存的頁導出,即從RAM交換到SWAP DISK。
3、系統性能分析工具
1.經常使用系統命令
Vmstat、sar、iostat、netstat、free、ps、top等
2.經常使用組合方式
• 用vmstat、sar、iostat檢測是不是CPU瓶頸
• 用free、vmstat檢測是不是內存瓶頸
• 用iostat檢測是不是磁盤I/O瓶頸
• 用netstat檢測是不是網絡帶寬瓶頸
4、Linux性能評估與優化
1. 系統總體性能評估(uptime命令)
[root@web1 ~]# uptime
16:38:00 up 118 days, 3:01, 5 users, load average: 1.22, 1.02, 0.91
這裏須要注意的是:load average這個輸出值,這三個值的大小通常不能大於系統CPU的個數,例如,本輸出中系統有8個CPU,若是load average的三個值長期大於8時,說明CPU很繁忙,負載很高,可能會影響系統性能,可是偶爾大於8時,倒不用擔憂,通常不會影響系統性能。相反,若是load average的輸出值小於CPU的個數,則表示CPU還有空閒的時間片,好比本例中的輸出,CPU是很是空閒的。
2. CPU性能評估
(1)利用vmstat命令監控系統CPU
該命令能夠顯示關於系統各類資源之間相關性能的簡要信息,這裏咱們主要用它來看CPU一個負載狀況。
下面是vmstat命令在某個系統的輸出結果:
[root@node1 ~]# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0
0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0
0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0
l Procs
r列表示運行和等待cpu時間片的進程數,這個值若是長期大於系統CPU的個數,說明CPU不足,須要增長CPU。
b列表示在等待資源的進程數,好比正在等待I/O、或者內存交換等。
l Cpu
us列顯示了用戶進程消耗的CPU 時間百分比。us的值比較高時,說明用戶進程消耗的cpu時間多,可是若是長期大於50%,就須要考慮優化程序或算法。
sy列顯示了內核進程消耗的CPU時間百分比。Sy的值較高時,說明內核消耗的CPU資源不少。
根據經驗,us+sy的參考值爲80%,若是us+sy大於 80%說明可能存在CPU資源不足。
(2)利用sar命令監控系統CPU
sar功能很強大,能夠對系統的每一個方面進行單獨的統計,可是使用sar命令會增長系統開銷,不過這些開銷是能夠評估的,對系統的統計結果不會有很大影響。
下面是sar命令對某個系統的CPU統計輸出:
[root@webserver ~]# sar -u 3 5
Linux 2.6.9-42.ELsmp (webserver) 11/28/2008 _i686_ (8 CPU)
11:41:24 AM CPU %user %nice %system %iowait %steal %idle
11:41:27 AM all 0.88 0.00 0.29 0.00 0.00 98.83
11:41:30 AM all 0.13 0.00 0.17 0.21 0.00 99.50
11:41:33 AM all 0.04 0.00 0.04 0.00 0.00 99.92
11:41:36 AM all 90.08 0.00 0.13 0.16 0.00 9.63
11:41:39 AM all 0.38 0.00 0.17 0.04 0.00 99.41
Average: all 0.34 0.00 0.16 0.05 0.00 99.45
對上面每項的輸出解釋以下:
l %user列顯示了用戶進程消耗的CPU 時間百分比。
l %nice列顯示了運行正常進程所消耗的CPU 時間百分比。
l %system列顯示了系統進程消耗的CPU時間百分比。
l %iowait列顯示了IO等待所佔用的CPU時間百分比
l %steal列顯示了在內存相對緊張的環境下pagein強制對不一樣的頁面進行的steal操做 。
l %idle列顯示了CPU處在空閒狀態的時間百分比。
問題
1.你是否遇到過系統CPU總體利用率不高,而應用緩慢的現象?
在一個多CPU的系統中,若是程序使用了單線程,會出現這麼一個現象,CPU的總體使用率不高,可是系統應用卻響應緩慢,這多是因爲程序使用單線程的緣由,單線程只使用一個CPU,致使這個CPU佔用率爲100%,沒法處理其它請求,而其它的CPU卻閒置,這就致使了總體CPU使用率不高,而應用緩慢現象的發生。
3. 內存性能評估
(1)利用free指令監控內存
free是監控linux內存使用情況最經常使用的指令,看下面的一個輸出:
[root@webserver ~]# free -m
total used free shared buffers cached
Mem: 8111 7185 926 0 243 6299
-/+ buffers/cache: 643 7468
Swap: 8189 0 8189
通常有這樣一個經驗公式:應用程序可用內存/系統物理內存>70%時,表示系統內存資源很是充足,不影響系統性能,應用程序可用內存/系統物理內存<20%時,表示系統內存資源緊缺,須要增長系統內存,20%<應用程序可用內存/系統物理內存<70%時,表示系統內存資源基本能知足應用需求,暫時不影響系統性能。
3.內存性能評估
(1)利用free指令監控內存
free是監控linux內存使用情況最經常使用的指令,看下面的一個輸出:
[root@webserver ~]# free -m
total used free shared buffers cached
Mem: 8111 7185 926 0 243 6299
-/+ buffers/cache: 643 7468
Swap: 8189 0 8189
通常有這樣一個經驗公式:應用程序可用內存/系統物理內存>70%時,表示系統內存資源很是充足,不影響系統性能,應用程序可用內存/系統物理內存<20%時,表示系統內存資源緊缺,須要增長系統內存,20%<應用程序可用內存/系統物理內存<70%時,表示系統內存資源基本能知足應用需求,暫時不影響系統性能。
(2)利用vmstat命令監控內存
[root@node1 ~]# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 162240 8304 67032 0 0 13 21 1007 23 0 1 98 0 0
0 0 0 162240 8304 67032 0 0 1 0 1010 20 0 1 100 0 0
0 0 0 162240 8304 67032 0 0 1 1 1009 18 0 1 99 0 0
l memory
swpd列表示切換到內存交換區的內存數量(以k爲單位)。若是swpd的值不爲0,或者比較大,只要si、so的值長期爲0,這種狀況下通常不用擔憂,不會影響系統性能。
free列表示當前空閒的物理內存數量(以k爲單位)
buff列表示buffers cache的內存數量,通常對塊設備的讀寫才須要緩衝。
cache列表示page cached的內存數量,通常做爲文件系統cached,頻繁訪問的文件都會被cached,若是cache值較大,說明cached的文件數較多,若是此時IO中bi比較小,說明文件系統效率比較好。
l swap
si列表示由磁盤調入內存,也就是內存進入內存交換區的數量。
so列表示由內存調入磁盤,也就是內存交換區進入內存的數量。
通常狀況下,si、so的值都爲0,若是si、so的值長期不爲0,則表示系統內存不足。須要增長系統內存。
4.磁盤I/O性能評估
(1)磁盤存儲基礎
l 熟悉RAID存儲方式,能夠根據應用的不一樣,選擇不一樣的RAID方式。
l 儘量用內存的讀寫代替直接磁盤I/O,使頻繁訪問的文件或數據放入內存中進行操做處理,由於內存讀寫操做比直接磁盤讀寫的效率要高千倍。
l 將常常進行讀寫的文件與長期不變的文件獨立出來,分別放置到不一樣的磁盤設備上。
l 對於寫操做頻繁的數據,能夠考慮使用裸設備代替文件系統。
使用裸設備的優勢有:
ü 數據能夠直接讀寫,不須要通過操做系統級的緩存,節省了內存資源,避免了內存資源爭用。
ü 避免了文件系統級的維護開銷,好比文件系統須要維護超級塊、I-node等。
ü 避免了操做系統的cache預讀功能,減小了I/O請求。
使用裸設備的缺點是:
ü 數據管理、空間管理不靈活,須要很專業的人來操做。
(2)利用iostat評估磁盤性能
[root@webserver ~]# iostat -d 2 3
Linux 2.6.9-42.ELsmp (webserver) 12/01/2008 _i686_ (8 CPU)
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 1.87 2.58 114.12 6479462 286537372
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 0.00 0.00 0.00 0 0
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 1.00 0.00 12.00 0 24
對上面每項的輸出解釋以下:
Blk_read/s表示每秒讀取的數據塊數。
Blk_wrtn/s表示每秒寫入的數據塊數。
Blk_read表示讀取的全部塊數。
Blk_wrtn表示寫入的全部塊數。
Ø 能夠經過Blk_read/s和Blk_wrtn/s的值對磁盤的讀寫性能有一個基本的瞭解,若是Blk_wrtn/s值很大,表示磁盤的寫操做很頻繁,能夠考慮優化磁盤或者優化程序,若是Blk_read/s值很大,表示磁盤直接讀取操做不少,能夠將讀取的數據放入內存中進行操做。
Ø 對於這兩個選項的值沒有一個固定的大小,根據系統應用的不一樣,會有不一樣的值,可是有一個規則仍是能夠遵循的:長期的、超大的數據讀寫,確定是不正常的,這種狀況必定會影響系統性能。
(3)利用sar評估磁盤性能
經過「sar –d」組合,能夠對系統的磁盤IO作一個基本的統計,請看下面的一個輸出:
[root@webserver ~]# sar -d 2 3
Linux 2.6.9-42.ELsmp (webserver) 11/30/2008 _i686_ (8 CPU)
11:09:33 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
11:09:35 PM dev8-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
11:09:35 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
11:09:37 PM dev8-0 1.00 0.00 12.00 12.00 0.00 0.00 0.00 0.00
11:09:37 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
11:09:39 PM dev8-0 1.99 0.00 47.76 24.00 0.00 0.50 0.25 0.05
Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
Average: dev8-0 1.00 0.00 19.97 20.00 0.00 0.33 0.17 0.02
須要關注的幾個參數含義:
await表示平均每次設備I/O操做的等待時間(以毫秒爲單位)。
svctm表示平均每次設備I/O操做的服務時間(以毫秒爲單位)。
%util表示一秒中有百分之幾的時間用於I/O操做。
對以磁盤IO性能,通常有以下評判標準:
正常狀況下svctm應該是小於await值的,而svctm的大小和磁盤性能有關,CPU、內存的負荷也會對svctm值形成影響,過多的請求也會間接的致使svctm值的增長。
await值的大小通常取決與svctm的值和I/O隊列長度以及I/O請求模式,若是svctm的值與await很接近,表示幾乎沒有I/O等待,磁盤性能很好,若是await的值遠高於svctm的值,則表示I/O隊列等待太長,系統上運行的應用程序將變慢,此時能夠經過更換更快的硬盤來解決問題。
%util項的值也是衡量磁盤I/O的一個重要指標,若是%util接近100%,表示磁盤產生的I/O請求太多,I/O系統已經滿負荷的在工做,該磁盤可能存在瓶頸。長期下去,勢必影響系統的性能,能夠經過優化程序或者經過更換更高、更快的磁盤來解決此問題。
5. 網絡性能評估
(1)經過ping命令檢測網絡的連通性
(2)經過netstat –i組合檢測網絡接口情況
(3)經過netstat –r組合檢測系統的路由表信息
(4)經過sar –n組合顯示系統的網絡運行狀態
5、Oracle在Linux下的性能優化
Oracle數據庫內存參數的優化
Ø 與oracle相關的系統內核參數
Ø SGA、PGA參數設置
Oracle下磁盤存儲性能優化
Ø 文件系統的選擇(ext2/ext三、xfs、ocfs2)
Ø Oracle ASM存儲
1.優化oracle性能參數以前要了解的狀況
1)物理內存有多大
2)操做系統估計要使用多大內存
3)數據庫是使用文件系統仍是裸設備
4)有多少併發鏈接
5)應用是OLTP類型仍是OLAP類型
2.oracle數據庫內存參數的優化
(1)系統內核參數
修改 /etc/sysctl.conf 這個文件,加入如下的語句:
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.shmall = 2097152
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
參數依次爲:
Kernel.shmmax:共享內存段的最大尺寸(以字節爲單位)。
Kernel.shmmni:系統中共享內存段的最大數量。
Kernel.shmall:共享內存總量,以頁爲單位。
fs.file-max:文件句柄數,表示在Linux系統中能夠打開的文件數量。
net.ipv4.ip_local_port_range:應用程序可以使用的IPv4端口範圍。
須要注意的幾個問題
關於Kernel.shmmax
Oracle SGA 由共享內存組成,若是錯誤設置 SHMMAX可能會限制SGA 的大小,SHMMAX設置不足可能會致使如下問題:ORA-27123:unable to attach to shared memory segment,若是該參數設置小於Oracle SGA設置,那麼SGA就會被分配多個共享內存段。這在繁忙的系統中可能成爲性能負擔,帶來系統問題。
Oracle建議Kernel.shmmax最好大於sga,以讓oracle共享內存區SGA在一個共享內存段中,從而提升性能。
關於Kernel.shmall
表示系統共享內存總大小,以頁爲單位。
一個32位的Linux系統,8G的內存,能夠設置kernel.shmall = 2097152,即爲: 2097152*4k/1024/1024 = 8G就是說可用共享內存一共8G,這裏的4K是32位操做系統一頁的大小,即4096字節。
關於Kernel.shmmni
表示系統中共享內存段的最大數量。系統默認是4096,通常無需修改,在SUN OS下還有Kernel.shmmin參數,表示共享內存段最小尺寸,勿要混餚!
(2)SGA、PAG參數的設置
A Oracle在內存管理方面的改進
Oracle 9i經過參數PGA_AGGREGATE_TARGET參數實現PGA自動管理 Oracle 10g經過參數SGA_TARGET參數實現了SGA的自動管理,
Oracle 11g實現了數據庫全部內存塊的全自動化管理,使得動態管理SGA和PGA成爲現實。
自動內存管理的兩個參數:
MEMORY_TARGET:表示整個ORACLE實例所能使用的內存大小,包括PGA和SGA的總體大小,即這個參數是動態的,能夠動態控制SGA和PGA的大小。
MEMORY_MAX_TARGET:這個參數定義了MEMORY_TARGET最大能夠達到而不用重啓實例的值,若是沒有設置MEMORY_MAX_TARGET值,默認等於MEMORY_TARGET的值。
使用動態內存管理時,SGA_TARGET和PGA_AGGREGATE_TARGET表明它們各自內存區域的最小設置,要讓Oracle徹底控制內存管理,這兩個參數應該設置爲0。
B Oracle五種內存管理方式
Ø 自動內存管理,即AMM (Automatic Memory Management)
Ø 自動共享內存管理,即ASMM(Automatic Shared Memory Management)
Ø 手動共享內存管理
Ø 自動PGA管理
Ø 手動PGA管理
自動內存管理(AMM)
默認安裝oracle11g的實例就是AMM方式。經過以下查看:
示例以下:
SQL> show parameters target
NAME TYPE VALUE
------------ --------------------- ------------------ ---------------------- archive_lag_target integer 0
db_flashback_retention_target integer 1860
fast_start_io_target integer 0
fast_start_mttr_target integer 0
memory_max_target big integer 1400M
memory_target big integer 1400M
pga_aggregate_target big integer 0
sga_target big integer 0
注意:若是初始化參數 LOCK_SGA = true ,則 AMM 是不可用的。
自動共享內存管理
自動共享內存管理是oracle10g引進的,若是要使用自動共享內存管理,只需設置MEMORY_TARGET=0,而後顯式指定SGA_TARGET便可。
示例以下:
SQL> alter system set memory_target=0 scope=both;
System altered.
SQL> alter system set sga_target=1024m scope=both;
System altered.
SQL>
手工共享內存管理
Oracle9i以及之前版本,只能手工設置共享內存管理,若是要使用手動共享內存管理,首先須要設置SGA_TARGET 與 MEMORY_TARGET爲0。
SGA包含主要參數有:
share_pool_size:共享池大小,建議300-500M之間。
Log_buffer:日誌緩衝區大小,建議1-3M之間。
Large_pool_size:大緩衝池大小,非MTS系統,建議在20-30M之間。
Java_pool_size:java池大小,沒有java應用時,建議10-20M之間。
db_cache_size:數據緩衝區大小,根據可以使用內存大小,儘量大。
自動PAG管理
Oracle9i版本引入了自動PGA管理,若是使用的是AMM管理方式,則無需擔憂PGA的配置,可是若是對對AMM管理不放心的話,能夠設置自動PGA管理,設置
WORKAREA_SIZE_POLICY = AUTO
而後指定PGA_AGGREGATE_TARGET大小便可。,
手工PAG管理
若是要作到精確的控制PGA,還能夠設置手動管理PGA,設置
WORKAREA_SIZE_POLICY = manual
而後分別指定PGA相關參數便可:
PGA相關參數有:
SORT_AREA_SIZE
SORT_AREA_RETAINED_SIZE,
3.Oracle下磁盤存儲性能優化
① 選擇文件系統存取數據
文件系統的選擇
單一文件系統(ext二、ext三、xfs等)
集羣文件系統(gfs、ocfs2)
文件系統存儲優缺點:
優勢:管理維護方便。
缺點:數據讀寫要通過操做系統級的緩存,效率不是很高。
② ASM(Automatic Storage Management)
ASM優勢:
數據可直接讀寫,無需通過操做系統存取效率很高,讀寫效率與直接的原始設備基本相同。
Oracle提供了專門的管理和維護工具
關於做者
高俊峯,網名:南非螞蟻
IXPUB 「存儲設備與容災技術」及「 Linux與開源世界」版主。
喜歡oracle和 Unix/Linux技術,平時主要活動在ITPUB.net﹑IXPUB.net﹑ChinaUnix.net等大型技術社區,一直致力與oracle數據庫﹑Unix/Linux操做系統管理﹑優化領域,如今主要從事oracle數據庫管理和項目規劃設計工做,擅長oracle數據庫的備份恢復,性能調優,對Unix/Linux集羣應用也有必定的研究。