AIX下的ha高可用集羣cluster

安裝ha軟件

1、安裝軟件node

最穩定的版本是5.4.0,優先安裝穩定版本5.4服務器

安裝依賴於包base.data, cluster的man包安裝失敗緣由是缺乏base.data包併發

安裝全部cluster.開頭的包,能夠不安裝cluster.man 包oracle

2、打ha補丁app

打補丁以前先執行指令:inutoc生成  .toc文件,而後smitty  update_all升級cluster      到5.4.1.0版本svg

 

ha環境的搭建注意事項

1、ha配置爲主備模式或者互備模式應該根據應用系統的要求選擇,在設置資源運行的優先級時 第一個節點就是資源組的首選運行節點。測試

2、node切換以前不須要varyoffvg ,ha能夠自動varyoffvg而且mount 其中的fsserver

3、在切換oradatavg前,必須先shutdown 掉oracle,不然oracle會宕機進程

4、在不一樣節點切換vg時,在第一次切換到新節點以前必須先執行importvg,將vg添加到AIX的ODM庫中,這樣ha才能夠varyonvg,不然找不到資源的路徑,若是想回切資源,可是以前node上執行過exportvg 即修改掉了ODM中的vg指定路徑,這樣是沒法varyonvg的,必須從新執行importvg指令添加vg的路徑到ODM庫中,ha才能自動激活vg。ip

5、ha在node間切換時,對vg只負責varyonvg 和varyonffvg 不負責importvg 和exportvg

6、ha節點間的自由切換不須要os密碼認證,由系統後臺進程通信完成

7、刪除cluster前必需要先停掉全部節點的集羣服務,不然集羣崩潰

8、集羣節點間同步信息時,同步的是集羣配置文件的內容,不是同步各個節點上的os中的內容。

 

搭建oracle ha步驟

1、安裝oracle軟件

一、

2、dbca建立oracle庫

3、配置集羣資源(service ip)

4、配置集羣資源(oradatavg)

5、配置集羣資源(app server)

6、不一樣node之間切換oracle

解決HA的 腦裂問題

1、安裝建立併發vg時必需的軟件包clvm包,該包安裝、升級、後必須重啓os

clvm包的描述:Enhanced Concurrent Logical Volume Manager

軟件包在aix6100-dvd1.iso中:安裝時進入到installp/ppc目錄下執行安裝

軟件包升級在6106中:升級時使用指令smitty update_all 直接選擇所有升級到最新版   本,不支持選擇部分軟件包升級,系統只支持相關軟件包所有升級

2、肯定共享存儲

肯定共享存儲的方法有三種:

方法一:

在共享存儲的服務器上lspv,若是對應hdiskn的PVID是相同的就能夠肯定爲    是              共享存儲

另外執行指令:bootinfo -s hdiskn,查看下對應存儲的大小,共享存儲的大小一定                       是相同的

 

方法二:

只針對IBM的存儲才能生效,只對IBM的DS系統存儲才能生效

執行指令:mpio_get_config -Av

 

顯示結果中的 User Label列值是惟一的,在211和212機器上同時執行該指令,

若是對應hdiskn的 User Lablel列值相同,就說明是共享存儲

方法三:

使用dbh_read指令,使用該指令前要確保共享存儲上沒有作心跳磁盤,不然就將                      測試信息寫入共享存儲的磁盤頭了

在211端:     /usr/sbin/rsct/bin/dhb_read -p hdisk8 -r 進入信息receive狀態

在212端:  /usr/sbin/rsct/bin/dhb_read -p hdisk8 -t  進入信息transate狀態

若是在211端能成功接收到212端發送的測試信息,就說明hdisk8盤是共享                                  存儲

3、建立併發VG,作磁盤心跳

一、在211下建立hboravg 類型爲enhanced concurrent 增長型併發vg,同時選擇不自                       動active,併發vg作磁盤心跳只是使用了併發vg的vgda區,只使用磁盤頭,不用               設置系統重啓時自動激活,

二、在211下:在併發vg下建立測試lv,目的是測試是否成功建立了併發vg,即該vg                        是否可用作                        爲併發vg來用, lv名稱: sychlv

在建立lv前須要先activevg : varyonvg hboravg

而後建立lv                                 :  smitty mklv

三、211下:

deactive vg            :  varyoffvg hboravg

四、在212下導入:

導入vg               : Importvg -V mainNum -y hboravg

在212下可以正常顯示vg中的lv,一般是lv的type顯示不是??就能夠斷定爲正            常

五、211和212端所有deactive vg

執行指令                            :varyoffvg hboravg

 

4、啓動集羣,激活gsclvmd進程,經過該進程來active併發vg,測試vg是否能夠同步

一、啓動集羣,由於varyonvg -c hboravg激活到enhanced concurrent模式時必須有gsclvmd      進程,可是gsclvmd進程是由ha啓動的,因此在激活前必須有gsclvmd進程存在

 

查看進程指令:ps  -ef | grep gsclvmd

 

二、激活vg到enhanced concurrent模式

211和212端所有執行指令:varyonvg -c hboravg

vg激活後顯示的狀態不是active而是concurrent

三、測試是不是併發vg

在211端建立testlv,正常狀況應該是自動同步到212端

在212端顯示vg的狀況:lsvg -l  hboravg

應該能夠顯示出在211端建立的lv,正常狀況自動推送到212端

在212下:

cd  /dev

ls  -l *test*

能夠正常顯示vg和lv對應的設備文件

5、添加併發vg到ha中,測試心跳是否成功

一、直接添加Configure HACMP Communication Interfaces/Devices

選擇:  Devices

選擇: aix211 hdisk8 和aix212 hdisk8

二、同步集羣

三、測試

(i)資源組目前運行在211上,

ifconfig en0 down :資源切到了211的en1網卡上

ifconfig en1 down :資源應該切換到212的en0上,同時seviceIP在211上消                       失

(ii)在212下,查看並確認資源切換是否成功,心跳是否成功

在212端: ifconfig -a  |service IP資源應該能夠成功切換到212上

重啓211的兩個網卡en0和en1,資源仍然正常運行在212節點上,而且212節點            不會死機,應該能夠正常接管資源組。

6、HA腦裂問題解決

總結:

整個過程操做順序:

建立hboravg---->建立cluster--->add node--->descover---->add network-->add interface--

-->config resource --->add resource group --->資源裝車show/change---->同步集羣到                各個節點---->啓動集羣---->varyonvg -c hboravg啓動到Enhanced Concurrent模式---

---->建立測試lv驗證併發vg----add device hdisk8(心跳磁盤)---->同步集羣到各個節點

--->down網卡測試心跳盤是否生效

本文由 蝦米 首發於【漫兮網http://www.manxinet.com)】未經容許不得以任何方式轉載,違者必將追究法律責任

相關文章
相關標籤/搜索