rhel 6.4 + udev+ 11.2.0.3 + gi + asm+ rac 雙節點安裝

雙節點安裝,node一、node2css

第一塊磁盤的大小爲50G,安裝RHEL6.4 及 GI,Oracle Software。
第二塊磁盤的大小爲60G,使用udev配置成asm的磁盤。
node


第一塊盤安裝好操做系統,進入系統

chkconfig cups off
chkconfig sendmail off
chkconfig isdn off
chkconfig smartd off
chkconfig iptables off

shutdown -h now

添加第二塊硬盤,必須是共享盤

node1 添加硬盤

硬件類型:硬盤
建立磁盤:新建虛擬磁盤
磁盤容量:60GB
磁盤置備:厚置備置零
數據存儲:VMS_TEST_2
虛擬設備節點: SCSI(1:0)
磁盤模式:獨立持久


厚置備置零  建立磁盤較慢,需耐心等待

上述工做完成後,回到虛擬機設備界面,會看到除新的硬盤外,還有一個「新的SCSI控制器」:

點擊 新的SCSI控制器 ,選中右邊的 「虛擬」,或者「物理」 按鈕,表明能夠虛擬磁盤能夠共享


node2 添加剛纔的第二塊硬盤,注意是選擇「使用現有虛擬磁盤」,找到node1 前面磁盤的那個磁盤文件

硬件類型:硬盤
建立磁盤:使用現有磁盤
虛擬設備節點: SCSI(1:0)
數據文件路徑:node1 的外加硬盤
磁盤模式:獨立持久


上述工做完成後,回到虛擬機設備界面,會看到除新的硬盤外,還有一個「新的SCSI控制器」:

點擊 新的SCSI控制器 ,選中右邊的 「虛擬」,或者「物理」 按鈕,表明能夠虛擬磁盤能夠共享,與前面保持一致就能夠

至此,添加共享磁盤結束



IP 規劃,先安裝node1,node2 兩個節點


10.1.1.35  node1
10.1.1.36  node2

10.1.1.45  node1-vip
10.1.1.46  node2-vip

10.2.1.35  node1-priv
10.2.1.36  node2-priv

10.1.1.40  nodescan



-- 默認網關必須設置

vi /etc/sysconfig/networklinux

NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=node1


vi /etc/sysconfig/network-scripts/ifcfg-eth0c++

DEVICE=eth0
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:00
ONBOOT=yes
IPADDR=10.1.1.35
NETMASK=255.255.255.0
GATEWAY=10.1.1.1


vi /etc/sysconfig/network-scripts/ifcfg-eth1shell

DEVICE=eth1
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:0A
ONBOOT=yes
IPADDR=10.2.1.35
NETMASK=255.255.255.0
GATEWAY=10.2.1.1


--重啓網絡服務,使修改生效
service network restart


vi /etc/hosts

10.1.1.35  node1
10.1.1.36  node2

10.1.1.44  node1-vip
10.1.1.46  node2-vip

10.2.1.35  node1-priv
10.2.1.36  node2-priv

10.1.1.40  nodescan


創建oracle,grid用戶,在node1,node2 兩個節點都要執行,必須用-g -u 來保證用戶ID、組ID 一致

groupadd -g 501 oinstall
groupadd -g 502 dba
groupadd -g 503 oper

groupadd -g 504 asmadmin
groupadd -g 505 asmdba
groupadd -g 506 asmoper

useradd -u 1100 -g oinstall -G asmdba,dba,oper oracle
useradd -u 1110 -g oinstall -G asmadmin,asmdba,asmoper,dba,oper grid

passwd oracle   
passwd grid      


--能夠按照以下步驟手動配置SSH等效用戶,也能夠安裝軟件界面時有ssh的等效性配置
--確保 grid 《=》 grid,oracle《=》oracle


不能一次copy,要逐條執行。

在node1:oracle,grid 用戶下
 mkdir ~/.ssh
 chmod 700 ~/.ssh
 ssh-keygen -t rsa
 ssh-keygen -t dsa

在node2:oracle,grid 用戶下
 mkdir ~/.ssh
 chmod 700 ~/.ssh
 ssh-keygen -t rsa
 ssh-keygen -t dsa

在node1:oracle,grid 用戶下
 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
 scp ~/.ssh/authorized_keys node2:~/.ssh/authorized_keys

在node2:oracle,grid 用戶下
 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
 scp ~/.ssh/authorized_keys node1:~/.ssh/authorized_keys


在兩臺機器上都坐下測試
在node1:oracle,grid 用戶下
 ssh node1 date
 ssh node2 date
 ssh node1-priv date 
 ssh node2-priv date

在node2:oracle,grid 用戶下
 ssh node1 date
 ssh node2 date
 ssh node1-priv date 
 ssh node2-priv date

如若失敗(提示要求輸入密碼,可輸入或爲空)可再次執行上面語句

建立目錄,node1,node2 兩個節點上都要執行

注意數據庫

grid用戶下的ORACLE_BASE 和ORACLE_HOME 是並列的,不是包含的關係,bash

oracle用戶下的ORACLE_BASE 和ORACLE_HOME依舊是包含的關係


 root 用戶下
 -- grid 用戶
 mkdir -p /u01/app/gridbase
 mkdir -p /u01/app/grid/product/11.2.0/grid_1
 chown -R grid:oinstall /u01
 
 -- oracle 用戶
 mkdir -p /u01/app/oracle/product/11.2.0/db_1
 chown -R oracle:oinstall /u01/app/oracle

 chmod -R 775 /u01/

 
使用udev綁定硬件,node1,node2 兩個節點上都要執行


rhel 6 從內核層級剔除了 asmlib 相關的代碼,須要使用udev來綁定硬件
若是是 oel 6 ,使用 asmlib 或者 udev均可以
11gr2能夠將ocr,votedisk 放在asm裏,不須要額外配置裸設備


1. 在 /etc/udev/rules.d/99-oracle-asmdevices.rules 配置設備了
# cd /etc/udev/rules.d/
# touch 99-oracle-asmdevices.rules


#添加記錄到/etc/scsi_id.config,若是沒有該文件,則手動建立
echo "options=--whitelisted --replace-whitespace"  >> /etc/scsi_id.config


2. 將結果複製到 /etc/udev/rules.d/99-oracle-asmdevices.rules 
沒有對sdb進行分區,執行以下shell腳本,
for i in b ;
do
echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""      
done


對sdb 進行了分區,執行以下shell腳本,
for i in b1 b2 b3
do
echo "KERNEL==\"sd$i\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$parent\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd${i:0:1}`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""      
done;

注意未分區用 $name
分區用 $parent

3. vi /etc/udev/rules.d/99-oracle-asmdevices.rules 

沒有對sdb進行分區
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660"

若是對裸盤分區的話應該是這個樣子
在 Linux 5下,可使用以下命令:
# /sbin/scsi_id -g -u -s /block/sdb/sdb1

在 Linux 6下,可使用以下命令:
# /sbin/scsi_id -g -u /dev/sdb1

這是分區盤的 99-oracle-asmdevices.rules內容

KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb1", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb2", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb3", OWNER="grid", GROUP="asmadmin", MODE="0660"


Load updated block device partition tables.服務器


# /sbin/partprobe /dev/sdb1
# /sbin/partprobe /dev/sdb2
# /sbin/partprobe /dev/sdb3




4. 用udevadm進行測試,注意udevadm命令不接受/dev/sdc這樣的掛載設備名,必須是使用/sys/block/sdb這樣的原始設備名。

udevadm test /sys/block/sdb
udevadm info --query=all --path=/sys/block/sdb
udevadm info --query=all --name=asm-diskb

udevadm info --query=all --name=asm-diskb1
udevadm info --query=all --name=asm-diskb2
udevadm info --query=all --name=asm-diskb3 

在顯示中,有相似以下輸出,表示測試正確,/dev/sdb設備在udev啓動之後將會綁定爲/dev/asm-diskb:

udevadm_test: UDEV_LOG=6
udevadm_test: DEVPATH=/devices/pci0000:00/0000:00:16.0/0000:0b:00.0/host1/target1:0:0/1:0:0:0/block/sdb
udevadm_test: MAJOR=8
udevadm_test: MINOR=16
udevadm_test: DEVNAME=/dev/sdb
udevadm_test: DEVTYPE=disk
udevadm_test: ACTION=add
udevadm_test: SUBSYSTEM=block
 
5. 啓動udev
#/sbin/udevadm control --reload-rules

#/sbin/start_udev

6. 檢查設備是否正確綁定

# ls -l /dev/asm*
brw-rw---- 1 grid dba 8, 32 Oct 26 21:24 /dev/asm-diskb1
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb2
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb3


配置用戶的配置文件,node1,node2 兩個節點上都要執行,注意ORACLE_SID的差別

oracle 用戶的.bash_profile 文件,注意節點不一樣,ORACLE_SID也是不同的
vi /home/oracle/.bash_profile

export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export ORACLE_SID=rac01
#export ORACLE_SID=rac02

#export TNS_ADMIN=$ORACLE_HOME/network/admin
#export ORA_NLS10=$ORACLE_HOME/nls/data
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
export NLS_DATE_FORMAT='YYYY-MM-DD HH24:MI:SS'

export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin
export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin
export PATH=${PATH}:$ORACLE_BASE/common/oracle/bin

export LD_LIBRARY_PATH=$ORACLE_HOME/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib

export CLASSPATH=$ORACLE_HOME/JRE
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib網絡


export TEMP=/tmp
export TMP=/tmp

export TMPDIR=/tmpsession


grid 用戶的.bash_profile 文件, ORACLE_HOSTNAME請自行設置,注意節點不一樣,ORACLE_SID也是不同的
vi /home/grid/.bash_profile

export ORACLE_BASE=/u01/app/gridbase
export ORACLE_HOME=/u01/app/grid/product/11.2.0/grid_1
export ORACLE_SID=+ASM1
#export ORACLE_SID=+ASM2

export PATH=$ORACLE_HOME/bin:$PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

export TEMP=/tmp
export TMP=/tmp
export TMPDIR=/tmp




配置yum,安裝依賴的rpm,node1,node2 兩個節點上都要執行

vi /etc/yum.conf

追加以下內容

[base]
name=base pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release

[updates-released]
name= updates-released pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release

修改其中的 gpgcheck參數,改成gpgcheck=0 
修改其中的 enabled參數,改成enabled=1 



sftp 上傳 GI,DATABASE 軟件,上傳到node1 節點就能夠了

chown grid:oinstall p10404530_112030_Linux-x86-64_3of7.zip

chown oracle:oinstall p10404530_112030_Linux-x86-64_1of7.zip
chown oracle:oinstall p10404530_112030_Linux-x86-64_2of7.zip


gird 用戶下安裝

unzip p10404530_112030_Linux-x86-64_3of7.zip

grid 用戶下驗證安裝環境
./runcluvfy.sh stage -pre crsinst -n node1,node2 -verbose


以下的包必需安裝
Oracle Linux 6 and Red Hat Enterprise Linux 6
The following packages (or later versions) must be installed:


binutils-2.20.51.0.2-5.11.el6 (x86_64)
compat-libcap1-1.10-1 (x86_64)
compat-libstdc++-33-3.2.3-69.el6 (x86_64)
compat-libstdc++-33-3.2.3-69.el6.i686
gcc-4.4.4-13.el6 (x86_64)
gcc-c++-4.4.4-13.el6 (x86_64)
glibc-2.12-1.7.el6 (i686)
glibc-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6.i686
ksh
libgcc-4.4.4-13.el6 (i686)
libgcc-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6.i686
libstdc++-devel-4.4.4-13.el6 (x86_64)
libstdc++-devel-4.4.4-13.el6.i686
libaio-0.3.107-10.el6 (x86_64)
libaio-0.3.107-10.el6.i686
libaio-devel-0.3.107-10.el6 (x86_64)
libaio-devel-0.3.107-10.el6.i686
make-3.81-19.el6
sysstat-9.0.4-11.el6 (x86_64)

unixODBC-2.2.14-11.el6 (x86_64) or later
unixODBC-2.2.14-11.el6.i686 or later
unixODBC-devel-2.2.14-11.el6 (x86_64) or later
unixODBC-devel-2.2.14-11.el6.i686 or later

rpm -q binutils compat-libstdc++-33 elfutils gcc glibc libaio libgcc libstdc++ make sysstat unixODBC unixODBC-devel


修改OS 參數,node1,node2 兩個節點上都要執行

vi /etc/sysctl.conf

#kernel.shmall = 2097152
#kernel.shmmax = 536870912
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.aio-max-nr = 1048576
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048586

sysctl -p 當即生效

vi /etc/security/limits.conf
grid soft nproc 655350 
grid hard nproc 655350
grid soft nofile 655350 
grid hard nofile 655350 

orcle soft nproc 655350 
orcle hard nproc 655350
orcle soft nofile 655350 
orcle hard nofile 655350

vi /etc/pam.d/login
session    required     /lib64/security/pam_limits.so
session    required     pam_limits.so

vi /etc/selinux/config
SELINUX=disabled

清除 ntp 服務,node1,node2 兩個節點上都要執行
oracle在grid安裝時須要從新配置(CTSS),避免衝突,事先清除

[root@node1 /]# /sbin/service ntpd stop
Shutting down ntpd:                                        [FAILED]
[root@node1 /]# chkconfig ntpd off

[root@node1 /]# mv /etc/ntp.conf /etc/ntp.conf.201604213
或者
[root@node1 /]# rm -rf /etc/ntp.conf


哇塞哇塞,基礎工做終於作完了,開始安裝clusterware,


Step 1 of 18: Download Software Updates

Skip software updates

Step 2 of 18: Select Installation Option

Install and Configure Grid Infrastructure for a Cluster

Step 3 of 18: Select Installation Type

Advanced Installation

Step 4 of 18: Select Product Languages

English

Step 5 of 18: Grid Plug and Play Information

Cluser Name :node
SCAN   Name :nodescan
SCAN   Port :1521

GNS 不配置


Step 6 of 16: Cluster Node Information

click Add ,then input Public Hostname: node2
                     Virtual Hostname: node2-vip

click SSH Connectivity,then input OS Password: 

始終失敗,就須要手動配置了,參考前面被註釋的代碼

Step 7 of 18: Specify Network Interface Usage

eth0 public
eth1 private

INS-41113: 說明 public 和 private 不能在同一網段

eth0 10.1.1.0 public
eth1 10.2.1.0  private

Step 8 of 18:Storage Option Information

Oracle Automatic Storage Management(Oracle ASM)

Step 9 of 18:Create ASM Disk Group

Disk Group Name: DG_DATA_001

Redundancy:External

AU Size:1 MB

ORCL:VOL1
ORCL:VOL2

Step 10 of 18:Specify ASM Password

Use sames passwords for these accounts

XXXXX

SYS
ASMSNMP


Step 11 of 18:Failure Isolation Support

Do not user Intelligent Platform Management Interface(IPMI)


Step 12 of 18:Privileged Operating System Groups

asmdba
asmoper
asmadmin


Step 13 of 18:Specify Installatin Location

Oracle Base: /u01/app/gridbase


Software Location: /u01/app/grid/product/11.2.0/grid_1

Step 14 of 18:Create Inventory

Inventory Directory: /u01/app/oraInventroy


Step 15 of 18:Perform Prerequisite Checks

Grid的安裝須要檢查如下幾項:
一、 物理內存、交換空間
二、 內核參數的設置
三、 軟件包是否知足
四、 NTP是否配置
若是Fixable列顯示的是YES,則咱們能夠經過腳本進行修復,咱們須要點擊「Fix&Check Again」,系統會自動生成SHELL腳本進行修復。對於NTP咱們能夠忽略
缺乏的rpm包用 yum install 安裝就能夠了。
反覆多check 幾回

Task resolv.conf Integrity 是因爲沒有使用DNS,能夠忽略

Step 16 of 18:Summary

Save Response File : /home/grid/grid.rsp

Step 17 of 18:Install Product

/u01/app/oraInventory/orainstRoot.sh           node1,node2
/u01/app/grid/product/11.2.0/grid_1/root.sh    node1,node2

Step 18 of 18:Finish


能否用 '/etc/hosts'來解析 SCAN而不用 DNS或 GNS?
Oracle強烈建議不要在 hosts文件中配置SCAN IP 地址。可是可使用hosts文件來解析SCAN IP,
只不過只能解析成一個SCAN IP地址。
 
若是使用 hosts文件來解析 SCAN名稱,則在安裝結束時會遇到ClusterVerification Utility失敗錯誤,


詳細信息請見metalink文章 NOTE 887471.1 。



最後一步 驗證節點時間時有可能會出錯,若是前期對ntpd作了修改,應該不會出現這個錯誤。


INFO: Check CTSS state started...
INFO: CTSS is in Active state. Proceeding with check of clock time offsets on all nodes...
INFO: PRVF-9661 :  Time offset is greater than acceptable limit on node "rac2" [actual = "-283800.0", acceptable = "1000.0" ] 
INFO: PRVF-9652 : Cluster Time Synchronization Services check failed


node1,node2兩個節點的grid用戶下運行 oifcfg 命令配置或查看:


[grid@node1 bin]# ./oifcfg setif -global eth0/10.1.1.0:public
[grid@node1 bin]# ./oifcfg setif -global eth1/10.2.1.0:cluster_interconnect
[grid@node1 bin]# ./oifcfg getif
eth0  10.1.1.0  global  public
eth1  10.2.1.0  global  cluster_interconnect

clusterware 就安裝結束. 


確認一下CRS的安裝狀況

$ ls -l /etc/init.d/init.* 
grid 用戶下 
$ ORACLE_HOME/bin/olsnodes -n 

$ ORACLE_HOME/bin/crsctl check has
$ ORACLE_HOME/bin/crsctl check crs

$ ORACLE_HOME/bin/crsctl check ctss
$ ORACLE_HOME/bin/crsctl check css
$ ORACLE_HOME/bin/crsctl check evm

$ ORACLE_HOME/bin/crsctl check cluster
$ ORACLE_HOME/bin/crsctl check cluster -all

$ ORACLE_HOME/bin/crsctl get css misscount
$ ORACLE_HOME/bin/crsctl get css disktimeout
$ ORACLE_HOME/bin/crsctl get css reboottime
$ ORACLE_HOME/bin/crsctl get css diagwait

$ ORACLE_HOME/bin/crsctl query css votedisk

$ ORACLE_HOME/bin/crsctl status resource 
$ ORACLE_HOME/bin/crsctl status resource -t -init
$ ORACLE_HOME/bin/crs_stat -t -v

建立asm磁盤(asm實例在clusterware安裝過程已經建立),運行asmca,建立DG_DATA_001
或者在前面都已經建立完畢

clusterware終於安裝完了,開始安裝database(僅安裝數據庫軟件)

下一步,一直下一步 注意選擇 only database software

Step 4 of 10 Grid Installation Options


oracle用戶下的SSH 等效性, 前面配置額等效性,這裏check 一下就行了。


Step 9 of 10 Perform Prerequisite Checks

安裝RAC數據庫出現PRCT-1011錯誤。

詳細錯誤信息爲:

An internal error occurred within cluster verification framework
Unable to obtain network interface list from Oracle
ClusterwarePRCT-1011: Failed to run 「oifcfg」. Detailed error: null

致使這個錯誤的緣由ORA_NLS10環境變量設置有誤。能夠將不設置這個環境變量,或將其設置到正確的位置:

unset ORA_NLS10

ORA_NLS10的正確的位置指向$GRID_HOME/nls/data,取消設置或將其設置到正確的位置後,從新啓動圖形化安裝工具既可。

PRCT-1011錯誤還有多是OCR中記錄的網絡設置不正確,具體描述能夠參考metalink文檔 [ID 1380183.1]。


以後運行
/u01/app/oracle/product/11.2.0/db_1/root.sh node1,node2

分別運行後 數據庫軟件就算安裝完畢了

開始建立數據庫,運行dbca
[oracle@node1 database]$ dbca

選擇RAC database

create database

選擇全部節點

選擇custom database

注意存儲時選擇ASM,

Database Services 這裏,
你選擇Add你一個新的service, 隨便叫名字,好比pyb。而後選擇 TAF Policy,是Basic。 這個服務在RAC 
的Failover中會用到,若是在這裏沒有配置,也能夠經過dbca命令, 選擇 Services Management 來進行配置。

Service 是 oracle ha 在服務器端 fail_over 的一種手段,11g用scan來處理

後面和單實例的就沒啥區別了!

檢查及錯誤處理


1) LOCAL_LISTENER和REMOTE_LISTENER


local_listener     string  (DESCRIPTION=(ADDRESS_LIST=(AD
     DRESS=(PROTOCOL=TCP)(HOST=10.
     1.1.44)(PORT=1521))))
 
remote_listener     string nodescan:1521  

2) ASM實例的spfile

vi init+ASM1.ora

asm_diskgroups='DG_DATA01'
asm_diskstring='/dev/asm*'
asm_power_limit=1
instance_type='asm'
large_pool_size=12M
remote_login_passwordfile='EXCLUSIVE'

STARTUP pfile=init+ASM1.ora


3) 查看 miscount,虛擬機,若是性能差,要修改

crsctl get css misscount
crsctl set css misscount 400

crsctl get css disktimeout
crsctl set css disktimeout 500

crsctl get css reboottime 

4) CRS-0184: Cannot communicate with the CRS daemon.

大部分緣由是由於CRS進程未啓動,CSS進程未啓動,致使的asm實例未啓動,形成OCR沒法訪問,能夠手動啓動asm

強行殺掉後機器自動重啓,而後

$ ps aux|grep crs|awk '{print "kill -9 " $2}'|sh 

或者 root下運行
或者使用crsctl,root 用戶下

$ORACLE_HOME/bin/crsctl stop crs
$ORACLE_HOME/bin/crsctl start crs
CRS-4123: Oracle High Availability Services has been started.

能夠查看$ORACLE_HOME/log/alertrac1.log
能夠查看$ORACLE_HOME/log/crsd/crsd.log

$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online

5)  CRS-4639: Could not contact Oracle High Availability Services

root 用戶下

crsctl check has crsctl start has crsctl stop has  
相關文章
相關標籤/搜索