雙節點安裝,node一、node2css
第一塊磁盤的大小爲50G,安裝RHEL6.4 及 GI,Oracle Software。
第二塊磁盤的大小爲60G,使用udev配置成asm的磁盤。
node
第一塊盤安裝好操做系統,進入系統
chkconfig cups off
chkconfig sendmail off
chkconfig isdn off
chkconfig smartd off
chkconfig iptables off
shutdown -h now
添加第二塊硬盤,必須是共享盤
node1 添加硬盤
硬件類型:硬盤
建立磁盤:新建虛擬磁盤
磁盤容量:60GB
磁盤置備:厚置備置零
數據存儲:VMS_TEST_2
虛擬設備節點: SCSI(1:0)
磁盤模式:獨立持久
厚置備置零 建立磁盤較慢,需耐心等待
上述工做完成後,回到虛擬機設備界面,會看到除新的硬盤外,還有一個「新的SCSI控制器」:
點擊 新的SCSI控制器 ,選中右邊的 「虛擬」,或者「物理」 按鈕,表明能夠虛擬磁盤能夠共享
node2 添加剛纔的第二塊硬盤,注意是選擇「使用現有虛擬磁盤」,找到node1 前面磁盤的那個磁盤文件
硬件類型:硬盤
建立磁盤:使用現有磁盤
虛擬設備節點: SCSI(1:0)
數據文件路徑:node1 的外加硬盤
磁盤模式:獨立持久
上述工做完成後,回到虛擬機設備界面,會看到除新的硬盤外,還有一個「新的SCSI控制器」:
點擊 新的SCSI控制器 ,選中右邊的 「虛擬」,或者「物理」 按鈕,表明能夠虛擬磁盤能夠共享,與前面保持一致就能夠
至此,添加共享磁盤結束
IP 規劃,先安裝node1,node2 兩個節點
10.1.1.35 node1
10.1.1.36 node2
10.1.1.45 node1-vip
10.1.1.46 node2-vip
10.2.1.35 node1-priv
10.2.1.36 node2-priv
10.1.1.40 nodescan
-- 默認網關必須設置
vi /etc/sysconfig/networklinux
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=node1
vi /etc/sysconfig/network-scripts/ifcfg-eth0c++
DEVICE=eth0
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:00
ONBOOT=yes
IPADDR=10.1.1.35
NETMASK=255.255.255.0
GATEWAY=10.1.1.1
vi /etc/sysconfig/network-scripts/ifcfg-eth1shell
DEVICE=eth1
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:0A
ONBOOT=yes
IPADDR=10.2.1.35
NETMASK=255.255.255.0
GATEWAY=10.2.1.1
--重啓網絡服務,使修改生效
service network restart
vi /etc/hosts
10.1.1.35 node1
10.1.1.36 node2
10.1.1.44 node1-vip
10.1.1.46 node2-vip
10.2.1.35 node1-priv
10.2.1.36 node2-priv
10.1.1.40 nodescan
創建oracle,grid用戶,在node1,node2 兩個節點都要執行,必須用-g -u 來保證用戶ID、組ID 一致
groupadd -g 501 oinstall
groupadd -g 502 dba
groupadd -g 503 oper
groupadd -g 504 asmadmin
groupadd -g 505 asmdba
groupadd -g 506 asmoper
useradd -u 1100 -g oinstall -G asmdba,dba,oper oracle
useradd -u 1110 -g oinstall -G asmadmin,asmdba,asmoper,dba,oper grid
passwd oracle
passwd grid
--能夠按照以下步驟手動配置SSH等效用戶,也能夠安裝軟件界面時有ssh的等效性配置
--確保 grid 《=》 grid,oracle《=》oracle
不能一次copy,要逐條執行。
在node1:oracle,grid 用戶下
mkdir ~/.ssh
chmod 700 ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
在node2:oracle,grid 用戶下
mkdir ~/.ssh
chmod 700 ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
在node1:oracle,grid 用戶下
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys node2:~/.ssh/authorized_keys
在node2:oracle,grid 用戶下
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys node1:~/.ssh/authorized_keys
在兩臺機器上都坐下測試
在node1:oracle,grid 用戶下
ssh node1 date
ssh node2 date
ssh node1-priv date
ssh node2-priv date
在node2:oracle,grid 用戶下
ssh node1 date
ssh node2 date
ssh node1-priv date
ssh node2-priv date
如若失敗(提示要求輸入密碼,可輸入或爲空)可再次執行上面語句
建立目錄,node1,node2 兩個節點上都要執行
注意數據庫
grid用戶下的ORACLE_BASE 和ORACLE_HOME 是並列的,不是包含的關係,bash
oracle用戶下的ORACLE_BASE 和ORACLE_HOME依舊是包含的關係
root 用戶下
-- grid 用戶
mkdir -p /u01/app/gridbase
mkdir -p /u01/app/grid/product/11.2.0/grid_1
chown -R grid:oinstall /u01
-- oracle 用戶
mkdir -p /u01/app/oracle/product/11.2.0/db_1
chown -R oracle:oinstall /u01/app/oracle
chmod -R 775 /u01/
使用udev綁定硬件,node1,node2 兩個節點上都要執行
rhel 6 從內核層級剔除了 asmlib 相關的代碼,須要使用udev來綁定硬件
若是是 oel 6 ,使用 asmlib 或者 udev均可以
11gr2能夠將ocr,votedisk 放在asm裏,不須要額外配置裸設備
1. 在 /etc/udev/rules.d/99-oracle-asmdevices.rules 配置設備了
# cd /etc/udev/rules.d/
# touch 99-oracle-asmdevices.rules
#添加記錄到/etc/scsi_id.config,若是沒有該文件,則手動建立
echo "options=--whitelisted --replace-whitespace" >> /etc/scsi_id.config
2. 將結果複製到 /etc/udev/rules.d/99-oracle-asmdevices.rules
沒有對sdb進行分區,執行以下shell腳本,
for i in b ;
do
echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""
done
對sdb 進行了分區,執行以下shell腳本,
for i in b1 b2 b3
do
echo "KERNEL==\"sd$i\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$parent\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd${i:0:1}`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""
done;
注意未分區用 $name
分區用 $parent
3. vi /etc/udev/rules.d/99-oracle-asmdevices.rules
沒有對sdb進行分區
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660"
若是對裸盤分區的話應該是這個樣子
在 Linux 5下,可使用以下命令:
# /sbin/scsi_id -g -u -s /block/sdb/sdb1
在 Linux 6下,可使用以下命令:
# /sbin/scsi_id -g -u /dev/sdb1
這是分區盤的 99-oracle-asmdevices.rules內容
KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb1", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb2", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb3", OWNER="grid", GROUP="asmadmin", MODE="0660"
Load updated block device partition tables.服務器
# /sbin/partprobe /dev/sdb1
# /sbin/partprobe /dev/sdb2
# /sbin/partprobe /dev/sdb3
4. 用udevadm進行測試,注意udevadm命令不接受/dev/sdc這樣的掛載設備名,必須是使用/sys/block/sdb這樣的原始設備名。
udevadm test /sys/block/sdb
udevadm info --query=all --path=/sys/block/sdb
udevadm info --query=all --name=asm-diskb
udevadm info --query=all --name=asm-diskb1
udevadm info --query=all --name=asm-diskb2
udevadm info --query=all --name=asm-diskb3
在顯示中,有相似以下輸出,表示測試正確,/dev/sdb設備在udev啓動之後將會綁定爲/dev/asm-diskb:
udevadm_test: UDEV_LOG=6
udevadm_test: DEVPATH=/devices/pci0000:00/0000:00:16.0/0000:0b:00.0/host1/target1:0:0/1:0:0:0/block/sdb
udevadm_test: MAJOR=8
udevadm_test: MINOR=16
udevadm_test: DEVNAME=/dev/sdb
udevadm_test: DEVTYPE=disk
udevadm_test: ACTION=add
udevadm_test: SUBSYSTEM=block
5. 啓動udev
#/sbin/udevadm control --reload-rules
#/sbin/start_udev
6. 檢查設備是否正確綁定
# ls -l /dev/asm*
brw-rw---- 1 grid dba 8, 32 Oct 26 21:24 /dev/asm-diskb1
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb2
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb3
配置用戶的配置文件,node1,node2 兩個節點上都要執行,注意ORACLE_SID的差別
oracle 用戶的.bash_profile 文件,注意節點不一樣,ORACLE_SID也是不同的
vi /home/oracle/.bash_profile
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export ORACLE_SID=rac01
#export ORACLE_SID=rac02
#export TNS_ADMIN=$ORACLE_HOME/network/admin
#export ORA_NLS10=$ORACLE_HOME/nls/data
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
export NLS_DATE_FORMAT='YYYY-MM-DD HH24:MI:SS'
export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin
export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin
export PATH=${PATH}:$ORACLE_BASE/common/oracle/bin
export LD_LIBRARY_PATH=$ORACLE_HOME/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib
export CLASSPATH=$ORACLE_HOME/JRE
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib網絡
export TEMP=/tmp
export TMP=/tmp
export TMPDIR=/tmpsession
grid 用戶的.bash_profile 文件, ORACLE_HOSTNAME請自行設置,注意節點不一樣,ORACLE_SID也是不同的
vi /home/grid/.bash_profile
export ORACLE_BASE=/u01/app/gridbase
export ORACLE_HOME=/u01/app/grid/product/11.2.0/grid_1
export ORACLE_SID=+ASM1
#export ORACLE_SID=+ASM2
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
export TEMP=/tmp
export TMP=/tmp
export TMPDIR=/tmp
配置yum,安裝依賴的rpm,node1,node2 兩個節點上都要執行
vi /etc/yum.conf
追加以下內容
[base]
name=base pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release
[updates-released]
name= updates-released pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release
修改其中的 gpgcheck參數,改成gpgcheck=0
修改其中的 enabled參數,改成enabled=1
sftp 上傳 GI,DATABASE 軟件,上傳到node1 節點就能夠了
chown grid:oinstall p10404530_112030_Linux-x86-64_3of7.zip
chown oracle:oinstall p10404530_112030_Linux-x86-64_1of7.zip
chown oracle:oinstall p10404530_112030_Linux-x86-64_2of7.zip
gird 用戶下安裝
unzip p10404530_112030_Linux-x86-64_3of7.zip
grid 用戶下驗證安裝環境
./runcluvfy.sh stage -pre crsinst -n node1,node2 -verbose
以下的包必需安裝
Oracle Linux 6 and Red Hat Enterprise Linux 6
The following packages (or later versions) must be installed:
binutils-2.20.51.0.2-5.11.el6 (x86_64)
compat-libcap1-1.10-1 (x86_64)
compat-libstdc++-33-3.2.3-69.el6 (x86_64)
compat-libstdc++-33-3.2.3-69.el6.i686
gcc-4.4.4-13.el6 (x86_64)
gcc-c++-4.4.4-13.el6 (x86_64)
glibc-2.12-1.7.el6 (i686)
glibc-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6.i686
ksh
libgcc-4.4.4-13.el6 (i686)
libgcc-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6.i686
libstdc++-devel-4.4.4-13.el6 (x86_64)
libstdc++-devel-4.4.4-13.el6.i686
libaio-0.3.107-10.el6 (x86_64)
libaio-0.3.107-10.el6.i686
libaio-devel-0.3.107-10.el6 (x86_64)
libaio-devel-0.3.107-10.el6.i686
make-3.81-19.el6
sysstat-9.0.4-11.el6 (x86_64)
unixODBC-2.2.14-11.el6 (x86_64) or later
unixODBC-2.2.14-11.el6.i686 or later
unixODBC-devel-2.2.14-11.el6 (x86_64) or later
unixODBC-devel-2.2.14-11.el6.i686 or later
rpm -q binutils compat-libstdc++-33 elfutils gcc glibc libaio libgcc libstdc++ make sysstat unixODBC unixODBC-devel
修改OS 參數,node1,node2 兩個節點上都要執行
vi /etc/sysctl.conf
#kernel.shmall = 2097152
#kernel.shmmax = 536870912
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.aio-max-nr = 1048576
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048586
sysctl -p 當即生效
vi /etc/security/limits.conf
grid soft nproc 655350
grid hard nproc 655350
grid soft nofile 655350
grid hard nofile 655350
orcle soft nproc 655350
orcle hard nproc 655350
orcle soft nofile 655350
orcle hard nofile 655350
vi /etc/pam.d/login
session required /lib64/security/pam_limits.so
session required pam_limits.so
vi /etc/selinux/config
SELINUX=disabled
清除 ntp 服務,node1,node2 兩個節點上都要執行
oracle在grid安裝時須要從新配置(CTSS),避免衝突,事先清除
[root@node1 /]# /sbin/service ntpd stop
Shutting down ntpd: [FAILED]
[root@node1 /]# chkconfig ntpd off
[root@node1 /]# mv /etc/ntp.conf /etc/ntp.conf.201604213
或者
[root@node1 /]# rm -rf /etc/ntp.conf
哇塞哇塞,基礎工做終於作完了,開始安裝clusterware,
Step 1 of 18: Download Software Updates
Skip software updates
Step 2 of 18: Select Installation Option
Install and Configure Grid Infrastructure for a Cluster
Step 3 of 18: Select Installation Type
Advanced Installation
Step 4 of 18: Select Product Languages
English
Step 5 of 18: Grid Plug and Play Information
Cluser Name :node
SCAN Name :nodescan
SCAN Port :1521
GNS 不配置
Step 6 of 16: Cluster Node Information
click Add ,then input Public Hostname: node2
Virtual Hostname: node2-vip
click SSH Connectivity,then input OS Password:
始終失敗,就須要手動配置了,參考前面被註釋的代碼
Step 7 of 18: Specify Network Interface Usage
eth0 public
eth1 private
INS-41113: 說明 public 和 private 不能在同一網段
eth0 10.1.1.0 public
eth1 10.2.1.0 private
Step 8 of 18:Storage Option Information
Oracle Automatic Storage Management(Oracle ASM)
Step 9 of 18:Create ASM Disk Group
Disk Group Name: DG_DATA_001
Redundancy:External
AU Size:1 MB
ORCL:VOL1
ORCL:VOL2
Step 10 of 18:Specify ASM Password
Use sames passwords for these accounts
XXXXX
SYS
ASMSNMP
Step 11 of 18:Failure Isolation Support
Do not user Intelligent Platform Management Interface(IPMI)
Step 12 of 18:Privileged Operating System Groups
asmdba
asmoper
asmadmin
Step 13 of 18:Specify Installatin Location
Oracle Base: /u01/app/gridbase
Software Location: /u01/app/grid/product/11.2.0/grid_1
Step 14 of 18:Create Inventory
Inventory Directory: /u01/app/oraInventroy
Step 15 of 18:Perform Prerequisite Checks
Grid的安裝須要檢查如下幾項:
一、
物理內存、交換空間
二、
內核參數的設置
三、
軟件包是否知足
四、
NTP是否配置
若是Fixable列顯示的是YES,則咱們能夠經過腳本進行修復,咱們須要點擊「Fix&Check Again」,系統會自動生成SHELL腳本進行修復。對於NTP咱們能夠忽略
缺乏的rpm包用 yum install 安裝就能夠了。
反覆多check 幾回
Task resolv.conf Integrity 是因爲沒有使用DNS,能夠忽略
Step 16 of 18:Summary
Save Response File : /home/grid/grid.rsp
Step 17 of 18:Install Product
/u01/app/oraInventory/orainstRoot.sh node1,node2
/u01/app/grid/product/11.2.0/grid_1/root.sh node1,node2
Step 18 of 18:Finish
能否用 '/etc/hosts'來解析 SCAN而不用 DNS或 GNS?
Oracle強烈建議不要在 hosts文件中配置SCAN IP 地址。可是可使用hosts文件來解析SCAN IP,
只不過只能解析成一個SCAN IP地址。
若是使用 hosts文件來解析 SCAN名稱,則在安裝結束時會遇到ClusterVerification Utility失敗錯誤,
詳細信息請見metalink文章 NOTE 887471.1 。
最後一步 驗證節點時間時有可能會出錯,若是前期對ntpd作了修改,應該不會出現這個錯誤。
INFO: Check CTSS state started...
INFO: CTSS is in Active state. Proceeding with check of clock time offsets on all nodes...
INFO: PRVF-9661 : Time offset is greater than acceptable limit on node "rac2" [actual = "-283800.0", acceptable = "1000.0" ]
INFO: PRVF-9652 : Cluster Time Synchronization Services check failed
node1,node2兩個節點的grid用戶下運行 oifcfg 命令配置或查看:
[grid@node1 bin]# ./oifcfg setif -global eth0/10.1.1.0:public
[grid@node1 bin]# ./oifcfg setif -global eth1/10.2.1.0:cluster_interconnect
[grid@node1 bin]# ./oifcfg getif
eth0 10.1.1.0 global public
eth1 10.2.1.0 global cluster_interconnect
clusterware 就安裝結束.
確認一下CRS的安裝狀況
$ ls -l /etc/init.d/init.*
grid 用戶下
$ ORACLE_HOME/bin/olsnodes -n
$ ORACLE_HOME/bin/crsctl check has
$ ORACLE_HOME/bin/crsctl check crs
$ ORACLE_HOME/bin/crsctl check ctss
$ ORACLE_HOME/bin/crsctl check css
$ ORACLE_HOME/bin/crsctl check evm
$ ORACLE_HOME/bin/crsctl check cluster
$ ORACLE_HOME/bin/crsctl check cluster -all
$ ORACLE_HOME/bin/crsctl get css misscount
$ ORACLE_HOME/bin/crsctl get css disktimeout
$ ORACLE_HOME/bin/crsctl get css reboottime
$ ORACLE_HOME/bin/crsctl get css diagwait
$ ORACLE_HOME/bin/crsctl query css votedisk
$ ORACLE_HOME/bin/crsctl status resource
$ ORACLE_HOME/bin/crsctl status resource -t -init
$ ORACLE_HOME/bin/crs_stat -t -v
建立asm磁盤(asm實例在clusterware安裝過程已經建立),運行asmca,建立DG_DATA_001
或者在前面都已經建立完畢
clusterware終於安裝完了,開始安裝database(僅安裝數據庫軟件)
下一步,一直下一步 注意選擇 only database software
Step 4 of 10 Grid Installation Options
oracle用戶下的SSH 等效性, 前面配置額等效性,這裏check 一下就行了。
Step 9 of 10 Perform Prerequisite Checks
安裝RAC數據庫出現PRCT-1011錯誤。
詳細錯誤信息爲:
An internal error occurred within cluster verification framework
Unable to obtain network interface list from Oracle
ClusterwarePRCT-1011: Failed to run 「oifcfg」. Detailed error: null
致使這個錯誤的緣由ORA_NLS10環境變量設置有誤。能夠將不設置這個環境變量,或將其設置到正確的位置:
unset ORA_NLS10
ORA_NLS10的正確的位置指向$GRID_HOME/nls/data,取消設置或將其設置到正確的位置後,從新啓動圖形化安裝工具既可。
PRCT-1011錯誤還有多是OCR中記錄的網絡設置不正確,具體描述能夠參考metalink文檔 [ID 1380183.1]。
以後運行
/u01/app/oracle/product/11.2.0/db_1/root.sh node1,node2
分別運行後 數據庫軟件就算安裝完畢了
開始建立數據庫,運行dbca
[oracle@node1 database]$ dbca
選擇RAC database
create database
選擇全部節點
選擇custom database
注意存儲時選擇ASM,
Database Services 這裏,
你選擇Add你一個新的service, 隨便叫名字,好比pyb。而後選擇 TAF Policy,是Basic。 這個服務在RAC
的Failover中會用到,若是在這裏沒有配置,也能夠經過dbca命令, 選擇 Services Management 來進行配置。
Service 是 oracle ha 在服務器端 fail_over 的一種手段,11g用scan來處理
後面和單實例的就沒啥區別了!
檢查及錯誤處理
1) LOCAL_LISTENER和REMOTE_LISTENER
local_listener
string
(DESCRIPTION=(ADDRESS_LIST=(AD
DRESS=(PROTOCOL=TCP)(HOST=10.
1.1.44)(PORT=1521))))
remote_listener
string nodescan:1521
2) ASM實例的spfile
vi init+ASM1.ora
asm_diskgroups='DG_DATA01'
asm_diskstring='/dev/asm*'
asm_power_limit=1
instance_type='asm'
large_pool_size=12M
remote_login_passwordfile='EXCLUSIVE'
STARTUP pfile=init+ASM1.ora
3) 查看 miscount,虛擬機,若是性能差,要修改
crsctl get css misscount
crsctl set css misscount 400
crsctl get css disktimeout
crsctl set css disktimeout 500
crsctl get css reboottime
4) CRS-0184: Cannot communicate with the CRS daemon.
大部分緣由是由於CRS進程未啓動,CSS進程未啓動,致使的asm實例未啓動,形成OCR沒法訪問,能夠手動啓動asm
強行殺掉後機器自動重啓,而後
$ ps aux|grep crs|awk '{print "kill -9 " $2}'|sh
或者 root下運行
或者使用crsctl,root 用戶下
$ORACLE_HOME/bin/crsctl stop crs
$ORACLE_HOME/bin/crsctl start crs
CRS-4123: Oracle High Availability Services has been started.
能夠查看$ORACLE_HOME/log/alertrac1.log
能夠查看$ORACLE_HOME/log/crsd/crsd.log
$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
5) CRS-4639: Could not contact Oracle High Availability Services
root 用戶下
crsctl check has crsctl start has crsctl stop has