您好,登錄后才能下訂單哦!
本篇內容介紹了“Oracle 11G RAC集群安裝方法是什么”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
數據庫版本:Oracle 11g
grid版本:grid 11g
系統版本:Centos 6.5
如果網卡的設備名兩個節點的名稱不一致,在安裝時不會出現錯誤,但在安裝oracle數據庫軟件時會報錯,CRS運行不正常。
因此在安裝grid前發現網卡名稱不一致要進行更改,方法為:
例如兩個節點的的第二張網卡名稱不一致,節點rac1的為eth2,節點rac2的為eth3
現在將rac2的網卡名eth3更改為eth2:
1.將節點rac2的第二張網卡的停掉:ifdown eth3
2.將rac2的第二張網卡的配置文件 ifcfg-eth3 名字改為 ifcfg-eth2,vim打開后將 DEVICE=eth3 改為 DEVICE=eth2.
3.將/etc/udev/rules.d/70-persistent-net.rules 中的NAME=“eth3” 修改為NAME=“eth2”
例如:
[root@rac1 network-scripts]# cat /etc/udev/rules.d/70-persistent-net.rules # This file was automatically generated by the /lib/udev/write_net_rules # program, run by the persistent-net-generator.rules rules file. # # You can modify it, as long as you keep each rule on a single # line, and change only the value of the NAME= key. # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:34:5b:13", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0" # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:52:b8:54", ATTR{type}=="1", KERNEL=="eth*", NAME="eth2"
4.將rac2主機重啟后設備名就改為eth2,與節點rac1網卡名稱一樣了。
[root@rac1 ~]# cat /etc/hosts #public-ip公網ip 172.16.140.146 rac1 172.16.140.247 rac2 #priv-ip私網ip 186.18.6.222 rac1-priv 186.18.6.186 rac2-priv #vip 172.16.140.99 rac1-vip 172.16.140.98 rac2-vip #scan-ip 172.16.140.97 rac-scan
PS: Oracle
RAC集群安裝需要配置網絡包含了公網IP,VIP,私網IP與scan-ip,其中公網IP,VIP,私網IP在兩個節點上都需要,而scan-ip只需要一個。
其中公網IP和vip都是可以正常對外訪問,私網IP是為了集群各個節點之間聯系使用,私網IP顧名思義就是自己用的,因此網段設置并沒有特別要求,不沖突即可。
scan-ip網段也是可以正常對外訪問的。集群安裝后或自動配置到主節點的網卡上顯示。具體ip功能以后另做介紹。
現在概括的說,兩節點的Oracle
RAC集群需要跟網絡工程師申請5個正常訪問網段的IP地址,自己再配置私網IP地址,安裝前公網IP地址和私網IP地址都可以在系統看到,VIP和scan-ip是在集群安裝完成后自動配置到網卡上的。
(1)再節點主機上添加用戶和組(每個節點都需要創建):
[root@rac1 ~]# groupadd -g 1000 oinstall [root@rac1 ~]# groupadd -g 1200 asmadmin [root@rac1 ~]# groupadd -g 1201 asmdba [root@rac1 ~]# groupadd -g 1202 asmoper [root@rac1 ~]# groupadd -g 1300 dba [root@rac1 ~]# groupadd -g 1301 oper [root@rac1 ~]# useradd -m -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,dba -d /home/grid -s /bin/bash grid [root@rac1 ~]# useradd -m -u 1101 -g oinstall -G dba,oper,asmdba -d /home/oracle -s /bin/bash oracle
(2)將用戶grid添加到dba組:
[root@rac1 app]# gpasswd -a grid dba Adding user grid to group dba
(3)修改用戶grid和oracle的密碼(所有節點):
[root@rac1 ~]passwd oracle [root@rac1 ~]passwd grid
(4)確定nobody用戶的信息:
[root@rac1 ~]# id nobody uid=99(nobody) gid=99(nobody) groups=99(nobody)
PS: 此用戶無需創建,如果不存在,進行手工創建:
[root@rac1 ~]# /usr/sbin/useradd nobody
(5)禁用防火墻和SELNUX (所有節點)
[root@rac1 ~]service iptables status [root@rac1 ~]service iptables stop [root@rac1 ~]chkconfig iptables off [root@rac1 ~]chkconfig iptables --list
(6)設置/etc/selinux/config 文件,將SELINUX 設置為disabled。
[root@rac1 ~]# cat /etc/selinux/config
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. SELINUX=disabled # SELINUXTYPE= can take one of these two values: # targeted - Targeted processes are protected, # mls - Multi Level Security protection. SELINUXTYPE=targeted
PS: 我處理的環境都是內網,并不連接互聯網,因此時間同步使用的是集群自身的時間同步方式。
在 11gR2 中,RAC 在安裝的時候,時間同步可以用兩種方式來實現:
NTP --Linux系統的時間同步服務器
CTSS --集群自身的時間同步
當安裝程序發現 NTP協議處于非活動狀態時,安裝集群時間同步服務將以活動模式自動進行安裝并通過所有節點的時間。
如果發現配置了 NTP ,則以觀察者模式啟動集群時間同步服務,Oracle Clusterware 不會在集群中進行活動的時間同步。
Oracle 集群時間同步服務 (ctssd) 旨在為那些 Oracle RAC 數據庫無法訪問 NTP服務的組 織提供服務。
這里我們使用CTSS.oracle也建議使用集群內部時間同步的方式:
–配置CTSS
使用集群時間同步服務在集群中提供同步服務,需要卸載網絡時間協議 (NTP) 及其配置。
要停用 NTP服務,必須停止當前的 ntpd服務,從初始化序列中禁用該服務,并刪 除 ntp.conf 文件。
要在Linux上完成這些步驟,以 root用戶身份在所有 Oracle RAC節點上運行以下命令:
/sbin/service ntpd stop Shutting down ntpd: [ OK ]
既有可能會關閉失敗,不過無所謂
chkconfig ntpd off mv /etc/ntp.conf /etc/ntp.conf.original chkconfig ntpd --list ntpd 0:off 1:off 2:off 3:off 4:off 5:off 6:off
還要刪除以下文件:
rm /var/run/ntpd.pid
(1)集群使用ASM存儲方式,如節點掛載的是裸設備,通過fdisk -l查看設備:
PS:以下輸出是我安裝的實際用的機器中的磁盤配置,這種磁盤路徑操作起來是很方便的,但是這種磁盤掛載路徑大多出現在虛擬云服務器上,如果是實體機,則由于存儲做了多鏈路優化,掛載路徑就不一樣了,udev的配置文件處理則無法使用如下方法來生成,至于實體機多鏈路存儲掛載的共享存儲如何做UDEV,我會額外寫一個來做介紹。
[root@rac1 ~]# fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0004d5d5 Device Boot Start End Blocks Id System /dev/sda1 * 1 26 204800 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 26 548 4194304 82 Linux swap / Solaris Partition 2 does not end on cylinder boundary. /dev/sda3 548 6528 48028672 83 Linux Disk /dev/sdb: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdc: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdd: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sde: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdg: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdf: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdh: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdi: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdj: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000
PS:
磁盤掛載這里啰嗦幾句:在掛載共享磁盤前跟系統工程師溝通,提前劃分磁盤大小,主要是用于安裝grid的vote盤,我在安裝時選擇劃分三塊30G左右的磁盤來安裝grid(vote磁盤組使用normal冗余,三塊即可),然后其他磁盤考慮以后磁盤io避免熱點,盡量不是一整塊磁盤掛載。
另外12c的rac要求vote磁盤組大小要比11g要求大,如果后續會考慮升級12C的RAC,可以將用于vote磁盤組的三快盤容量加大,每個50-100G即可。
(2)檢查所有節點的掛載磁盤的scsi開頭的盤號是否一致,命令是:
[root@rac1 ~]# ll /dev/disk/by-id [root@rac2 ~]# ll /dev/disk/by-id
在此只要使用udev 映射成grid可以識別的磁盤
(3)在使用fdisk -l中查看的設備名字母的編號(除了用于安裝系統的盤,一般是sda),執行下列腳本:
[root@rac1 ~]# for i in b c d e f g h i j ; > do > echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\"" > done KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525936676145692d66374e542d476c666e", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526a6d47665a522d6f7a39642d65674f47", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525a574f6573662d6a4c59642d63375933", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552324f6d38394d2d525835432d56415337", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526d7636645a542d577636452d62375874", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45527269467344372d644635642d32527033", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552735232776e502d674542432d75787338", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c455250456471356e2d534170302d65656262", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552386f6a4e56632d4f6661442d32765a54", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660"
(4)進入到udev目錄中
[root@rac1 ~]]# cd /etc/udev/rules.d/ [root@rac1 ~]# vim 99-oracle.rules
將輸出的內容全部拷貝到99-oracle.rules中,拷貝時一定要確認拷貝完全與命令輸出一致。此文件一般是不存在的,手動創建即可。
執行命令:
[root@rac1 ~]# start_udev 正在啟動 udev: [確定]
執行命令成功后查看:
[root@rac1 ~]# ll /dev/asm* brw-rw---- 1 grid asmadmin 8, 16 1月 5 10:47 /dev/asm-diskb brw-rw---- 1 grid asmadmin 8, 32 1月 5 10:47 /dev/asm-diskc brw-rw---- 1 grid asmadmin 8, 48 1月 5 10:47 /dev/asm-diskd brw-rw---- 1 grid asmadmin 8, 64 1月 5 10:47 /dev/asm-diske brw-rw---- 1 grid asmadmin 8, 80 1月 5 10:47 /dev/asm-diskf brw-rw---- 1 grid asmadmin 8, 96 1月 5 10:47 /dev/asm-diskg brw-rw---- 1 grid asmadmin 8, 112 1月 5 10:47 /dev/asm-diskh brw-rw---- 1 grid asmadmin 8, 128 1月 5 10:47 /dev/asm-diski brw-rw---- 1 grid asmadmin 8, 144 1月 5 10:47 /dev/asm-diskj
PS:
集群之所以在共享磁盤掛在后無法識別,主要是掛在的磁盤的屬主和屬組是root,grid用戶無權限訪問,因此要想讓grid和oracle識別這些掛載的磁盤必須將磁盤修改權限,但是共享磁盤的掛載方式會在主機重啟后重新去映射,因此,如果手動去直接修改共享磁盤的權限,在主機重啟后權限又會變成root管理員權限,udev的方式是直接將磁盤重新修改權限后映射的方式寫到規則中(rules)。
另一種處理方式可以通過將修改權限的命令寫到主機重啟后訪問的最后一個文件中去,讓系統自動每次如果主機系統重啟都會執行。已實現共享磁盤的訪問。也就是裸設備使用raw方式處理共享磁盤。
使用的是Linux的 raw 命令
例如:
[root@rac1 ~]cat /etc/rc.loca # Oracle Cluster OCRDG ##### chown grid:asmadmin /dev/mapper/mpathb chown grid:asmadmin /dev/mapper/mpathc chown grid:asmadmin /dev/mapper/mpathd chown grid:asmadmin /dev/mapper/mpathe chown grid:asmadmin /dev/mapper/mpathf chmod 660 /dev/mapper/mpathb chmod 660 /dev/mapper/mpathc chmod 660 /dev/mapper/mpathd chmod 660 /dev/mapper/mpathe chmod 660 /dev/mapper/mpathf raw /dev/raw/raw1 /dev/mapper/mpathb raw /dev/raw/raw2 /dev/mapper/mpathc raw /dev/raw/raw3 /dev/mapper/mpathd raw /dev/raw/raw4 /dev/mapper/mpathe raw /dev/raw/raw5 /dev/mapper/mpathf sleep 2 chown grid:asmadmin /dev/raw/raw1 chown grid:asmadmin /dev/raw/raw2 chown grid:asmadmin /dev/raw/raw3 chown grid:asmadmin /dev/raw/raw4 chown grid:asmadmin /dev/raw/raw5 chmod 660 /dev/raw/raw1 chmod 660 /dev/raw/raw2 chmod 660 /dev/raw/raw3 chmod 660 /dev/raw/raw4 chmod 660 /dev/raw/raw5
這是以前使用的老的方式處理共享磁盤,不過只能在11g以以前舊的版本中,12c版本只支持udev的方式處理共享磁盤。不在支持裸設備raw方式處理。
(5)在上述操作節點1上執行完畢后,將創建的99-oracle.rules 傳給節點2,然后節點2執行 start_udev ,開啟后查詢ll /dev/asm* 得到和節點1同樣的結果
1.在節點1和節點2上分別執行:
[root@rac1 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac1 ~]mkdir -p /oracle/grid [root@rac1 ~]chown -R grid:oinstall /oracle [root@rac1 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac1 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac1 ~]chmod -R 775 /oracle [root@rac2 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac2 ~]mkdir -p /oracle/grid [root@rac2 ~]chown -R grid:oinstall /oracle [root@rac2 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac2 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac2 ~]chmod -R 775 /oracle
2.配置環境變量
Grid 用戶
修改grid 用戶的.bash_profile. 注意每個節點的不同內容:
節點1:
[root@rac1 ~]# su - grid [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=+ASM1 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
節點2:
[root@rac2 ~]# su - grid [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=+ASM2 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
(PATH的配置信息要在grid用戶下在命令行上輸入 echo $PATH 得到的輸出結果)
Oracle 用戶
節點1:
[root@rac1 ~]# su - oracle [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=student1 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
節點2:
[root@rac2 ~]# su - oracle [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=student2 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
要改善 Linux 系統上的軟件性能,必須對 Oracle軟件所有者用戶(grid、oracle)增加以下資源限制:
Shell 限制 limits.conf 中的條目 硬限制
打開文件描述符的最大數 nofile 65536
可用于單個用戶的最大進程數 nproc 16384
進程堆棧段的最大大小 stack 10240
以 root 用戶身份,在每個 Oracle RAC 節點上,在 /etc/security/limits.conf 文件中添加
如下內容,或者執行執行如下命令:(整個復制到命令行)
cat >> /etc/security/limits.conf <<EOF grid soft nproc 2047 grid hard nproc 16384 grid soft nofile 1024 grid hard nofile 65536 oracle soft nproc 2047 oracle hard nproc 16384 oracle soft nofile 1024 oracle hard nofile 65536 EOF
在每個 Oracle RAC 節點上,在 /etc/pam.d/login 文件中添加或編輯下面一行內容:(整個復制到命令行)
cat >> /etc/pam.d/login <<EOF session required pam_limits.so EOF
shell 的限制
對默認的 shell 啟動文件進行以下更改,以便更改所有 Oracle安裝所有者的 ulimit設置:
在每個 Oracle RAC 節點上,對于 Bourne、Bash 或 Korn shell,通過運行以下命令將以下行添加到 /etc/profile文件:(整個復制到命令行)
cat >> /etc/profile <<EOF if [ /$USER = "oracle" ] || [ /$USER = "grid" ]; then if [ /$SHELL = "/bin/ksh" ]; then ulimit -p 16384 ulimit -n 65536 else ulimit -u 16384 -n 65536 fi umask 022 fi EOF
vim /etc/sysctl.conf kernel.shmmax = 4294967295 kernel.shmall = 2097152 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 6815744 net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default=262144 net.core.rmem_max=4194304 net.core.wmem_default=262144 net.core.wmem_max=1048576 fs.aio-max-nr=1048576
以上操作完成后在每個 Oracle RAC 節點上執行:
sysctl -p
在每個 Oracle RAC 節點上,安裝相關的依賴包:
yum -y install autoconf automake binutils-devel bison cpp dos2unix ftp gcc gcc-c++ lrzsz python-deve compat-db compat-db42 compat-db43 compat-gcc-34 compat-gcc-34-c++ compat-libstdc++-33 glibc-* glibc-*.i686 libXpm-*.i686 libXp.so.6 libXt.so.6 libXtst.so.6 libgcc_s.so.1 ksh libXp libaio-devel numactl numactl-devel unixODBC unixODBC-devel compat-libcap* elfutils-libelf*
PS: 如果使用到了oracleasm相關的包需要從官方網站下載并進行安裝:
rpm -ivh oracleasmlib-2.0.4-1.el6.x86_64.rpm rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm
yum源的配置使用的是本地yum源,配置方法可參考: Linux配置本地yum源
在安裝之前運行grid安裝檢測,使用的是grid安裝包解壓包中runcluvfy.sh,命令為:
[grid@rac1 ~]$ ./runcluvfh.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose
從輸出的文本中檢測那些檢查項沒有通過,做針對性處理。
PS:
一般檢測都是通過的,只有在用戶等同性檢測中會出現用戶等同性失敗導致不通過,可以通過手動配置節點間的SSH免密訪問來解決。處理檢測不通過的項后再次檢測沒有問題后就可以正式進入grid與Oracle軟件的安裝階段了
“Oracle 11G RAC集群安裝方法是什么”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。