linux安装11g rac

news/2024/10/18 5:40:13/


1、检查系统所需的软件包
rpm  -qa | grep -E "binutils|compat-libstdc++|elfutils-libelf|gcc|glibc|libaio|libgcc|libstdc++|make|sysstat|unixODBC|pdksh"

[root@testdb01 /]# rpm  -qa | grep -E "binutils|compat-libstdc++|elfutils-libelf|gcc|glibc|libaio|libgcc|libstdc++|make|sysstat|unixODBC|pdksh"
glibc-headers-2.12-1.107.el6.x86_64
compat-libstdc++-33-3.2.3-69.el6.x86_64
make-3.81-20.el6.x86_64
unixODBC-2.2.14-12.el6_3.x86_64
compat-glibc-headers-2.5-46.2.x86_64
glibc-utils-2.12-1.107.el6.x86_64
glibc-2.12-1.107.el6.x86_64
gcc-4.4.7-3.el6.x86_64
sysstat-9.0.4-20.el6.x86_64
compat-libstdc++-296-2.96-144.el6.i686
libaio-0.3.107-10.el6.x86_64
compat-glibc-2.5-46.2.x86_64
libgcc-4.4.7-3.el6.i686
glibc-common-2.12-1.107.el6.x86_64
libstdc++-4.4.7-3.el6.x86_64
elfutils-libelf-0.152-1.el6.x86_64
binutils-2.20.51.0.2-5.36.el6.x86_64
glibc-devel-2.12-1.107.el6.x86_64
makebootfat-1.4-10.el6.x86_64
libgcc-4.4.7-3.el6.x86_64
glibc-2.12-1.107.el6.i686

2、修改hosts文件
cat /etc/hosts
#Public IP address
135.149.32.4  datacheck01
135.149.32.5  datacheck02

#Virtual IP address
135.149.32.10   dtcheck01-vip
135.149.32.11   dtcheck02-vip

# Private IP address
192.168.1.101   dtcheck01-pri
192.168.1.102   dtcheck02-pri

#SCAN IP address
135.149.32.9  dtcheck-scan

3、修改内核参数
kernel.core_uses_pid = 1
fs.file-max=6815744
kernel.msgmni=2878
kernel.msgmax=8192
kernel.msgmnb=65536
kernel.sem=250 32000 100 142
kernel.shmmni=4096
kernel.shmall=3279547
kernel.sysrq=1
net.core.rmem_default=262144
net.core.rmem_max=4194304
net.core.wmem_default=262144
net.core.wmem_max=1048576
fs.aio-max-nr=3145728
net.ipv4.ip_local_port_range=9000 65500
kernel.shmmax=4294967295


4、创建组和用户
groupadd -g 502 oinstall
groupadd -g 503 dba
groupadd -g 504 oper
groupadd -g 505 asmadmin
groupadd -g 506 asmoper
groupadd -g 507 asmdba
useradd -g oinstall -G dba,asmdba,oper oracle
useradd -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid

5、修改限制文件
vi /etc/security/limits.conf

grid soft nproc 2047
grid hard nproc 16384
grid soft nofile 1024
grid hard nofile 65536

oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536

6、修改登陆session限制
vi /etc/pam.d/login
session required pam_limits.so

7、修改用户的限制
vi/etc/profile
if [ $USER = "oracle" ] || [ $USER = "grid" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else ulimit -u 16384 -n 65536
fi
umask 022
fi


8、修改grid和oracle用户的环境变量
1节点grid
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=+ASM1
umask 022
export ORACLE_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
   stty intr ^C
fi
export PATH


2节点grid
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=+ASM2
umask 022
export ORACLE_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
   stty intr ^C
fi
export PATH

节点1oracle
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=oipdb1
umask 022
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0
export GRID_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:$GRID_HOME/bin:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
   stty intr ^C
fi
export PATH


节点2oracle
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=oipdb2
umask 022
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0
export GRID_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:$GRID_HOME/bin:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
   stty intr ^C
fi
export PATH

9、分别用grid和oracle用户登陆按照提示配置秘钥授权访问
sshsetup/sshUserSetup.sh -user grid -hosts "datacheck01 datacheck02" -advanced -noPromptPassphrase

ssh datacheck01 date
ssh datacheck02 date
ssh dtcheck01-pri date
ssh dtcheck02-pri date

sshsetup/sshUserSetup.sh -user oracle -hosts "datacheck01 datacheck02" -advanced -noPromptPassphrase

oralce 、grid 口令: Ora11rac

10、安装前检查
./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02 -fixup -verbose >racenvck20140314.log

sh /tmp/CVU_11.2.0.4.0_grid/runfixup.sh


grid@datacheck01:/soft/grid$ more racenvck20140312.log

执行 集群服务设置 的预检查

正在检查节点的可访问性...

检查: 节点 "datacheck01" 的节点可访问性
  目标节点                                  是否可访问                  
  ------------------------------------  ------------------------
  datacheck02                           是                      
  datacheck01                           是                      
结果:节点 "datacheck01" 的节点可访问性检查已通过


正在检查等同用户...

检查: 用户 "grid" 的等同用户
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     
结果:用户 "grid" 的等同用户检查已通过

正在检查节点连接性...

正在检查主机配置文件...
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     

主机配置文件的验证成功


节点 "datacheck02" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.5    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:9F:F6 1500 
 eth1   192.168.1.102   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:6B:6C 1500 


节点 "datacheck01" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.4    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:B3:01 1500 
 eth1   192.168.1.101   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:AE:6F 1500 


检查: 子网 "135.149.32.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[135.149.32.5]       datacheck01[135.149.32.4]       是              
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过


检查: 子网 "135.149.32.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:135.149.32.4        datacheck02:135.149.32.5        通过             
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过


检查: 子网 "192.168.1.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[192.168.1.102]      datacheck01[192.168.1.101]      是              
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过


检查: 子网 "192.168.1.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:192.168.1.101       datacheck02:192.168.1.102       通过             
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过


在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4

在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。

结果:节点连接性检查已通过

正在检查多点传送通信...

正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

多点传送通信检查已通过。

检查 ASMLib 配置。
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck01                           通过                     
  datacheck02                           (失败) ASMLib 未安装。       
结果:ASMLib 配置检查失败。

检查: 内存总量
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   62.923GB (6.5979592E7KB)  1.5GB (1572864.0KB)       通过       
  datacheck01   62.923GB (6.5979592E7KB)  1.5GB (1572864.0KB)       通过       
结果:内存总量 检查已通过

检查: 可用内存
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   61.8921GB (6.4898524E7KB)  50MB (51200.0KB)          通过       
  datacheck01   61.4027GB (6.4385392E7KB)  50MB (51200.0KB)          通过       
结果:可用内存 检查已通过

检查: 交换空间
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   31.5312GB (3.3062904E7KB)  16GB (1.6777216E7KB)      通过       
  datacheck01   31.5312GB (3.3062904E7KB)  16GB (1.6777216E7KB)      通过       
结果:交换空间 检查已通过

检查: "datacheck02:/tmp" 的 空闲磁盘空间
  路径                节点名           装载点           可用            必需            状态         
  ----------------  ------------  ------------  ------------  ------------  ------------
  /tmp              datacheck02   /tmp          41.749GB      1GB           通过         
结果:"datacheck02:/tmp" 的 空闲磁盘空间 检查已通过

检查: "datacheck01:/tmp" 的 空闲磁盘空间
  路径                节点名           装载点           可用            必需            状态         
  ----------------  ------------  ------------  ------------  ------------  ------------
  /tmp              datacheck01   /tmp          34.0361GB     1GB           通过         
结果:"datacheck01:/tmp" 的 空闲磁盘空间 检查已通过

检查: "grid" 的 用户存在性
  节点名           状态                        注释                     
  ------------  ------------------------  ------------------------
  datacheck02   通过                        存在(503)                
  datacheck01   通过                        存在(503)                

检查 UID 值为 503 的多个用户
结果:对 UID 值为 503 的多个用户进行的检查已通过
结果:"grid" 的 用户存在性 检查已通过

检查: "oinstall" 的 组存在性
  节点名           状态                        注释                     
  ------------  ------------------------  ------------------------
  datacheck02   通过                        存在                     
  datacheck01   通过                        存在                     
结果:"oinstall" 的 组存在性 检查已通过

检查: "dba" 的 组存在性
  节点名           状态                        注释                     
  ------------  ------------------------  ------------------------
  datacheck02   通过                        存在                     
  datacheck01   通过                        存在                     
结果:"dba" 的 组存在性 检查已通过

检查: 组 "oinstall" 中用户 "grid" 的成员资格 [作为 主]
  节点名               用户存在          组存在           组中的用户         主             状态         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       是             是             是             是             通过         
  datacheck01       是             是             是             是             通过         
结果:组 "oinstall" 中用户 "grid" 的成员资格检查 [作为 主] 已通过

检查: 组 "dba" 中用户 "grid" 的成员资格
  节点名               用户存在          组存在           组中的用户         状态             
  ----------------  ------------  ------------  ------------  ----------------
  datacheck02       是             是             是             通过             
  datacheck01       是             是             是             通过             
结果:组 "dba" 中用户 "grid" 的成员资格检查已通过

检查: 运行级别
  节点名           运行级别                      必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   5                         3,5                       通过       
  datacheck01   5                         3,5                       通过       
结果:运行级别 检查已通过

检查: "打开的文件描述符的最大数" 的 硬性限制
  节点名               类型            可用            必需            状态             
  ----------------  ------------  ------------  ------------  ----------------
  datacheck02       硬性            65536         65536         通过             
  datacheck01       硬性            65536         65536         通过             
结果:"打开的文件描述符的最大数" 的 硬性限制 检查已通过

检查: "打开的文件描述符的最大数" 的 软性限制
  节点名               类型            可用            必需            状态             
  ----------------  ------------  ------------  ------------  ----------------
  datacheck02       软性            1024          1024          通过             
  datacheck01       软性            1024          1024          通过             
结果:"打开的文件描述符的最大数" 的 软性限制 检查已通过

检查: "最大用户进程数" 的 硬性限制
  节点名               类型            可用            必需            状态             
  ----------------  ------------  ------------  ------------  ----------------
  datacheck02       硬性            16384         16384         通过             
  datacheck01       硬性            16384         16384         通过             
结果:"最大用户进程数" 的 硬性限制 检查已通过

检查: "最大用户进程数" 的 软性限制
  节点名               类型            可用            必需            状态             
  ----------------  ------------  ------------  ------------  ----------------
  datacheck02       软性            2047          2047          通过             
  datacheck01       软性            2047          2047          通过             
结果:"最大用户进程数" 的 软性限制 检查已通过

检查: 系统体系结构
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   x86_64                    x86_64                    通过       
  datacheck01   x86_64                    x86_64                    通过       
结果:系统体系结构 检查已通过

检查: 内核版本
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   2.6.32-358.el6.x86_64     2.6.9                     通过       
  datacheck01   2.6.32-358.el6.x86_64     2.6.9                     通过       
结果:内核版本 检查已通过

检查: "semmsl" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       250           250           250           通过             
  datacheck01       250           250           250           通过             
结果:"semmsl" 的 内核参数 检查已通过

检查: "semmns" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       32000         32000         32000         通过             
  datacheck01       32000         32000         32000         通过             
结果:"semmns" 的 内核参数 检查已通过

检查: "semopm" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       100           100           100           通过             
  datacheck01       100           100           100           通过             
结果:"semopm" 的 内核参数 检查已通过

检查: "semmni" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       128           128           128           通过             
  datacheck01       128           128           128           通过             
结果:"semmni" 的 内核参数 检查已通过

检查: "shmmax" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       536870912     536870912     4294967295    失败            当前值不正确。 配置的值不正确。
  datacheck01       536870912     536870912     4294967295    失败            当前值不正确。 配置的值不正确。
结果:"shmmax" 的 内核参数 检查失败

检查: "shmmni" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       4096          4096          4096          通过             
  datacheck01       4096          4096          4096          通过             
结果:"shmmni" 的 内核参数 检查已通过

检查: "shmall" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       2097152       2097152       2097152       通过             
  datacheck01       2097152       2097152       2097152       通过             
结果:"shmall" 的 内核参数 检查已通过

检查: "file-max" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       6815744       6815744       6815744       通过             
  datacheck01       6815744       6815744       6815744       通过             
结果:"file-max" 的 内核参数 检查已通过

检查: "ip_local_port_range" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  通过             
  datacheck01       between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  通过             
结果:"ip_local_port_range" 的 内核参数 检查已通过

检查: "rmem_default" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       4194304       4194304       262144        通过             
  datacheck01       4194304       4194304       262144        通过             
结果:"rmem_default" 的 内核参数 检查已通过

检查: "rmem_max" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       4194304       4194304       4194304       通过             
  datacheck01       4194304       4194304       4194304       通过             
结果:"rmem_max" 的 内核参数 检查已通过

检查: "wmem_default" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       262144        262144        262144        通过             
  datacheck01       262144        262144        262144        通过             
结果:"wmem_default" 的 内核参数 检查已通过

检查: "wmem_max" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       1048576       1048576       1048576       通过             
  datacheck01       1048576       1048576       1048576       通过             
结果:"wmem_max" 的 内核参数 检查已通过

检查: "aio-max-nr" 的 内核参数
  节点名               当前值           已配置           必需            状态            注释         
  ----------------  ------------  ------------  ------------  ------------  ------------
  datacheck02       1048576       1048576       1048576       通过             
  datacheck01       1048576       1048576       1048576       通过             
结果:"aio-max-nr" 的 内核参数 检查已通过

检查: "make" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   make-3.81-20.el6          make-3.80                 通过       
  datacheck01   make-3.81-20.el6          make-3.80                 通过       
结果:"make" 的 包存在性 检查已通过

检查: "binutils" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   binutils-2.20.51.0.2-5.36.el6  binutils-2.15.92.0.2      通过       
  datacheck01   binutils-2.20.51.0.2-5.36.el6  binutils-2.15.92.0.2      通过       
结果:"binutils" 的 包存在性 检查已通过

检查: "gcc(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   gcc(x86_64)-4.4.7-3.el6   gcc(x86_64)-3.4.6         通过       
  datacheck01   gcc(x86_64)-4.4.7-3.el6   gcc(x86_64)-3.4.6         通过       
结果:"gcc(x86_64)" 的 包存在性 检查已通过

检查: "libaio(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   libaio(x86_64)-0.3.107-10.el6  libaio(x86_64)-0.3.105    通过       
  datacheck01   libaio(x86_64)-0.3.107-10.el6  libaio(x86_64)-0.3.105    通过       
结果:"libaio(x86_64)" 的 包存在性 检查已通过

检查: "glibc(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   glibc(x86_64)-2.12-1.107.el6  glibc(x86_64)-2.3.4-2.41  通过       
  datacheck01   glibc(x86_64)-2.12-1.107.el6  glibc(x86_64)-2.3.4-2.41  通过       
结果:"glibc(x86_64)" 的 包存在性 检查已通过

检查: "compat-libstdc++-33(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   compat-libstdc++-33(x86_64)-3.2.3-69.el6  compat-libstdc++-33(x86_64)-3.2.3  通过       
  datacheck01   compat-libstdc++-33(x86_64)-3.2.3-69.el6  compat-libstdc++-33(x86_64)-3.2.3  通过       
结果:"compat-libstdc++-33(x86_64)" 的 包存在性 检查已通过

检查: "elfutils-libelf(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   elfutils-libelf(x86_64)-0.152-1.el6  elfutils-libelf(x86_64)-0.97  通过       
  datacheck01   elfutils-libelf(x86_64)-0.152-1.el6  elfutils-libelf(x86_64)-0.97  通过       
结果:"elfutils-libelf(x86_64)" 的 包存在性 检查已通过

检查: "elfutils-libelf-devel" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   elfutils-libelf-devel-0.152-1.el6  elfutils-libelf-devel-0.97  通过       
  datacheck01   elfutils-libelf-devel-0.152-1.el6  elfutils-libelf-devel-0.97  通过       
结果:"elfutils-libelf-devel" 的 包存在性 检查已通过

检查: "glibc-common" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   glibc-common-2.12-1.107.el6  glibc-common-2.3.4        通过       
  datacheck01   glibc-common-2.12-1.107.el6  glibc-common-2.3.4        通过       
结果:"glibc-common" 的 包存在性 检查已通过

检查: "glibc-devel(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   glibc-devel(x86_64)-2.12-1.107.el6  glibc-devel(x86_64)-2.3.4  通过       
  datacheck01   glibc-devel(x86_64)-2.12-1.107.el6  glibc-devel(x86_64)-2.3.4  通过       
结果:"glibc-devel(x86_64)" 的 包存在性 检查已通过

检查: "glibc-headers" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   glibc-headers-2.12-1.107.el6  glibc-headers-2.3.4       通过       
  datacheck01   glibc-headers-2.12-1.107.el6  glibc-headers-2.3.4       通过       
结果:"glibc-headers" 的 包存在性 检查已通过

检查: "gcc-c++(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   gcc-c++(x86_64)-4.4.7-3.el6  gcc-c++(x86_64)-3.4.6     通过       
  datacheck01   gcc-c++(x86_64)-4.4.7-3.el6  gcc-c++(x86_64)-3.4.6     通过       
结果:"gcc-c++(x86_64)" 的 包存在性 检查已通过

检查: "libaio-devel(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   libaio-devel(x86_64)-0.3.107-10.el6  libaio-devel(x86_64)-0.3.105  通过       
  datacheck01   libaio-devel(x86_64)-0.3.107-10.el6  libaio-devel(x86_64)-0.3.105  通过       
结果:"libaio-devel(x86_64)" 的 包存在性 检查已通过

检查: "libgcc(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   libgcc(x86_64)-4.4.7-3.el6  libgcc(x86_64)-3.4.6      通过       
  datacheck01   libgcc(x86_64)-4.4.7-3.el6  libgcc(x86_64)-3.4.6      通过       
结果:"libgcc(x86_64)" 的 包存在性 检查已通过

检查: "libstdc++(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   libstdc++(x86_64)-4.4.7-3.el6  libstdc++(x86_64)-3.4.6   通过       
  datacheck01   libstdc++(x86_64)-4.4.7-3.el6  libstdc++(x86_64)-3.4.6   通过       
结果:"libstdc++(x86_64)" 的 包存在性 检查已通过

检查: "libstdc++-devel(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   libstdc++-devel(x86_64)-4.4.7-3.el6  libstdc++-devel(x86_64)-3.4.6  通过       
  datacheck01   libstdc++-devel(x86_64)-4.4.7-3.el6  libstdc++-devel(x86_64)-3.4.6  通过       
结果:"libstdc++-devel(x86_64)" 的 包存在性 检查已通过

检查: "sysstat" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   sysstat-9.0.4-20.el6      sysstat-5.0.5             通过       
  datacheck01   sysstat-9.0.4-20.el6      sysstat-5.0.5             通过       
结果:"sysstat" 的 包存在性 检查已通过

检查: "pdksh" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   缺失                        pdksh-5.2.14              失败       
  datacheck01   缺失                        pdksh-5.2.14              失败       
结果:"pdksh" 的 包存在性 检查失败

检查: "expat(x86_64)" 的 包存在性
  节点名           可用                        必需                        状态       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   expat(x86_64)-2.0.1-11.el6_2  expat(x86_64)-1.95.7      通过       
  datacheck01   expat(x86_64)-2.0.1-11.el6_2  expat(x86_64)-1.95.7      通过       
结果:"expat(x86_64)" 的 包存在性 检查已通过

检查 UID 值为 0 的多个用户
结果:对 UID 值为 0 的多个用户进行的检查已通过

检查: 当前组 ID
结果:当前组 ID 检查已通过

开始检查 root 用户的主要组的一致性
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     

已通过 root 用户主要组的一致性检查

正在使用网络时间协议 (NTP) 启动时钟同步检查...

NTP 配置文件检查开始...
NTP 配置文件 "/etc/ntp.conf" 在所有节点上可用
NTP 配置文件检查通过
未发现任何正在运行的 NTP 守护程序或服务
PRVF-5507 : NTP 守护程序或服务未在任何节点上运行, 但以下节点上存在 NTP 配置文件:
datacheck02,datacheck01
结果:使用网络时间协议 (NTP) 进行时钟同步检查失败

正在检查核心文件名模式一致性...
核心文件名模式一致性检查已通过。

检查以确保用户 "grid" 不在 "root" 组中
  节点名           状态                        注释                     
  ------------  ------------------------  ------------------------
  datacheck02   通过                        不存在                    
  datacheck01   通过                        不存在                    
结果:用户 "grid" 不属于 "root" 组。检查已通过

检查默认用户文件创建掩码
  节点名           可用                        必需                        注释       
  ------------  ------------------------  ------------------------  ----------
  datacheck02   0022                      0022                      通过       
  datacheck01   0022                      0022                      通过       
结果:默认用户文件创建掩码检查已通过
检查文件 "/etc/resolv.conf" 在节点间的一致性

检查文件 "/etc/resolv.conf" 以确保只定义了 'domain' 和 'search' 条目中的一个
文件 "/etc/resolv.conf" 未同时定义 'domain' 和 'search' 条目
正在检查文件 "/etc/resolv.conf" 中的 'domain' 条目是否在节点间一致...
文件 "/etc/resolv.conf" 中的 'domain' 条目在节点间一致
正在检查文件 "/etc/resolv.conf" 中的 'search' 条目是否在节点间一致...
文件 "/etc/resolv.conf" 中的 'search' 条目在节点间一致
检查无法访问节点的 DNS 响应时间
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           失败                     
  datacheck01                           失败                     
PRVF-5636 : 在以下节点上, 无法访问的节点的 DNS 响应时间超过 "15000" 毫秒: datacheck02,datacheck01

文件 "/etc/resolv.conf" 在各节点间不一致

检查: 时区一致性
结果:时区一致性 检查已通过
为以下节点生成了修复信息:
datacheck02,datacheck01
请在每个节点上以 "root" 用户身份运行以下脚本来执行修复:
'/tmp/CVU_11.2.0.4.0_grid/runfixup.sh'

在所有节点上预检查 集群服务设置 失败。


./runcluvfy.sh comp nodecon -n datacheck01,datacheck02 -verbose

grid@datacheck01:/soft/grid$ ./runcluvfy.sh comp nodecon -n datacheck01,datacheck02 -verbose

验证 节点连接性

正在检查节点连接性...

正在检查主机配置文件...
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     

主机配置文件的验证成功


节点 "datacheck02" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.5    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:9F:F6 1500 
 eth1   192.168.1.102   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:6B:6C 1500 


节点 "datacheck01" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.4    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:B3:01 1500 
 eth1   192.168.1.101   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:AE:6F 1500 


检查: 子网 "135.149.32.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[135.149.32.5]       datacheck01[135.149.32.4]       是              
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过


检查: 子网 "135.149.32.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:135.149.32.4        datacheck02:135.149.32.5        通过             
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过


检查: 子网 "192.168.1.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[192.168.1.102]      datacheck01[192.168.1.101]      是              
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过


检查: 子网 "192.168.1.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:192.168.1.101       datacheck02:192.168.1.102       通过             
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过


在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4

在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。

结果:节点连接性检查已通过


节点连接性 的验证成功。

./runcluvfy.sh stage -post hwos -n datacheck01,datacheck02 -verbose

grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -post hwos -n datacheck01,datacheck02 -verbose

执行 硬件和操作系统设置 的后期检查

正在检查节点的可访问性...

检查: 节点 "datacheck01" 的节点可访问性
  目标节点                                  是否可访问                  
  ------------------------------------  ------------------------
  datacheck02                           是                      
  datacheck01                           是                      
结果:节点 "datacheck01" 的节点可访问性检查已通过


正在检查等同用户...

检查: 用户 "grid" 的等同用户
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     
结果:用户 "grid" 的等同用户检查已通过

正在检查节点连接性...

正在检查主机配置文件...
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     

主机配置文件的验证成功


节点 "datacheck02" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.5    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:9F:F6 1500 
 eth1   192.168.1.102   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:6B:6C 1500 


节点 "datacheck01" 的接口信息
 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU  
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   135.149.32.4    135.149.32.0    0.0.0.0         135.149.32.254  00:50:56:BC:B3:01 1500 
 eth1   192.168.1.101   192.168.1.0     0.0.0.0         135.149.32.254  00:50:56:BC:AE:6F 1500 


检查: 子网 "135.149.32.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[135.149.32.5]       datacheck01[135.149.32.4]       是              
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过


检查: 子网 "135.149.32.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:135.149.32.4        datacheck02:135.149.32.5        通过             
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过


检查: 子网 "192.168.1.0" 的节点连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck02[192.168.1.102]      datacheck01[192.168.1.101]      是              
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过


检查: 子网 "192.168.1.0" 的 TCP 连接性
  源                               目标                              是否已连接          
  ------------------------------  ------------------------------  ----------------
  datacheck01:192.168.1.101       datacheck02:192.168.1.102       通过             
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过


在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4

在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。

结果:节点连接性检查已通过

正在检查多点传送通信...

正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

多点传送通信检查已通过。

检查 UID 值为 0 的多个用户
结果:对 UID 值为 0 的多个用户进行的检查已通过
检查: 时区一致性
结果:时区一致性 检查已通过

正在检查共享存储的可访问性...

WARNING:
datacheck01:PRVF-7017 : 未安装程序包 cvuqdisk
        datacheck02,datacheck01

未找到共享存储


节点 "datacheck02,datacheck01" 上的共享存储检查失败

Checking integrity of name service switch configuration file "/etc/nsswitch.conf" ...
Checking if "hosts" entry in file "/etc/nsswitch.conf" is consistent across nodes...
Checking file "/etc/nsswitch.conf" to make sure that only one "hosts" entry is defined
More than one "hosts" entry does not exist in any "/etc/nsswitch.conf" file
All nodes have same "hosts" entry defined in file "/etc/nsswitch.conf"
Check for integrity of name service switch configuration file "/etc/nsswitch.conf" passed


在所有节点上 硬件和操作系统设置 的后期检查失败。

./runcluvfy.sh comp ssa -n datacheck01,datacheck02 -s /dev/sdb

grid@datacheck01:/soft/grid$ ./runcluvfy.sh comp ssa -n datacheck01,datacheck02 -s /dev/sdb5,/dev/sbd6,/dev/sdb7,/dev/sdb8,/dev/sdb9

验证 共享存储的可访问性

正在检查共享存储的可访问性...

ERROR:  /dev/hdisk18
PRVF-10406 : 路径 "/dev" 不适合用于 RAC 数据库文件

ERROR:  /dev/sdb5
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk

ERROR:  /dev/sbd6
PRVF-10406 : 路径 "/dev" 不适合用于 RAC 数据库文件

ERROR:  /dev/sdb7
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk

ERROR:  /dev/sdb8
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk

ERROR:  /dev/sdb9
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk


节点 "datacheck02,datacheck01" 上的共享存储检查失败

在所有指定节点上验证 共享存储的可访问性 失败。

./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02
grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02

执行 集群服务设置 的预检查

正在检查节点的可访问性...
节点 "datacheck01" 的节点可访问性检查已通过


正在检查等同用户...
用户 "grid" 的等同用户检查已通过

正在检查节点连接性...

正在检查主机配置文件...

主机配置文件的验证成功

含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过
子网 "135.149.32.0" 的 TCP 连接性检查通过

含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过
子网 "192.168.1.0" 的 TCP 连接性检查通过


在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4

在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。

节点连接性检查已通过

正在检查多点传送通信...

正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

多点传送通信检查已通过。

检查 ASMLib 配置。

ERROR:
PRVF-10105 : 在以下节点上未安装 ASMLib:
在以下节点上检查失败:
        datacheck02
ASMLib 配置检查失败。
内存总量 检查已通过
可用内存 检查已通过
交换空间 检查已通过
"datacheck02:/tmp" 的 空闲磁盘空间 检查已通过
"datacheck01:/tmp" 的 空闲磁盘空间 检查已通过
对 UID 值为 503 的多个用户进行的检查已通过
"grid" 的 用户存在性 检查已通过
"oinstall" 的 组存在性 检查已通过
"dba" 的 组存在性 检查已通过
组 "oinstall" 中用户 "grid" 的成员资格检查 [作为 主] 已通过
组 "dba" 中用户 "grid" 的成员资格检查已通过
运行级别 检查已通过
"打开的文件描述符的最大数" 的 硬性限制 检查已通过
"打开的文件描述符的最大数" 的 软性限制 检查已通过
"最大用户进程数" 的 硬性限制 检查已通过
"最大用户进程数" 的 软性限制 检查已通过
系统体系结构 检查已通过
内核版本 检查已通过
"semmsl" 的 内核参数 检查已通过
"semmns" 的 内核参数 检查已通过
"semopm" 的 内核参数 检查已通过
"semmni" 的 内核参数 检查已通过
"shmmax" 的 内核参数 检查失败
在以下节点上检查失败:
        datacheck02,datacheck01
"shmmni" 的 内核参数 检查已通过
"shmall" 的 内核参数 检查已通过
"file-max" 的 内核参数 检查已通过
"ip_local_port_range" 的 内核参数 检查已通过
"rmem_default" 的 内核参数 检查已通过
"rmem_max" 的 内核参数 检查已通过
"wmem_default" 的 内核参数 检查已通过
"wmem_max" 的 内核参数 检查已通过
"aio-max-nr" 的 内核参数 检查已通过
"make" 的 包存在性 检查已通过
"binutils" 的 包存在性 检查已通过
"gcc(x86_64)" 的 包存在性 检查已通过
"libaio(x86_64)" 的 包存在性 检查已通过
"glibc(x86_64)" 的 包存在性 检查已通过
"compat-libstdc++-33(x86_64)" 的 包存在性 检查已通过
"elfutils-libelf(x86_64)" 的 包存在性 检查已通过
"elfutils-libelf-devel" 的 包存在性 检查已通过
"glibc-common" 的 包存在性 检查已通过
"glibc-devel(x86_64)" 的 包存在性 检查已通过
"glibc-headers" 的 包存在性 检查已通过
"gcc-c++(x86_64)" 的 包存在性 检查已通过
"libaio-devel(x86_64)" 的 包存在性 检查已通过
"libgcc(x86_64)" 的 包存在性 检查已通过
"libstdc++(x86_64)" 的 包存在性 检查已通过
"libstdc++-devel(x86_64)" 的 包存在性 检查已通过
"sysstat" 的 包存在性 检查已通过
"pdksh" 的 包存在性 检查失败
在以下节点上检查失败:
        datacheck02,datacheck01
"expat(x86_64)" 的 包存在性 检查已通过
对 UID 值为 0 的多个用户进行的检查已通过
当前组 ID 检查已通过

开始检查 root 用户的主要组的一致性

已通过 root 用户主要组的一致性检查

正在使用网络时间协议 (NTP) 启动时钟同步检查...

NTP 配置文件检查开始...
NTP 配置文件检查通过
未发现任何正在运行的 NTP 守护程序或服务
PRVF-5507 : NTP 守护程序或服务未在任何节点上运行, 但以下节点上存在 NTP 配置文件:
datacheck02,datacheck01
使用网络时间协议 (NTP) 进行时钟同步检查失败

核心文件名模式一致性检查已通过。

用户 "grid" 不属于 "root" 组。检查已通过
默认用户文件创建掩码检查已通过
检查文件 "/etc/resolv.conf" 在节点间的一致性

文件 "/etc/resolv.conf" 未同时定义 'domain' 和 'search' 条目
文件 "/etc/resolv.conf" 中的 'domain' 条目在节点间一致
文件 "/etc/resolv.conf" 中的 'search' 条目在节点间一致
PRVF-5636 : 在以下节点上, 无法访问的节点的 DNS 响应时间超过 "15000" 毫秒: datacheck02,datacheck01

文件 "/etc/resolv.conf" 在各节点间不一致

时区一致性 检查已通过

在所有节点上预检查 集群服务设置 失败。

./runcluvfy.sh stage -pre dbinst -n datacheck01,datacheck02 -verbose
grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -pre dbinst -n datacheck01,datacheck02 -verbose

执行 数据库安装 的预检查

ERROR:
PRVF-4025 : 产品清单配置文件 "/etc/oraInst.loc" 不存在

正在检查节点的可访问性...

检查: 节点 "datacheck01" 的节点可访问性
  目标节点                                  是否可访问                  
  ------------------------------------  ------------------------
  datacheck02                           是                      
  datacheck01                           是                      
结果:节点 "datacheck01" 的节点可访问性检查已通过


正在检查等同用户...

检查: 用户 "grid" 的等同用户
  节点名                                   状态                     
  ------------------------------------  ------------------------
  datacheck02                           通过                     
  datacheck01                           通过                     
结果:用户 "grid" 的等同用户检查已通过

ERROR:
无法读取产品清单配置文件 "/etc/oraInst.loc"

ERROR:
PRVF-4037 : 在任一节点上都未安装 CRS
验证无法继续


./runcluvfy.sh stage -pre dbcfg -n datacheck01,datacheck02 -d $ORACLE_HOME –verbose

11、开始图形化安装
grid@datacheck01:/soft/grid$ ./runInstaller
正在启动 Oracle Universal Installer...

检查临时空间: 必须大于 120 MB。   实际为 33535 MB    通过
检查交换空间: 必须大于 150 MB。   实际为 32287 MB    通过
检查监视器: 监视器配置至少必须显示 256 种颜色
    >>> 无法使用命令 /usr/bin/xdpyinfo 自动检查显示器颜色。请检查是否设置了 DISPLAY 变量。    未通过 <<<<

未通过某些要求检查。必须先满足这些 要求,

然后才能继续安装,

是否继续  (y/n) [n] y


>>> 忽略未通过的必需先决条件。继续...
准备从以下地址启动 Oracle Universal Installer /tmp/OraInstall2014-03-12_03-20-26PM. 请稍候...
grid@datacheck01:/soft/grid$
grid@datacheck01:/soft/grid$ Exception in thread "main" java.lang.NoClassDefFoundError
        at java.lang.Class.forName0(Native Method)
        at java.lang.Class.forName(Class.java:164)
        at java.awt.Toolkit$2.run(Toolkit.java:821)
        at java.security.AccessController.doPrivileged(Native Method)
        at java.awt.Toolkit.getDefaultToolkit(Toolkit.java:804)
        at com.jgoodies.looks.LookUtils.isLowResolution(LookUtils.java:484)
        at com.jgoodies.looks.LookUtils.<clinit>(LookUtils.java:249)
        at com.jgoodies.looks.plastic.PlasticLookAndFeel.<clinit>(PlasticLookAndFeel.java:135)
        at java.lang.Class.forName0(Native Method)
        at java.lang.Class.forName(Class.java:242)
        at javax.swing.SwingUtilities.loadSystemClass(SwingUtilities.java:1779)
        at javax.swing.UIManager.setLookAndFeel(UIManager.java:453)
        at oracle.install.commons.util.Application.startup(Application.java:785)
        at oracle.install.commons.flow.FlowApplication.startup(FlowApplication.java:165)
        at oracle.install.commons.flow.FlowApplication.startup(FlowApplication.java:182)
        at oracle.install.commons.base.driver.common.Installer.startup(Installer.java:348)
        at oracle.install.ivw.crs.driver.CRSInstaller.startup(CRSInstaller.java:98)
        at oracle.install.ivw.crs.driver.CRSInstaller.main(CRSInstaller.java:105)

此问题需要用root用户执行xhost local:oracle
12、rhel6.4 oracle提供了asmlib包,如未找到asmlib包可通过如下方法绑定asm设备
       
linux使用asm安装11grac时,需绑定磁盘的uuid,比如我们要使用/dev/sdb作为asm的磁盘,那么获取方法如下:
如果使用vmware虚拟机,则需要在vmware的配置文件里加入disk.EnableUUID='TRUE',才可以获取uuid。
       
scsi_id --whitelisted --replace--whitespace --device=/dev/sdb

13、asm服务配置
service oracleasm configure

Default user to own the driver interface [grid]: grid
Default group to own the driver interface [dba]: asmadmin
Start Oracle ASM library driver on boot (y/n) [y]: y
Scan for Oracle ASM disks on boot (y/n) [y]: y
Writing Oracle ASM library driver configuration: done
Initializing the Oracle ASMLib driver: [  OK  ]
Scanning the system for Oracle ASMLib disks: [  OK  ]

---------不禁用selinux导致报错,创建asm磁盘报错,如下:
Disk "OCR_VOTE1" does not exist or is not instantiated
Writing disk header: done
Instantiating disk: oracleasm-instantiate-disk: Unable to create ASM disk "OCR_VOTE1": Permission denied
failed
Clearing disk header: done
------禁用selinux方式
[root@datacheck02 ~]# vi /etc/selinux/config

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=permissive
# SELINUXTYPE= can take one of these two values:
#     targeted - Targeted processes are protected,
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted

setenforce 0

getenforce

14、创建asm磁盘
------------1节点创建asm磁盘
service oracleasm createdisk OCR_VOTE1 /dev/sdb5
service oracleasm createdisk OCR_VOTE2 /dev/sdb6
service oracleasm createdisk OCR_VOTE3 /dev/sdb7
service oracleasm createdisk OCR_VOTE4 /dev/sdb8
service oracleasm createdisk OCR_VOTE5 /dev/sdb9

service oracleasm createdisk VOL1 /dev/sdb10
service oracleasm createdisk VOL2 /dev/sdb11
service oracleasm createdisk VOL3 /dev/sdb12
service oracleasm createdisk VOL4 /dev/sdb13
service oracleasm createdisk VOL5 /dev/sdb14
service oracleasm createdisk VOL6 /dev/sdb15

service oracleasm listdisks

--------2节点扫描asm磁盘
service oracleasm scandisks
service oracleasm listdisks

--------图形化界面报错,执行如下命令
xhost local:oracle

15、关闭防火墙否则会报错
--------确认两节点都关闭了防火墙,否则会报如下报错
Multicast check - This task checks that network interfaces in subnet are able to communicate over multicast IP address
  Check Failed on Nodes: [datacheck02, datacheck01] 
Verification result of failed node: datacheck02

Details:

16、安装完毕执行root.sh脚本
-------./root.sh执行

1节点
[root@datacheck01 11.2.0]# ./root.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/grid/11.2.0

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/grid/11.2.0/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
  root wallet
  root wallet cert
  root cert export
  peer wallet
  profile reader wallet
  pa wallet
  peer wallet keys
  pa wallet keys
  peer cert request
  pa cert request
  peer cert
  pa cert
  peer root cert TP
  profile reader root cert TP
  pa root cert TP
  peer pa cert TP
  pa peer cert TP
  profile reader pa cert TP
  profile reader peer cert TP
  peer user cert
  pa user cert
Adding Clusterware entries to upstart
CRS-2672: Attempting to start 'ora.mdnsd' on 'datacheck01'
CRS-2676: Start of 'ora.mdnsd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'datacheck01'
CRS-2676: Start of 'ora.gpnpd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'datacheck01'
CRS-2672: Attempting to start 'ora.gipcd' on 'datacheck01'
CRS-2676: Start of 'ora.cssdmonitor' on 'datacheck01' succeeded
CRS-2676: Start of 'ora.gipcd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'datacheck01'
CRS-2672: Attempting to start 'ora.diskmon' on 'datacheck01'
CRS-2676: Start of 'ora.diskmon' on 'datacheck01' succeeded
CRS-2676: Start of 'ora.cssd' on 'datacheck01' succeeded

ASM created and started successfully.

Disk Group OCR_VOTE created successfully.

clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
CRS-4256: Updating the profile
Successful addition of voting disk 8e2f6a12fc0c4f3dbf4d153cf4b876d5.
Successful addition of voting disk 9e71e8a2a9b24f88bf9cd1fb9b13ef08.
Successful addition of voting disk 503df41e0c384f39bf9b700e1948af9c.
Successful addition of voting disk a900e5c172384fedbfe3ba83ac0aad01.
Successful addition of voting disk 1e32c962ae0a4f17bf9ae8d6a05e2fbb.
Successfully replaced voting disk group with +OCR_VOTE.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
##  STATE    File Universal Id                File Name Disk group
--  -----    -----------------                --------- ---------
 1. ONLINE   8e2f6a12fc0c4f3dbf4d153cf4b876d5 (ORCL:OCR_VOTE1) [OCR_VOTE]
 2. ONLINE   9e71e8a2a9b24f88bf9cd1fb9b13ef08 (ORCL:OCR_VOTE2) [OCR_VOTE]
 3. ONLINE   503df41e0c384f39bf9b700e1948af9c (ORCL:OCR_VOTE3) [OCR_VOTE]
 4. ONLINE   a900e5c172384fedbfe3ba83ac0aad01 (ORCL:OCR_VOTE4) [OCR_VOTE]
 5. ONLINE   1e32c962ae0a4f17bf9ae8d6a05e2fbb (ORCL:OCR_VOTE5) [OCR_VOTE]
Located 5 voting disk(s).

CRS-2672: Attempting to start 'ora.asm' on 'datacheck01'
CRS-2676: Start of 'ora.asm' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.OCR_VOTE.dg' on 'datacheck01'
CRS-2676: Start of 'ora.OCR_VOTE.dg' on 'datacheck01' succeeded
Configure Oracle Grid Infrastructure for a Cluster ... succeeded

--2节点
[root@datacheck02 11.2.0]# ./root.sh
Performing root user operation for Oracle 11g

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/grid/11.2.0

Enter the full pathname of the local bin directory: [/usr/local/bin]:
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/grid/11.2.0/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
Adding Clusterware entries to upstart
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node datacheck01, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
Configure Oracle Grid Infrastructure for a Cluster ... succeeded


17、检查grid相关服务
grid@datacheck01:/home/grid$ crs_stat -t
Name           Type           Target    State     Host       
------------------------------------------------------------
ora....N1.lsnr ora....er.type ONLINE    ONLINE    datacheck01
ora....VOTE.dg ora....up.type ONLINE    ONLINE    datacheck01
ora.asm        ora.asm.type   ONLINE    ONLINE    datacheck01
ora.cvu        ora.cvu.type   ONLINE    ONLINE    datacheck01
ora....SM1.asm application    ONLINE    ONLINE    datacheck01
ora....k01.gsd application    OFFLINE   OFFLINE              
ora....k01.ons application    ONLINE    ONLINE    datacheck01
ora....k01.vip ora....t1.type ONLINE    ONLINE    datacheck01
ora....SM2.asm application    ONLINE    ONLINE    datacheck02
ora....k02.gsd application    OFFLINE   OFFLINE              
ora....k02.ons application    ONLINE    ONLINE    datacheck02
ora....k02.vip ora....t1.type ONLINE    ONLINE    datacheck02
ora.gsd        ora.gsd.type   OFFLINE   OFFLINE              
ora....network ora....rk.type ONLINE    ONLINE    datacheck01
ora.oc4j       ora.oc4j.type  ONLINE    ONLINE    datacheck01
ora.ons        ora.ons.type   ONLINE    ONLINE    datacheck01
ora....ry.acfs ora....fs.type ONLINE    ONLINE    datacheck01
ora.scan1.vip  ora....ip.type ONLINE    ONLINE    datacheck01

18、安装完毕会报一个报错,此报错可以忽略
Cause-The plug-in failed in its perform method  Action-Refer to the logs or contact Oracle Support Services.  Log File Location
/u01/app/oraInventory/logs/installActions2012-10-25_06-12-08AM.log


19、配置总结
1、linux防火墙一定要关闭
2、linux的时钟同步服务ntpd如果不配置的话,需要把/etc/ntp.conf备份保存,这样oracle就可以用自己的时钟同步服务
mv /etc/ntp.conf /etc/ntp.conf.bak


遇到的报错如下:
$GRID_HOME/log/alert*.log
[client(5337)]CRS-4743:File /u01/app/grid/11.2.0/oc4j/j2ee/home/OC4J_DBWLM_config/system-jazn-data.xml was updated from OCR(Size: 13
365(New), 13378(Old) bytes)
2014-03-17 15:25:04.275:
[/u01/app/grid/11.2.0/bin/orarootagent.bin(5191)]CRS-5822:Agent '/u01/app/grid/11.2.0/bin/orarootagent_root' disconnected from serve
r. Details at (:CRSAGF00117:) {0:5:9} in /u01/app/grid/11.2.0/log/datacheck02/agent/crsd/orarootagent_root/orarootagent_root.log.
2014-03-17 15:25:05.182:
[ctssd(4563)]CRS-2405:The Cluster Time Synchronization Service on host datacheck02 is shutdown by user
2014-03-17 15:25:15.092:
[cssd(4124)]CRS-1603:CSSD on node datacheck02 shutdown by user.
2014-03-17 15:25:15.201:
[ohasd(3430)]CRS-2767:Resource state recovery not attempted for 'ora.cssdmonitor' as its target state is OFFLINE
2014-03-17 15:25:15.201:
[ohasd(3430)]CRS-2769:Unable to failover resource 'ora.cssdmonitor'.
2014-03-17 15:25:15.295:
[cssd(4124)]CRS-1660:The CSS daemon shutdown has completed
2014-03-17 15:26:55.523:
[cssd(29146)]CRS-1713:CSSD daemon is started in clustered mode
2014-03-17 15:26:57.297:
[ohasd(3430)]CRS-2767:Resource state recovery not attempted for 'ora.diskmon' as its target state is OFFLINE
2014-03-17 15:26:57.297:
[ohasd(3430)]CRS-2769:Unable to failover resource 'ora.diskmon'.
2014-03-17 15:27:21.680:
[cssd(29146)]CRS-1707:Lease acquisition for node datacheck02 number 2 completed
2014-03-17 15:27:22.986:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE5; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:22.998:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE4; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.009:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE3; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.021:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE2; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.032:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE1; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:30:17.519:
[client(29639)]CRS-1013:The OCR location in an ASM disk group is inaccessible. Details in /u01/app/grid/11.2.0/log/datacheck02/clien
t/crsctl_grid.log.
2014-03-17 15:30:27.145:
[client(29954)]CRS-1013:The OCR location in an ASM disk group is inaccessible. Details in /u01/app/grid/11.2.0/log/datacheck02/clien
t/crsctl_grid.log.

2014-03-17 15:41:15.661: [    CSSD][2427000576]clssgmDiscEndpcl: gipcDestroy 0x38e3
2014-03-17 15:41:16.415: [    CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81116, LATS 6832744, lastSeqNo 81111, uniqueness 1395040768, timestamp 1395042078/1609984
2014-03-17 15:41:16.437: [    CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81117, LATS 6832764, lastSeqNo 81112, uniqueness 1395040768, timestamp 1395042078/1609994
2014-03-17 15:41:16.493: [    CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State  val 3, eval 1 waited 0
2014-03-17 15:41:16.998: [    CSSD][2184079104]clssnmSendingThread: sending join msg to all nodes
2014-03-17 15:41:16.998: [    CSSD][2184079104]clssnmSendingThread: sent 5 join msgs to all nodes
2014-03-17 15:41:17.416: [    CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81121, LATS 6833744, lastSeqNo 81116, uniqueness 1395040768, timestamp 1395042079/1610984
2014-03-17 15:41:17.439: [    CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81122, LATS 6833774, lastSeqNo 81117, uniqueness 1395040768, timestamp 1395042079/1610994
2014-03-17 15:41:17.493: [    CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State  val 3, eval 1 waited 0
2014-03-17 15:41:18.418: [    CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81126, LATS 6834744, lastSeqNo 81121, uniqueness 1395040768, timestamp 1395042080/1611984
2014-03-17 15:41:18.440: [    CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81127, LATS 6834774, lastSeqNo 81122, uniqueness 1395040768, timestamp 1395042080/1611994
2014-03-17 15:41:18.493: [    CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State  val 3, eval 1 waited 0
2014-03-17 15:41:19.420: [    CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81131, LATS 6835754, lastSeqNo 81126, uniqueness 1395040768, timestamp 1395042081/1612994
2014-03-17 15:41:19.493: [    CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State  val 3, eval 1 waited 0
2014-03-17 15:41:20.411: [    CSSD][2427000576]clssgmDeadProc: proc 0x7f138807db40
2014-03-17 15:41:20.411: [    CSSD][2427000576]clssgmDestroyProc: cleaning up proc(0x7f138807db40) con(0x387d) skgpid  ospid 4168 wi
th 0 clients, refcount 0
2014-03-17 15:41:20.411: [    CSSD][2427000576]clssgmDiscEndpcl: gipcDestroy 0x387d
2014-03-17 15:41:20.414: [    CSSD][2427000576]clssscSelect: cookie accept request 0xf01090
2014-03-17 15:41:20.414: [    CSSD][2427000576]clssgmAllocProc: (0x7f13880665e0) allocated
2014-03-17 15:41:20.415: [    CSSD][2427000576]clssgmClientConnectMsg: properties of cmProc 0x7f13880665e0 - 1,2,3,4,5
2014-03-17 15:41:20.415: [    CSSD][2427000576]clssgmClientConnectMsg: Connect from con(0x396d) proc(0x7f13880665e0) pid(4168) versi
on 11:2:1:4, properties: 1,2,3,4,5

20、创建数据库
如遇到建库是提示需要输入asmsnmp密码,但是输入密码后又提示报错的可以通过登录asm实例来修改asmsnmp密码
ASM实例如果已启动,用网格用户(通常是grid用户)输入:sqlplus / as sysasm
然后:
alter user ASMSNMP identified by 新密码;

--------------停止11g集群后任然存在的进程
crsctl stop cluster -all

root      1882     1  0 Mar17 ?        00:03:27 /u01/app/grid/11.2.0/jdk/jre/bin/java -Xms64m -Xmx256m -classpath /u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/RATFA.jar:/u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/je-4.0.103.jar:/u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/ojdbc6.jar oracle.rat.tfa.TFAMain /u01/app/grid/11.2.0/tfa/datacheck01/tfa_home
root      3198     1  0 Mar17 ?        00:07:31 /u01/app/grid/11.2.0/bin/ohasd.bin reboot
grid      3597     1  0 Mar17 ?        00:05:23 /u01/app/grid/11.2.0/bin/oraagent.bin
grid      3608     1  0 Mar17 ?        00:00:04 /u01/app/grid/11.2.0/bin/mdnsd.bin
grid      3618     1  0 Mar17 ?        00:00:59 /u01/app/grid/11.2.0/bin/gpnpd.bin
grid      3631     1  0 Mar17 ?        00:06:47 /u01/app/grid/11.2.0/bin/gipcd.bin
root      3632     1  0 Mar17 ?        00:06:36 /u01/app/grid/11.2.0/bin/orarootagent.bin
root      3646     1  3 Mar17 ?        00:38:16 /u01/app/grid/11.2.0/bin/osysmond.bin
root      3867     1  0 Mar17 ?        00:01:57 /u01/app/grid/11.2.0/bin/ologgerd -m datacheck02 -r -d /u01/app/grid/11.2.0/crf/db/datacheck01

crsctl stat res -t


srvctl stop scan_listener

srvctl status scan
srvctl status scan_listener
srvctl relocate scan_listener -i 1 -n rac2


11G RAC 通过SCAN IP连数据库报ORA-12537

以下是MOS [ID 1069517.1]资料:

Symptoms
In environment where listener home (including SCAN listener which resides in Grid Infrastructure/ASM home) and database home are owned by different OS user, ORA-12537 could happen when connecting through listener, when creating database through DBCA, or when installing database software and creating a database in runInstaller. Job Role Separation is a typical example as SCAN and local grid home listener is owned differently than database.

Error detail
12537, 00000, "TNS:connection closed"
// *Cause: "End of file" condition has been reached; partner has disconnected.
// *Action: None needed; this is an information message.
Before the error is reported, connection could hang for a while, and a core file may also be generated.
Screen output:
SQL> conn system/xxx@OSES
ERROR:
ORA-12537: TNS:connection closed
OR
PRCR-1079 : Failed to start resource ora.db11.db
CRS-5011: Check of resource db11 failed: details at ..
CRS-2674: Start of ora.db11.db on racnode1 failed
ORA-12546: TNS:permission denied

listener_scann.log or listener.log
TNS-12518: TNS:listener could not hand off client connection
TNS-12546: TNS:permission denied
 TNS-12560: TNS:protocol adapter error
  TNS-00516: Permission denied
   Linux Error: 13: Permission denied
OR
TNS-12518: TNS:listener could not hand off client connection
TNS-12547: TNS:lost contact
 TNS-12560: TNS:protocol adapter error
  TNS-00517: Lost contact
   Linux Error: 32: Broken pipe

runInstaller error if installing
INFO: Starting Output Reader Threads for process /ocw/grid/bin/kfod
INFO: Parsing KFOD-00300: OCI error [-1] [OCI error] [ORA-12547: TNS:lost contact
INFO: Parsing ] [12547]
INFO: Parsing
INFO: The process /ocw/grid/bin/kfod exited with code 1
..
SEVERE: [FATAL] [INS-30502] No ASM disk group found.
   CAUSE: There were no disk groups managed by the ASM instance +ASM1.
 
Cause
1. Listener owner (including SCAN listener) can not access oracle binary in database home:
As listener owner:

$ ls -l $RDBMS_HOME/bin/oracle
ls: /home/oracle/app/oracle/product/11.2/db/bin/oracle: Permission denied

2. Oracle binary in database home has wrong permission:

ls -l $RDBMS_HOME/bin/oracle
-rwxr-x--x 1 oracle asmadmin 184286251 Aug  9 16:25 /home/oracle/app/oracle/product/11.2/db/bin/oracle
The permission "-rwxr-x--x" is wrong as it's missing suid bit, oracle binary should have permission of 6751:

-rwsr-s--x 1 oracle asmadmin 184286251 Aug  9 16:25 /home/oracle/app/oracle/product/11.2/db/bin/oracle
Note: If Job Role Separation is in place, the group will be <asmadmin>, otherwise it will be <oinstall>

3. File System for database home does not support setuid/suid or has nosetuid/nosuid set:

mount| grep <mount_point_of_ORACLE_HOME>
/home/oracle on /dev/dsk/diskoracle read/write/nosuid..
 
Solution
Solution is to make sure file system for database home has setuid/suid set, database binary($RDBMS_HOME/bin/oracle) has correct ownership and permission, and listener owner is able to access database oracle binary (as listener owner, "ls -l $RDBMS_HOME/bin/oracle" will tell)
If its Job Role Separation environment, please refer to the following document:
Oracle? Grid Infrastructure
Installation Guide
11g Release 2 (11.2)
Oracle ASM Job Role Separation Option with SYSASM


用grid用户 crs_stop -all停止crs集群服务时,asm的服务无法停止
grid@datacheck02:/home/grid$ crs_stat -t
Name           Type           Target    State     Host       
------------------------------------------------------------
ora.DATA1.dg   ora....up.type OFFLINE   OFFLINE              
ora.FRA.dg     ora....up.type OFFLINE   OFFLINE              
ora....ER.lsnr ora....er.type OFFLINE   OFFLINE              
ora....N1.lsnr ora....er.type OFFLINE   OFFLINE              
ora....VOTE.dg ora....up.type OFFLINE   OFFLINE              
ora.asm        ora.asm.type   OFFLINE   ONLINE    datacheck02
ora.cvu        ora.cvu.type   OFFLINE   OFFLINE              
ora....SM1.asm application    OFFLINE   ONLINE    datacheck01
ora....01.lsnr application    OFFLINE   OFFLINE              
ora....k01.gsd application    OFFLINE   OFFLINE              
ora....k01.ons application    OFFLINE   OFFLINE              
ora....k01.vip ora....t1.type OFFLINE   OFFLINE              
ora....SM2.asm application    OFFLINE   ONLINE    datacheck02
ora....02.lsnr application    OFFLINE   OFFLINE              
ora....k02.gsd application    OFFLINE   OFFLINE              
ora....k02.ons application    OFFLINE   OFFLINE              
ora....k02.vip ora....t1.type OFFLINE   OFFLINE              
ora.gsd        ora.gsd.type   OFFLINE   OFFLINE              
ora....network ora....rk.type OFFLINE   OFFLINE              
ora.oc4j       ora.oc4j.type  OFFLINE   OFFLINE              
ora.ons        ora.ons.type   OFFLINE   OFFLINE              
ora....ry.acfs ora....fs.type OFFLINE   OFFLINE              
ora.scan1.vip  ora....ip.type OFFLINE   OFFLINE              
ora.sjjh.db    ora....se.type OFFLINE   OFFLINE


增加redolog组

alter database add logfile thread 1 group 5('+DATA1','+FRA') size 1024m;
alter database add logfile thread 2 group 6('+DATA1','+FRA') size 1024m;

alter system set audit_trail=none scope=spfile;
alter system set sga_max_size=20480m scope=spfile;
alter system set pga_aggregate_target=5120m scope=spfile;
alter system set memory_max_target=40960m scope=spfile;


1、停止两节点数据库
2、用rman复制控制文件
restore controlfile to '+DATA1' from '+DATA1/sjjh/controlfile/current.260.842459723';

startup nomount
在节点1执行
alter system set control_files='+DATA1/sjjh/controlfile/current.260.842459723','+FLASH_AREA/oipdb/controlfile/current.256.836307323','+DATA1/oipdb/controlfile/current.270.836324167' scope=spfile;
alter database open;

create spfile='+DATA1' from pfile;
---根据新创建的spfile创建软连接
mkalias '+DATA1/SJJH/PARAMETERFILE/spfile.271.842545793' '+DATA1/SJJH/spfilesjjh.ora'


create tablespace ANALY_DATA datafile '+DATA1' size 10240m autoextend off;
create tablespace COMP_DATA1 datafile '+DATA1' size 10240m autoextend off;
create tablespace COMP_DATA2 datafile '+DATA1' size 10240m autoextend off;

create user dbsweetadm identified by "dbsweetadm" default tablespace ANALY_DATA;
create user analysecyc identified by "Abcd1234!" default tablespace COMP_DATA1;
create user bsndemo identified by "Abcd1234!" default tablespace COMP_DATA2;

grant connect,resource to dbsweetadm,analysecyc,bsndemo;


service oracleasm createdisk VOL7 /dev/sdd1
service oracleasm createdisk VOL8 /dev/sdd2


select group_number gno,name,state,type,total_mb,free_mb,  
           required_mirror_free_mb rmfmb,usable_file_mb ufmb
           from v$asm_diskgroup;
          
create diskgroup DATA2 external redundancy disk 'ORCL:VOL7';
create diskgroup DATA3 external redundancy disk 'ORCL:VOL8';

sqlplus "/as sysdba" <<!
select sysdate from dual;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;

alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;

alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
select sysdate from dual;
exit
!


http://www.ppmy.cn/news/157615.html

相关文章

Jzoj4743 积木

由于n很小(<15)我们考虑状态压缩 显然可以用三进制&#xff08;雾&#xff09;但是太浪费了 我们令f[i][j][s]表示现在已用的积木状态为S&#xff0c;最上面那个积木是第i个&#xff0c;其中这个积木的第j(0<j<3)条边是竖着的&#xff08;不在上表面&#xff09; 转移…

宏碁笔记本安装黑苹果过程记录

之前用这台笔记本装过Ubuntu&#xff0c;装过Deepin&#xff0c;今天继续折腾装一个黑苹果。 首先先做一个启动盘。我用的工具是Rufus&#xff0c;一款特别小众的软件&#xff0c;不过还是挺好用的。 image.png 然后就是写入镜像 image.png 镜像写入好之后插上电脑开机&#xf…

宏碁4743G+固态硬盘(SSD)+机械硬盘(HHD)混合用

原材料&#xff1a;&#xff08;某东上买的&#xff0c;二手东有个好处就是可以退货&#xff0c;开始买的某顿&#xff0c;评价貌似不太好&#xff0c;直接退货&#xff09; 三星理论上&#xff0c;SATA3接口能达到500M/S&#xff0c;可惜本本太老&#xff0c;只支持SATA2的了&…

接口幂等方案

文章目录 概要方案乐观锁数据库唯一索引令牌tokentoken通过另一个接口从服务端获取客户端自身生成token 总结 概要 所谓接口幂等性&#xff0c;就是一次和多次请求某一个资源对于资源本身应该具有同样的影响。接口幂等的应用很广&#xff0c;小到防止表单重复提交&#xff0c;…

前端042_图表展现_自适应

自适应 当缩小窗口时,饼图和柱状图不会自动自适应,会被遮挡住。因为 ECharts 本身并不是自适应的,当你父级容器的宽度发生变化的时候需要手动调用它的 .resize() 方法。 其中 vue-element-admin项目中已经实现了自适应效果,只要将对应代码拷贝引用即可。将 vue-element-adm…

罗技鼠标键盘没法使用,可以尝试安装此驱动

罗技鼠标键盘如果安装了新驱动之后打不开&#xff0c;没法使用&#xff0c;可以尝试安装此驱动&#xff0c;亲试可用 链接&#xff1a;https://pan.baidu.com/s/11cVMH4IwR4h-Ca_QJLpp7g 提取码&#xff1a;mils 复制这段内容后打开百度网盘手机App&#xff0c;操作更方便哦

罗技鼠标驱动G HUB导致触摸板无法使用

因为需要调节鼠标的亮度所以下载了罗技的鼠标驱动&#xff0c;但是在使用过程中发现&#xff0c;触摸板无法使用。 处理步骤如下&#xff1a; 1.卸载罗技G HUB 驱动软件。 2.在设备管理器中&#xff0c;禁用触摸板设备。 3.重新启动即可。 无鼠标下快捷键&#xff1a; 1.SHift…

罗技驱动调节灵敏度方法介绍

罗技驱动怎么调dpi&#xff1f;罗技驱动能适应各个用户的需要&#xff0c;给不同的用户带来相同的舒服的体验感&#xff0c;但每个用户的需要不一样&#xff0c;因此就需要通过调节dpi来满足用户的需求。 罗技驱动怎么调dpi&#xff1f; 1、首先用户需要打开官网的罗技驱动程序…