频道栏目
首页 > 数据库 > Oracle > 正文
HACMP6.1+ORACLE10GRAConAIX6.1安装文档-20140215
2014-02-17 09:15:37         来源:HACMP 6.1 + ORACLE 10G RAC on AIX6.1 安装文档-20140215  
收藏   我要投稿

HACMP 6.1 + ORACLE 10G RAC on AIX6.1 安装文档-20140215

若在安装过程中出现任何问题,可以联系本人,免费提供任何技术支持!

更多信息:

https://www.h9ren.net/forum.php?mod=viewthread&tid=307&fromuid=1

or

https://www.2zl.com.cn/forum.php?mod=viewthread&tid=247&fromuid=
————————————————————————————————————————————————————————————————
- 整体规划:AIX 6.1 SP 8 -
- HACMP 6.1 SP 12 -
- Cluster 10.2 oracle10.2 -
- 两类心跳组合: -
- 磁盘心跳(Non-IP)+ IP 心跳 -
- 或 串口心跳(Non-IP) + IP 心跳 -
————————————————————————————————————————————————————————————————

一、安装操作系统

安装之前需要注意是选择完全安装,并先只在一块盘上安装
2台主机的public IP
192.168.161.91
192.168.161.92
子网掩码
255.255.255.0
网关
192.168.161.1

安装之后配置时间、ip,需要选择软件的license为yes。

二、操作系统配置

OS安装完成之后做的一些准备工作

1.先将hdisk1增加到rootvg中
extendvg rootvg hdisk1

2.做rootvg的mirror
mirrorvg -S rootvg

3.修改系统参数

修改/etc/security/limit文件,其中修改:

default:
fsize = -1
core = 2097151
cpu = -1
data = -1
rss = 65536
stack = -1
nofiles = -1

smitty chgsys

修改: Maximum number of PROCESSES allowed per user [2048以上]

4.修改内核参数
/usr/sbin/no -r -o ipqmaxlen=512
/usr/sbin/no -p -o sb_max=1310720
/usr/sbin/no -p -o rfc1323=1
/usr/sbin/no -p -o tcp_recvspace=262144
/usr/sbin/no -p -o tcp_sendspace=262144
/usr/sbin/no -p -o udp_sendspace=262144
/usr/sbin/no -p -o udp_recvspace=655360
vmo -p -o lru_file_repage=0
vmo -p -o minperm%=5
vmo -p -o maxclient%=15
vmo -p -o maxperm%=15

5.镜像boot image到hdisk1
检查一下系统ps -ef | grep rootvg查看一下mirror是否完成,如完成进行以下操作
bosboot -ad /dev/hdisk1

6.设置boot顺序
bootlist -m normal hdisk0 hdisk1

7.重启os
shutdown -Fr

8.扩文件系统:

以下文件系统按要求扩容,用smitty chjfs2命令
/ 1g
/usr 3g
/var 1g
/tmp 1g
/home 1g

如果需要,对swap区扩容,用smitty chps命令
或者用smitty mkps命令新建一个swap

9.安装oracle需要的一些os包

以下os要求的包:
bos.data.*
bos.adt.base.*
bos.adt.*
bos.perf.libperfstat 6.1.2.1 or later (AIX 6.1)
bos.perf.perfstat
bos.perf.proctools
rsct.basic.rte
rsct.compat.clients.rte
xlC.aix61.rte:10.1.0.0 or later (AIX 6.1)

安装hacmp还需要以下其它的包
rsct.compat.*
rsct.opt.*
bos.clvm.*

用lslpp -l | grep bos.adt这类的命令检查

用smitty installp命令进行安装包

10.建立software目录用来存放介质

建文件系统,用来存放一些介质,建lv的时候如果copies为默认的1,则没有镜像,如果选择2,自动在hdisk1上有镜像
例如
/dev/fslv00 10.00 10.00 1% 4 1% /software

三、安装配置HACMP

同样的方式上传ha61.zip和HA6112.zip

HA61是基本包,用installp , 6112 是patch,用update_all

2个zip包,需要解压,AIX默认没有unzip命令,可以用jar命令解压,如:jar -xvf HA540.zip

解压之后安装,在HA61的解压目录下用smitty installp,安装,其中cluster.hativoli和cluster.haview不选

在ha6112的解压目录下用 smitty update_all,安装。

安装完成之后可以验证到cluster已经处于active状态:
# lssrc -g cluster
Subsystem Group PID Status
clstrmgrES cluster 332024 active
clinfoES cluster 304981 active

#####################################################################################
## 非常重要 ##
########## 重启操作系统 #############
#####################################################################################

开始配置HACMP

1.配置IP

HACMP至少需要2张网卡,前面安装OS的时候配置了一张网卡的IP,现在配置另一张网卡的IP
2个节点的en1,分别配置IP为10.10.10.91和10.10.10.92

用smitty tcpip配置,由于en1配置为私网,所以不用生产网段,也不配置网关。

2.配置/etc/hosts

确保有 127.0.0.1 localhost

配置3类IP,public和vip同为生产网段,private为私有IP,私有IP和VIP都只对应1个IP别名。

127.0.0.1 loopback localhost # loopback (lo0) name/address
192.168.161.91 node1
192.168.161.92 node2
192.168.161.191 node1_vip
192.168.161.192 node2_vip
10.10.10.91 node1_prv
10.10.10.92 node2_prv

3.配置/.rhosts

配置双机信任,需要在2个节点上都配置各自的rhosts文件,把对方服务器的public和private ip放入其中
192.168.161.91
192.168.161.92
10.10.10.91
10.10.10.92

用rlogin测试登录是否不需要输入密码

4.添加一个cluster

只需现在1节点上做

smitty hacmp -> Extended Configuration -> Extended Topology Configuration -> Configure an HACMP Cluster -> Add/Change/Show an HACMP Cluster
输入集群名称

5.添加节点

smitty hacmp -> Extended Configuration -> Extended Topology Configuration -> Configure HACMP Nodes -> Add a Node to the HACMP Cluster
一个节点一个节点的添加,联系路径选择公网

* Node Name [node1]
Communication Path to Node [node1]

* Node Name [node2]
Communication Path to Node [node2]

6.添加网络

smitty hacmp -> Extended Configuration -> Extended Topology Configuration -> Configure HACMP Networks -> Add a Network to the HACMP Cluster
网络类型选择基于IP的ether

Enable IP Address Takeover via IP Aliases 选择 No ,不通过IP别名切换。

* Network Name [net_ether_01]

* Network Type ether
* Netmask [255.255.255.0]
* Enable IP Address Takeover via IP Aliases [No]
IP Address Offset for Heartbeating over IP Aliases []

添加2个网络,用于公网和私网
net_ether_01
net_ether_02

7.添加网络接口

在此步开始之前,先检查发现一下相关节点信息:
smitty hacmp -> Extended Configuration -> Discover HACMP-related Information from Configured Nodes
配置网络接口:
smitty hacmp -> Extended Configuration -> Extended Topology Configuration -> Configure HACMP Communication Interfaces/Devices -> Add Communication Interfaces/Devices
选择Add Discovered Communication Interface and Devices -> Add Discovered Communication Interface and Devices

一个网络一个网络添加,先添加net_ether_01用于公网,用Esc+7,选择2个节点的en0,公网
再同样方法配置net_ether_02私网

8.修改网络属性,将net_ether_02网络改为私网
smitty hacmp -> Extended Configuration -> Extended Topology Configuration -> Configure HACMP Networks -> Change/Show a Network in the HACMP Cluster
选择net_ether_02,修改Network attribute为private

9.同步HACMP到节点2上

smitty hacmp -> Extended Configuration -> Extended Verification and Synchronization
使用缺省设置即可。

10.启动HACMP

分别在2个节点上启动cluster
smitty clstart,设置Startup Cluster Information Daemon? 为true
注意Start now, on system restart or both设置为now ,不随操作系统启动

启动之后,可以用lssrc -g cluster检查是否有一个clinfoES的deamon
# lssrc -g cluster
Subsystem Group PID Status
clstrmgrES cluster 364646 active
clinfoES cluster 356372 active

11.配置并行VG

只需在节点1上配置
smitty vg -> Add a Volume Group -> Add a Scalable Volume Group

设置卷组名和pv,注意设置不自动激活,因为之后由HACMP激活;设置vg为并行。
Activate volume group AUTOMATICALLY no
Convert this VG to Concurrent Capable? enhanced concurrent
建好vg之后,停止vg,varyoffvg datavg,在2节点将vg导入
importvg -c -y datavg hdisk2

建立好vg之后,需要在hacmp里再次扫描,发现vg信息

12.设置hacmp资源组

只需在节点1上配置
smitty hacmp -> Extended Configuration -> Extended Resource Configuration -> HACMP Extended Resource Group Configuration -> Add a Resource Group
设置为2个节点
* Resource Group Name [group_vg]
* Participating Nodes (Default Node Priority) [node1 node2]

Startup Policy Online On All Available Nodes
Fallover Policy Bring Offline (On Error Node Only)
Fallback Policy Never Fallback

修改资源组属性
smitty hacmp -> Extended Configuration -> Extended Resource Configuration -> HACMP Extended Resource Group Configuration -> Change/Show Resources and Attributes for a Resource Group
Concurrent Volume Groups中可以通过F4来选择并行vg

13.将cluster停止,同步HACMP

分别在2个节点上停止:smitty clstop
在节点1上同步HACMP
smitty hacmp -> Extended Configuration -> Extended Verification and Synchronization

同步之后,分别在2个节点上启动cluster
smitty clstart
观察日志 /var/hacmp/log/hacmp.out和cluster服务状态lssrc -g cluster
并观察vg是否自动并行激活。

可以在其中一个节点上建立一个并行vg下的lv,观察另一个节点上是否也有该lv信息。

四、准备oracle环境

1.创建oracle用户组和用户
建立3个组,oinstall、dba、hagsuser,2个节点上的组id必需相同。
mkgroup id=301 oinstall
mkgroup id=302 dba
mkgroup id=303 hagsuser

2个节点上的oracle用户id必需相同
使用smitty user命令创建,这里用户id定义成500,由于之前设置了全局默认的limit,创建用户时不需要再设置。

* User NAME [oracle]
User ID [500] #
ADMINISTRATIVE USER? false +
Primary GROUP [oinstall] +
Group SET [dba,hagsuser]

也可用命令修改:
mkuser id=500 pgrp=oinstall groups=dba,hagsuser oracle

使用passwd命令修改oracle密码
# passwd oracle
Changing password for "oracle"
oracle's New password:
Enter the new password again:

****配置SSH信任,该方案作为一个可选方案配置,如果客户有特别要求*****
AIX默认没有安装ssl和ssh的包,无法用ssh方式连接,需要到ibm网站上下载安装包
openssl的下载地址:https://www14.software.ibm.com/webapp/iwm/web/reg/download.do?source=aixbp&S_PKG=openssl&lang=en_US
openssh的下载地址:https://www14.software.ibm.com/webapp/iwm/web/reg/download.do?source=aixbp&lang=en_US&S_PKG=openssh&cp=UTF-8

在2个节点都需要进行步骤<1>至<5>

<1>切换到oracle用户下
su - oracle

<2>创建ssh目录
mkdir ~/.ssh

<3>修改ssh目录权限,该步骤很重要
chmod 700 ~/.ssh
<4>创建RSA KEY
$ /usr/bin/ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/oracle/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/oracle/.ssh/id_rsa.
Your public key has been saved in /home/oracle/.ssh/id_rsa.pub.
The key fingerprint is:
fb:d4:c7:e0:d9:d2:ef:ef:e8:2e:04:44:24:db:1b:11 oracle@node1
The key's randomart image is:
+--[ RSA 2048]----+
| .oE. |
| +.. |
| ..o |
| .o |
| S ... |
| . o.* |
| . ..= = |
| o .o o |
| . ++o*|
+-----------------+

<5>生成DSA KEY
$ /usr/bin/ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/home/oracle/.ssh/id_dsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/oracle/.ssh/id_dsa.
Your public key has been saved in /home/oracle/.ssh/id_dsa.pub.
The key fingerprint is:
ae:13:a1:45:c3:8e:10:2a:ba:8c:68:cf:a2:ac:8a:74 oracle@node1
The key's randomart image is:
+--[ DSA 1024]----+
| .. . |
| .. + |
|o . + . |
|o . + |
|. o .S |
|+. . .. |
|++ E .. |
|=.+ .. |
|O..o .. |
+-----------------+

以上步骤在2个节点都要完成,以下步骤只需要节点1完成。
<6>创建authorized key文件
touch ~/.ssh/authorized_keys
cd ~/.ssh

<7>用ssh命令将信息拷贝到authorized key文件中
ssh node1 cat /home/oracle/.ssh/id_rsa.pub >> authorized_keys
ssh node1 cat /home/oracle/.ssh/id_dsa.pub >> authorized_keys
ssh node2 cat /home/oracle/.ssh/id_rsa.pub >> authorized_keys
ssh node2 cat /home/oracle/.ssh/id_dsa.pub >> authorized_keys

<8>复制authorized key文件到节点2相同位置
scp authorized_keys node2:/home/oracle/.ssh/

<9>修改文件属性
chmod 600 ~/.ssh/authorized_keys

<10>激活用户等价
exec /usr/bin/ssh-agent $SHELL
/usr/bin/ssh-add

<11>测试ssh信任,不需要输入密码
ssh node1 date
ssh node2 date
ssh node1_prv date
ssh node2_prv date

遇到Are you sure you want to continue connecting (yes/no)? 输入yes,再test一次

2.lv规划

pp大小为128m

LV 大小 PP数 用途
------------------ -------- ------ ---------------
lv_ocr_512m 512M 4 CRS配置库
lv_vote_512m 512M 4 CRS投票盘
lv_system_2048m 2048M 16 System表空间
lv_pwdfile_128m 128M 1 口令文件
lv_sysaux_2048m 2048M 16 SYSAUX
lv_undo1_2048m 2048M 16 实例1UNDOTBS
lv_undo2_2048m 2048M 16 实例2UNDOTBS
lv_temp_2048m 2048M 16 临时表空间
lv_users_1024m 1024M 8 USERS表空间
lv_redo1_1_128m 128M 1 REDOLOG
lv_redo1_2_128m 128M 1 REDOLOG
lv_redo1_3_128m 128M 1 REDOLOG
lv_redo1_4_128m 128M 1 REDOLOG
lv_redo1_5_128m 128M 1 REDOLOG
lv_redo1_6_128m 128M 1 REDOLOG
lv_redo2_1_128m 128M 1 REDOLOG
lv_redo2_2_128m 128M 1 REDOLOG
lv_redo2_3_128m 128M 1 REDOLOG
lv_redo2_4_128m 128M 1 REDOLOG
lv_redo2_5_128m 128M 1 REDOLOG
lv_redo2_6_128m 128M 1 REDOLOG
lv_ctl1_128m 128M 1 控制文件
lv_ctl2_128m 128M 1 控制文件
lv_ctl3_128m 128M 1 控制文件
lv_spfile_128m 128M 1 服务器参数文件

以下2个暂时不建立
lv_example_1024m 1024M 8 Example表空间
lv_recover_2048m 2048M 16 flashback

建立脚本:

从9.2.0.4开始Oracle在AIX上支持了0 OFFSET的裸设备,使用0 OFFSET的裸设备是一种比较安全的做法,可以避免块断裂造成的问题。

因此ORACLE建议从9204后的环境下使用这种裸设备。-T O就是创建0 OFFSET的裸设备,不过只有SCALEABLE VG和BIG VG支持这种LV,其他种类的VG不支持

/usr/sbin/mklv -y'lv_ocr_512m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 4
/usr/sbin/mklv -y'lv_vote_512m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 4
/usr/sbin/mklv -y'lv_system_2048m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 16
/usr/sbin/mklv -y'lv_pwdfile_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_sysaux_2048m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 16
/usr/sbin/mklv -y'lv_undo1_2048m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 16
/usr/sbin/mklv -y'lv_undo2_2048m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 16
/usr/sbin/mklv -y'lv_temp_2048m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 16
/usr/sbin/mklv -y'lv_users_1024m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 8
/usr/sbin/mklv -y'lv_redo1_1_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo1_2_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo1_3_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo1_4_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo1_5_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo1_6_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_1_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_2_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_3_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_4_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_5_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_redo2_6_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_ctl1_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_ctl2_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_ctl3_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1
/usr/sbin/mklv -y'lv_spfile_128m' -w'n' -s'n' -r'n' -t'raw' -T O datavg 1

修改权限

OCR的lv用户为root,组为oinstall,权限为640
OCR device:
# chown root:oinstall /dev/rhdiskn
# chmod 640 /dev/rhdiskn

其它lv用户为oracle,组为dba,权限为660
# chown oracle:dba /dev/rhdiskn
# chmod 660 /dev/rhdiskn

配置DBCA_RAW_CONFIG

用oracle用户在/home/oracle下,建立一个dbca_raw.conf

system=/dev/rlv_system_2048m
sysaux=/dev/rlv_sysaux_2048m
users=/dev/rlv_users_1024m
temp=/dev/rlv_temp_2048m
undotbs1=/dev/rlv_undo1_2048m
undotbs2=/dev/rlv_undo2_2048m
redo1_1=/dev/rlv_redo1_1_128m
redo1_2=/dev/rlv_redo1_2_128m
redo1_3=/dev/rlv_redo1_3_128m
redo1_4=/dev/rlv_redo1_4_128m
redo1_5=/dev/rlv_redo1_5_128m
redo1_6=/dev/rlv_redo1_6_128m
redo2_1=/dev/rlv_redo2_1_128m
redo2_2=/dev/rlv_redo2_2_128m
redo2_3=/dev/rlv_redo2_3_128m
redo2_4=/dev/rlv_redo2_4_128m
redo2_5=/dev/rlv_redo2_5_128m
redo2_6=/dev/rlv_redo2_6_128m
control1=/dev/rlv_ctl1_128m
control2=/dev/rlv_ctl2_128m
control3=/dev/rlv_ctl3_128m


pfile=/dev/rlv_spfile_128m
pwdfile=/dev/rlv_pwdfile_128m

3.oracle目录及用户profile

新建立一个lv,用于建立oracle软件目录,建立好文件系统之后,修改目录owner为oracle,组为oinstall,目录权限为775
ORACLE_BASE设置为/oracle/product
ORACLE_HOME为/oracle/product/ora10g
CRS_HOME为/oracle/product/crs

修改oracle用户的~/.profile,增加如下信息:

ORACLE_BASE=/oracle/product
export ORACLE_BASE
ORACLE_HOME=/oracle/product/ora10g
export ORACLE_HOME
CRS_HOME=/oracle/product/crs
export CRS_HOME

#两个节点不一样,RAC2上为ora10g2
ORACLE_SID=ora10g1
export ORACLE_SID
TNS_ADMIN=$ORACLE_HOME/network/admin
export TNS_ADMIN
NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
export NLS_LANG
PATH=$CRS_HOME/bin:$ORACLE_HOME/bin:/bin:/sbin:/usr/ccs/bin:/usr/local/bin:$PATH
export PATH
LD_LIBRARY_PATH=$ORACLE_HOME/lib:$ORACLE_HOME/network/lib:/usr/local/lib:/usr/lib
export LD_LIBRARY_PATH
DBCA_RAW_CONFIG=/home/oracle/dbca_raw.conf
export DBCA_RAW_CONFIG
export AIXTHREAD_SCOPE=S
umask 022

4.上传包和解压

用bin方式上传,解压方法:
--cpio file--
$cpio -idcmv < 文件名
--gz file--
$gunzip 文件名

五、安装CRS

1.CVU验证

cd到Disk1/cluvfy目录下

修改一下runcluvfy.sh文件

AIX)
DIRNAME=/bin/dirname
UNZIP=/usr/bin/unzip
if [ -f $UNZIP ]
then
UNZIP=/usr/bin/unzip
else
UNZIP=/usr/local/bin/unzip <- 修改为UNZIP=/software/Disk1/install/unzip
fi
;;

运行:
./runcluvfy.sh comp nodereach -n node1,node2 -verbose
./runcluvfy.sh stage -pre crsinst -n node1,node2 -verbose

该错误可以暂时先忽略,因为只有2张网卡
ERROR:
Could not find a suitable set of interfaces for VIPs

2.安装CRS软件

使用HACMP 5.4 要先安装patch 6718715,不然到了crs的cluster安装会没有信息
Patch 6718715,注意解压之后文件没有x权限,需要对解压开的所有文件进行赋权chmod +x *
用root用户运行该patch中的rootpre.sh

用xmanager连接,如果是root连接,需要su到oracle下,在oracle用户下需要设置环境变量export DISPLYA=本机IP:0.0
用xclock命令测试是否可以出现图形。

校验操作系统以及必须包的地方,勾起来使用用户校验。

设置cluster Configuration时需要调整一下IP别名

cluster配置时选择该配置文件

网络部分要注意public和private的选择

ocr和vote设备要选择之前建立的字符设备,r开头的。

用root用户执行脚本,在2节点上执行root.sh脚本可能会遇到以下错误,先不急点OK
The given interface(s), "en0" is not public. Public interfaces should be used to configure virtual IPs.

此时在节点2上用oui配置vip,用root用户执行vipca。

配置之后用crs_stat -t命令检查看2个节点的CRS和vip,gsd,ons服务是否都启动了。

再点OK,进入下一步。

之后应该不会有失败的情况,3个检查项都成功后点next,之后就完成了crs的安装。

3.CRS检查

$ olsnodes
node1
node2
$ oifcfg getif
en0 192.168.161.0 global public
en1 10.10.10.0 global cluster_interconnect

$ crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
$ ocrcheck
Status of Oracle Cluster Registry is as follows :
Version : 2
Total space (kbytes) : 524200
Used space (kbytes) : 1976
Available space (kbytes) : 522224
ID : 206178870
Device/File Name : /dev/rlv_ocr_512m
Device/File integrity check succeeded

Device/File not configured

Cluster registry integrity check succeeded

4.升级CRS到10.2.0.4

用root用户将2个节点的crs都停止下来

crsctl stop crs

用root用户在2个节点上都执行一下/usr/sbin/slibclean命令。

运行补丁安装

Specify Home Details部分必须要设置安装crs的目录

安装过程中我遭遇了一个错误,是一个未发布bug 8555018
PRKC-1073 : Failed to transfer directory "/oracle/product/crs/inventory" to any of the given nodes "node2".

在2节点上执行
$ chmod -R u+w <CRS_HOME>/inventory/Templates/*

点yes继续

补丁安装的最后需要用root用户执行一些命令
/oracle/product/crs/bin/crsctl stop crs
/oracle/product/crs/install/root102.sh

一个节点运行完成之后再在另一个节点运行

升级之后,检查一下CRS版本
$ crsctl query crs softwareversion
CRS software version on node [node1] is [10.2.0.4.0]

5.禁止CRS自动启动

缺省情况下,CRS被设置为自动启动,可以根据需要,将CRS设置为非自动启动,命令需要在所有的节点执行
/etc/init.crs disable

六、安装ORACLE软件

用bin方式上传,解压方法:
--cpio file--
$cpio -idcmv < 文件名
--gz file--
$gunzip 文件名

1.安装ORACLE软件,必须保证CRS已经启动

crsctl check crs

2.运行runInstaller,选择集群方式安装,操作系统检查选择用户确认。

只安装软件

最后root用户分别执行一下root.sh

3.升级到10.2.0.4

升级之前,用root用户在2个节点上都执行一下/usr/sbin/slibclean命令。

最后用root用户执行以下root.sh

七、建监听

在建库之前,先用netca建监听

配置集群监听,默认设置即可,CRS可以看到启动了监听
$ crs_stat | grep lsnr
NAME=ora.node1.LISTENER_NODE1.lsnr
NAME=ora.node2.LISTENER_NODE2.lsnr
$ crs_stat -t
Name Type Target State Host
------------------------------------------------------------
ora....E1.lsnr application ONLINE ONLINE node1
ora.node1.gsd application ONLINE ONLINE node1
ora.node1.ons application ONLINE ONLINE node1
ora.node1.vip application ONLINE ONLINE node1
ora....E2.lsnr application ONLINE ONLINE node2
ora.node2.gsd application ONLINE ONLINE node2
ora.node2.ons application ONLINE ONLINE node2
ora.node2.vip application ONLINE ONLINE node2

八、建库

用dbca命令建库

建立RAC数据库,选择2个节点。

使用裸设备,选择裸设备映射文件dbca_raw.conf,前面建立了。

关闭数据文件的自动扩展,检查一下redo文件的位置。

建库的时候,数据文件大小可以先按默认的较小的建立,库建好之后,再resize。

九、启动顺序

HACMP和CRS都设置了不随机启动,如果重启操作系统。

需要先启动HACMP smit clstart,并且等待共享VG在2个节点上都并行激活了,才可开始启动crs

启动CRS需要root用户权限。

/etc/init.crs start 等待一段时间后检查crs状态,看是否所有服务都启动了。

点击复制链接 与好友分享!回本站首页
相关TAG标签 文档
上一篇:OraclePhysicalDataGuard使用RMAN增量备份修复GAP
下一篇:oracle参数文件的修改,sgapga参数的修改
相关文章
图文推荐
文章
推荐
点击排行

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站