Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1111046
  • 博文数量: 159
  • 博客积分: 3063
  • 博客等级: 中校
  • 技术积分: 2703
  • 用 户 组: 普通用户
  • 注册时间: 2012-04-01 01:51
文章分类

全部博文(159)

文章存档

2013年(48)

2012年(111)

分类: Oracle

2013-06-07 14:13:45

7、2.13安装和配置 OCFS2(在所有节点上执行)
rpm -ivh ocfs2-tools-1.4.4-1.el5.x86_64.rpm
rpm -ivh ocfs2-tools-devel-1.4.4-1.el5.x86_64.rpm
rpm -ivh ocfs2console-1.4.4-1.el5.x86_64.rpm
rpm -ivh ocfs2-2.6.18-164.el5-1.4.7-1.el5.x86_64.rpm

配置并加载 OCFS2
在所有节点上以root用户身份运行此工具:
/usr/sbin/ocfs2console

选择 [Clucster]-[Configure Nodes]
在“Node Configuration”对话框中,输入2个专用互连的节点名、IP地址、端口号。本示例将使用 racnode1和 10.1.1.1(私有ip)和7777 表示节点 1,
并使用 racnode2 和10.1.1.2(私有ip)和7777 表示节点2。验证所有节点上的所有值正确之后,请退出应用程序。

选择 [Clucster]-[Propagate Cluster Configuration] ,选择"yes"提示”Finished”。
配置完成后将获得一个/etc/ocfs2/cluster.conf配置文件。集群中的两个节点的 OCFS2 配置文件必须完全相同:

注意:节点一配置成功后,在配置节点二的时候节点名、IP地址、端口号是自动装载。在执行选择 [Clucster]-[Propagate Cluster Configuration]如果有报错,
请删除/etc/ocfs2/*.conf配置文件,再重新启动ocfs2console,执行以上的 [Clucster]-[Configure Nodes] 和[Clucster]-[Propagate Cluster Configuration] 。
配置完成后,在集群中的所有节点上以 root 用户帐户的身份运行以下命令
/etc/init.d/o2cb enable 使ocfs2可用,如果停用就用disable

O2CB 配置为在引导时启动,可以执行如下命令:
/etc/init.d/o2cb status 检查o2cb 服务的状态(发现Checking O2CB heartbeat: Not active O2CB 心跳当前没有活动,因为文件系统还没有挂载,挂载之后就会变成active .)
/etc/init.d/o2cb offline ocfs2 使我们创建的集群 ocfs2 处于脱机状态
/etc/init.d/o2cb unload ocfs2 卸载所有 OCFS2 模块
/etc/init.d/o2cb configure 按y选择ocfs2后就行了

创建 OCFS 文件系统(在格式化和挂载文件系统之前,应验证 O2CB 在两个节点上 均联机/etc/init.d/o2cb status)该操作在一个节点上执行就可以
mkfs.ocfs2 -L "clusterfiles" /dev/sdb1
mkfs.ocfs2 -L "database" /dev/sdc1
mkdir -p /u02/oradata/orcl
chown -R oracle:dba /u02

使用命令行载入 OCFS 文件系统(在所有节点上以root用户执行)
载入crs/ocr所在分区的ocfs文件系统
mkdir -p /u02/oradata/orcl
mount -o datavolume,nointr -t ocfs2 /dev/sdb1 /u02/oradata/rac
chown -R oracle:dba /u02/
chmod -R 775 /u02

载入数据库所在分区的ocfs文件系统
mkdir -p /u01/app/oracle/oradata
mount -o datavolume,nointr -t ocfs2 /dev/sdc1 /u01/app/oracle/oradata
chown -R oracle:dba /u01/app/oracle/oradata
chmod -R 775 /u01/app/oracle/oradata

Oracle数据库用户在将Ocfs2挂接点用来存放voting disk(CRS),cluster registry(OCR),数据文件,redo file,归档日志和控制文件时,在mount操作时,
一定要使用’datavolume,nointr’ 的mount选项。
其中datavolume选项确保Oracle进程在打开文件时使用o_direct标记。nointr选项确保在这个设备上的读写不会被一些信号中断。其他的设备,比如用于
存放Oracle_Home文件的挂节点不需要使用这些选项。通过以下命令来完成包含数据文件,voting disk等设备的挂载:

将 OCFS 配置为在启动时自动载入
将下面命令增加到/etc/rc.local文件里面
mount -o datavolume,nointr -t ocfs2 /dev/sdb1 /u02/oradata/orcl
chown -R oracle:dba /u02/
chmod -R 775 /u02
mount -o datavolume,nointr -t ocfs2 /dev/sdc1 /u01/app/oracle/oradata
chown -R oracle:dba /u01/app/oracle/oradata
chmod -R 775 /u01/app/oracle/oradata

8、安装oracle clusterware 10g软件
安装前请执行如下操作
检查rsh-server包是否已经安装
[root@rac1 ~]# rpm -qa|grep -i ^rsh-server
rsh-server-0.17-40.el5
如果没有安装使用rpm -ivh 命令安装
确保/etc/xinetd.d/rlogin中存在disable = no这一行
确保/etc/xinetd.d/rsh中存在disable = no这一行
重启xinetd服务
service xinetd restart

编辑/etc/securetty,增加rexec、rsh、rlogin三行

编辑/etc/hosts.equiv文件,如下所示
racnode1 oracle
racnode2 oracle
racnode1-priv oracle
racnode2-priv oracle
racnode1 root
racnode2 root
racnode1-priv root
racnode2-priv root

编辑root下的~/.rhosts,如下所示
+rac1 root
+rac2 root
+rac1-priv root
+rac2-priv root
编辑oracle下的~/.rhosts,如下所示
racnode1 oracle
racnode2 oracle
racnode1-priv oracle
racnode2-priv oracle

测试rlogin和rsh是否可以不用输入密码登录其他节点
rsh racnode1
rsh racnode2
以上操作如果不做,安装clusterware的时候会报错

仅在集群的一个节点上执行下列安装过程!Oracle CRS 软件将被 Oracle Universal Installer 安装到集群的所有其他节点。
取消 ORACLE_HOME 的设置
unset ORA_CRS_HOME
unset ORACLE_HOME
unset ORACLE_OWNER
unset ORA_NLS33
unset TNS_ADMIN
unset LIBPATH
unset LD_LIBRARY_PATH
核实 racnode1 上的环境变量
env | grep ORA
ORACLE_SID=rac1
ORACLE_BASE=/u01/app/oracle
ORACLE_TERM=xterm

核实 racnode2 上的环境变量
env | grep ORA
ORACLE_SID=rac2
ORACLE_BASE=/u01/app/oracle
ORACLE_TERM=xterm

gunzip 10201_clusterware_linux_x86_64.cpio.gz
cpio -idmv < 10201_clusterware_linux_x86_64.cpio
/home/oracle/clusterware/runInstaller
提示用root执行/home/oracle/clusterware/rootpre/rootpre.sh(两台机器上都执行)
下一步为增加节点成员
racnode1 racnode1-priv racnode1-vip
racnode2 racnode2-priv racnode2-vip
然后指定 eth0 的类型时public,这时eth0的类型默认的是priv,需要改成public
然后制定你的OCR 和mirror
/u02/oradata/orcl/OCRFile
/u02/oradata/orcl/OCRFile_mirror
然后指定你的voting
/u02/oradata/orcl/VotingFile
/u02/oradata/orcl/VotingFile_mirror1
/u02/oradata/orcl/VotingFile_mirror2
然后就开始安装了,当中会让你用完全的root身份在每个节点上运行orainstRoot.sh,你就一个节点一个节点运行
然后要求你在每个节点上用完全的root权限执行 root.sh,你也一样,一个个来
在执行第二个root.sh时报
Running vipca(silent) for configuring nodeapps
/u01/app/oracle/product/10.2.0/crs_1/jdk/jre//bin/java: error while loading shared libraries: libpthread.so.0:
cannot open shared object file: No such file or directory

阅读(2540) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~