Chinaunix首页 | 论坛 | 博客
  • 博客访问: 10329111
  • 博文数量: 1669
  • 博客积分: 16831
  • 博客等级: 上将
  • 技术积分: 12594
  • 用 户 组: 普通用户
  • 注册时间: 2011-02-25 07:23
个人简介

柔中带刚,刚中带柔,淫荡中富含柔和,刚猛中荡漾风骚,无坚不摧,无孔不入!

文章分类

全部博文(1669)

文章存档

2023年(4)

2022年(1)

2021年(10)

2020年(24)

2019年(4)

2018年(19)

2017年(66)

2016年(60)

2015年(49)

2014年(201)

2013年(221)

2012年(638)

2011年(372)

分类: Oracle

2011-12-27 13:20:29

RedHat 5.4 + ASM + RAW+ Oracle 10g RAC 安装文档
[日期:2011-05-15] 来源:Linux社区  作者:tianlesoftware
 
 
 
 
基于RedHat 5 和redhat 4 的RAC 区别在对raw的处理上。 之前做的是redhat 4.7 的 RAC 实验。 准备做一个Redhat 5.4 的环境。
 
 
 
服务器主机名
 rac1
 rac2
 
公共IP地址(eth0)
 10.85.10.1
 10.85.10.2
 
虚拟IP地址(eth0)
 10.85.10.3
 10.85.10.4
 
私有IP地址(eth1)
 192.168.1.200
 192.168.1.201
 
ORACLE RAC SID
 rac1
 rac1
 
集群实例名称
 rac
 
OCR(oracle集群注册表)
 /dev/raw/raw1   /dev/sdb1        200M
 
/dev/raw/raw2   /dev/sdb2        200M
 
表决磁盘(voting disk)
 /dev/raw/raw3   /dev/sdc1       200M
 
/dev/raw/raw4   /dev/sdc2       200M
 
/dev/raw/raw5   /dev/sdc3       200M
 
ASM
 /dev/sdd1     10G            VOL1 for Oracle Data
 
/dev/sdd1      5G             VOL2 for flash_recovery_area
 
数据库备份
 /dev/sde1    10G  (mkfs -t ext3 /dev/sde1)
 
 
 
 
 
 
实验平台:Oracle 10gR2 RAC + RHEL 5.4 +VMServer 2.0 
 
 
 
安装步骤:
 
1.安装前准备及OS安装配置
 
2.安装Oracle 10gR2 clusterware
 
3.安装Oracle 10gR2 database
 
4.配置netca
 
5.创建ASM 实例
 
6.配置dbca创建数据库
 
7.检查RAC状态
 
 
 
一. 安装前准备及OS安装配置
 
Host OS 准备
 
1. 从Oracle OTN下载 oracle 10gR2 for x86 linux,下2个zip, 一个是clusterware zip,一个是database zip, comp CD 可选.
 
2. 准备的RHEL 5.4 (x86)
 
3. 查看RedHat 5.4 内核版本:
 
[root@RedHat5 ~]# uname -a
 
Linux RedHat5 2.6.18-164.el5xen #1 SMP Tue Aug 18 16:06:30 EDT 2009 i686 i686 i386 GNU/Linux
 
4. 从Oracle OTN下载 ASM, ASMLib, ASMLib support , 这些都是针对你的kernel的,不要下错
 
 
该页面有下载地址,注意选择CPU 类型。 里面有asmlib 和 support。 在同一个页面。
 
5. VMServer 2.0
 
虚拟机 Workstation,GSX Server 和ESX之间的区别
 
 
 
 
Vmware SERVER 简介
 
 
 
 
 
 
一.OS安装
 
1. 在vmware server中创建RedHat 5 虚拟机,取名rac1. 内存800M, 硬盘15GB。
 
2. 加上一块NIC网卡。RAC 实验需要2块网卡。
 
3. 用vdiskmanager 创建Share Disk。 -- 如果用存储的话,就不用这么折腾了。 直接挂上就能分了。
 
先创建F:\VM\racshare目录,然后把创建的磁盘文件放到这个目录下。 根据前面的分析,我们要创建4个文件。
 
      在dos下进入vmware 的安装目录,找到vmware-vdiskmanager.exe 程序,然后执行如下命令:
 
vmware-vdiskmanager.exe -c -s 400Mb -a lsilogic -t 2 F:\VM\racshare\ocr.vmdk
 
vmware-vdiskmanager.exe -c -s 600Mb -a lsilogic -t 2 F:\VM\racshare\votingdisk.vmdk
 
vmware-vdiskmanager.exe -c -s 15000Mb -a lsilogic -t 2 F:\VM\racshare\asm4data.vmdk
 
vmware-vdiskmanager.exe -c -s 10000Mb -a lsilogic -t 2 F:\VM\racshare\backup.vmdk
 
 
 
 4. 到 rac1的目录,打开rac1.vmx , 在最后空白处添加这几段内容(一定要最后)
 
 
 
scsi1.present = "TRUE"
 
scsi1.virtualDev = "lsilogic"
 
scsi1.sharedBus = "virtual"
 
-- 这段是打开 scsi1上的使用,并且设置成virtual, controller设置成lsilogic, 然后依次添加
 
 
 
scsi1:1.present = "TRUE"
 
scsi1:1.mode = "independent-persistent"
 
scsi1:1.filename = "F:\VM\racshare\ocr.vmdk"
 
scsi1:1.deviceType = "plainDisk"
 
 
 
scsi1:2.present = "TRUE"
 
scsi1:2.mode = "independent-persistent"
 
scsi1:2.filename = "F:\VM\racshare\votingdisk.vmdk"
 
scsi1:2.deviceType = "plainDisk"
 
 
 
scsi1:3.present = "TRUE"
 
scsi1:3.mode = "independent-persistent"
 
scsi1:3.filename = "F:\VM\racshare\asm4data.vmdk"
 
scsi1:3.deviceType = "plainDisk"
 
 
 
scsi1:4.present = "TRUE"
 
scsi1:4.mode = "independent-persistent"
 
scsi1:4.filename = "F:\VM\racshare\backup.vmdk"
 
scsi1:4.deviceType = "plainDisk"
 
 
 
--最后添加这个,这段是对vmware使用共享硬盘的方式进行定义,必须添加
 
disk.locking = "false"
 
diskLib.dataCacheMaxSize = "0"
 
diskLib.dataCacheMaxReadAheadSize = "0"
 
diskLib.DataCacheMinReadAheadSize = "0"
 
diskLib.dataCachePageSize = "4096"
 
diskLib.maxUnsyncedWrites = "0"
 
 
 
保存退出之后,启动虚拟机就可以看到刚才添加的硬盘了.
 
 
 
5. 安装完RedHat 5操作系统后,关机,安装的时候把所有包都装上。
 
   按照1-5的步骤创建节点rac2.
 
 
 
RedHat 的2个序列号:
 
RedHat 5.0 : 2515dd4e215225dd
 
RedHat 5.4 SN:49af89414d147589
 
 
 
因为是测试环境,在做之前先关闭不需要的系统启动耗时服务
              # chkconfig cups off
              # chkconfig sendmail off
              # chkconfig isdn off
              # chkconfig smartd off
              # chkconfig iptables off
 
 
 
6.  配置你的2个网卡的固定IP,hostname, DNS, gateway, time server (NTP) ,这一步也可以在安装系统时配置
 
 
 
根据前面的规划,设置IP地址。可以在RedHat 界面上进行修改,也可以修改下面2个文件:
 
/etc/sysconfig/network-script/ifcfg-eth0
 
/etc/sysconfig/network-script/ifcfg-eth1
 
 
 
修改机器名,IP和网关 -- 默认网关必须设置,不然 vipca 报错
 
[root@raw1 ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
 
DEVICE=eth0
 
ONBOOT=yes
 
BOOTPROTO=static
 
IPADDR=10.85.10.119
 
NETMASK=255.255.255.0
 
GATEWAY=10.85.10.253
 
 
 
修改主机名
 
vi /etc/sysconfig/network
 
NETWORKING=yes
 
HOSTNAME=raw1
 
 
 
修改完之后重启生效:
 
/etc/rc.d/init.d/network restart 重新启动
 
 
 
查看DNS:
 
cat /etc/resolv.conf
 
 
 
 
 
7. 同步时间:
 
1) 在rac1上启动time-stream 服务,并设置为自动动
 
[root@rac1 ~]# chkconfig time-stream on
 
在RedHat 4中,是: #chkconfig time on
 
 
 
2)在rac2 上添加任务,每一分钟和rac1进行一次时间同步。
 
[root@rac2 ~]# crontab -l
 
*/1 * * * * rdate -s 10.85.10.1
 
 
 
rac 对节点间时间较敏感,RAC不能容忍节点间时钟不同步,否则RAC会Down掉,而且在安装vipca 的时候也会报错。 具体时间同步参考我的blog:
 
 
 
Linux 时间同步配置
 
 
 
 
 
linux 下修改日期和时间
 
 
 

8. 安装结束后,进入 OS, 修改解析文件: /etc/hosts
 
如下
 
注:机器名和public名要一样
 
 
 
127.0.0.1 localhost (必须要这样)
 
 
 
10.85.10.1 rac1
 
10.85.10.2 rac2
 
192.168.1.200 rac1-priv
 
192.168.1.201 rac2-priv
 
10.85.10.3 rac1-vip
 
10.85.10.4 rac2-vip
 
 
 
两个node都要一样.
 
修改后要确认这个hosts 都正确 (ping)
 
 
 
 
 
9. 建立用户等效性
 
  建立等效用户之后,2个结点直接Oracle 用户互相访问就不在需要密码了, 这样就为RAC管理提供了可能性,如果等效性没有配好, RAC 肯定是装不起来的。
 
 
 
1)  在RAC1,RAC2两个节点上添加group add dba oinstall 组, 创建oracle 用户, 主组oinstall, 附加组是dba.
 
#groupadd oinstall
 
#groupadd dba
 
#useradd -g oinstall -G dba oracle
 
#passwd oracle
 
 
 
2) 建立等效用户
 
在rac1:
 
 
 
[oracle@rac1 ~]$ mkdir ~/.ssh
 
[oracle@rac1 ~]$ chmod 700 ~/.ssh
 
[oracle@rac1 ~]$ ssh-keygen -t rsa
 
[oracle@rac1 ~]$ ssh-keygen -t dsa
 
 
 
在rac2:
 
[oracle@rac2 ~]$ mkdir ~/.ssh
 
[oracle@rac2 ~]$ chmod 700 ~/.ssh
 
[oracle@rac2 ~]$ ssh-keygen -t rsa
 
[oracle@rac2 ~]$ ssh-keygen -t dsa
 
 
 
3) 切换回rac1,接着执行:
 
[oracle@raw1 ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
 
[oracle@raw1 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
 
 
 
提示:下列命令会提示你输入rac2 的oracle 密码,按照提示输入即可,如果失败可重新尝试执行命令。
 
Rac1 节点:
 
[oracle@rac1 ~]$ scp ~/.ssh/authorized_keys rac2:~/.ssh/authorized_keys
 
 
 
Rac2节点:
 
[oracle@rac2 ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
 
[oracle@rac2 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
 
[oracle@rac2 ~]$  scp ~/.ssh/authorized_keys rac1:~/.ssh/authorized_keys
 
 
 
4) 确保2个node都有相互的结点信息。两机相互执行。
 
 
 
[oracle@rac1 ~]$ ssh rac1 date
 
[oracle@rac1~]$ ssh rac2 date
 
[oracle@rac1 ~]$ ssh rac1-priv date
 
[oracle@rac1 ~]$ ssh rac2-priv date
 
 
 
切换至rac2 执行
 
[oracle@rac2 ~]$ ssh rac1 date
 
[oracle@rac2~]$ ssh rac2 date
 
[oracle@rac2 ~]$ ssh rac1-priv date
 
[oracle@rac2 ~]$ ssh rac2-priv date
 
 
 
10. 在2个结点上创建目录
 
 
 
[root@rac1 ~]# mkdir -p /u01/app/oracle
 
[root@rac1 ~]# chown -R oracle:oinstall /u01
 
[root@rac1 ~]# chmod -R 777 /u01
 
 
 
这个目录给oracle和clusterware系统的
 
 
 
11. 修改/etc/sysctl.conf ,添加这些kernel 参数 
 
 
 
net.core.rmem_default=262144
 
net.core.wmem_default=262144
 
net.core.rmem_max=262144
 
net.core.wmem_max=262144
 
 
 
kernel.shmall = 131072000
 
kernel.shmmax = 524288000
 
kernel.shmmni = 4096
 
kernel.sem = 250 32000 100 128
 
fs.file-max = 65536
 
net.ipv4.ip_local_port_range = 1024 65000
 
 
 
# sysctl -p 立刻生效
 
 
 
kernel.shmall为物理内存除以pagesize;
 
kernel.shmmax为物理内存的一半;
 
fs.file-max为512 乘以 processes (如128个process则为 65536);
 
net.ipv4.ip_local_port_range/net.core.rmem_default/net.core.rmem_max三个参数设置和官方文档不一样, 这是根据metalink 343431.1 最新要求更改的;
 
net.ipv4.tcp_rmem/net.ipv4.tcp_wmem两个参数一般情况下无需设置, 除非是在Dataguard/Streams等需很多网络传输情况下;
 
 
 
其它参数根据官方文档要求设置即可.
 
 
 
具体内容参考我的blog:
 
Linux 内核参数及Oracle相关参数调整
 
 

12. 设置用户资源限制,2个节点都要执行
 
       因为所有的进程都是以Oracle 身份来运行的,因此需要定义Oracle 用户能够使用的系统资源数量。
 
 
 
vi /etc/security/limits.conf
 
--使用HugePage 内存技术,添加下面2行
 
Oracle soft memlock 5242880
 
Oracle hard memlock 524280
 
--进程句柄数量
 
oracle soft nproc 2047
 
oracle hard nproc 16384
 
-- 文件句柄
 
oracle soft nofile 65536
 
oracle hard nofile 65536
 
 
 
将下面一行添加到/etc/pam.d/login文件中:
 
session required /lib/security/pam_limits.so
 
 
 
13. 配置 hangcheck-timer 模块,2个节点都要执行
 
Hangcheck-timer 是Linux 提供的一个内核级的IO-Fencing 模块, 这个模块会监控Linux 内核运行状态, 如果长时间挂起, 这个模块会自动重启系统。 这个模块在Linux 内核空间运行, 不会受系统负载的影响。 这个模块会使用CPU的Time Stamp Counter(TSC) 寄存器,这个寄存器的值会在每个时钟周期自动增加, 因此使用的是硬件时间,所以精度更高。
 
配置这个模块需要2个参数: hangcheck_tick 和 hangcheck_margin。
 
 
 
hangcheck_tick用于定义多长时间检查一次,缺省值是30秒。 有可能内核本身很忙, 导致这个检查被推迟, 该模块还允许定义一个延迟上限,就是hangcheck_margin, 它的缺省值是180秒。
 
 
 
Hangcheck-timer 模块会根据hangcheck_tick 的设置,定时检查内核。只要2次检查的时间间隔小于 hangcheck_tick + hangchec_margin, 都会认为内核运行正常,否则就意味着运行异常,这个模块会自动重启系统。
 
 
 
CRS本身还有一个MissCount 参数,可以通过crsctl get css miscount 命令查看。
 
 
 
    当RAC结点间的心跳信息丢失时, Clusterware 必须确保在进行重构时,故障结点确实是Dead 状态,否则结点仅是临时负载过高导致心跳丢失,然后其他结点开始重构,但是结点没有重启,这样会损坏数据库。 因此MissCount 必须大于 hangcheck_tick+hangcheck_margin的和。
 
 
 
1) 查看模块位置:
 
[root@rac1 ~]#  find /lib/modules -name "hangcheck-timer.ko"
 
/lib/modules/2.6.18-164.el5/kernel/drivers/char/hangcheck-timer.ko
 
/lib/modules/2.6.18-164.el5xen/kernel/drivers/char/hangcheck-timer.ko
 
 
 
2) 配置系统启动时自动加载模块,在/etc/rc.d/rc.local 中添加如下内容
 
[root@rac1 ~]# modprobe hangcheck-timer
 
[root@rac1 ~]# vi /etc/rc.d/rc.local
 
modprobe hangcheck-timer
 
 
 
3) 配置hangcheck-timer参数, 在/etc/modprobe.conf 中添加如下内容:
 
[root@rac1 ~]# vi /etc/modprobe.conf
 
options hangcheck-timer hangcheck_tick=30 hangcheck_margin=180
 
 
 
4) 确认模块加载成功:
 
[root@rac1 ~]# grep Hangcheck /var/log/messages | tail -2
 
Sep  7 19:53:03 rac1 kernel: Hangcheck: starting hangcheck timer 0.9.0 (tick is 180 seconds, margin is 60 seconds).
 
Sep  7 19:53:03 rac1 kernel: Hangcheck: Using monotonic_clock().
 
 
 
14. 格式化分区
 
我们之前添加了4块硬盘,在分区的时候,ocr 我们要划分成2个100M,分别来存放ocr配置文件,votingdisk我们要分成3个100M的。 Asm4data 要分成两个,10G 存放数据文件,5G 用在flashback上。 Backup 我们分成一个区。
 
在一个结点执行格式化就可以了,因为他们是共享的。
 
 
 
[root@rac1 ~]# fdisk –l
 
[root@rac1 ~]# fdisk /dev/sdb
 
Command (m for help): n
 
Command action
 
   e   extended
 
   p   primary partition (1-4)
 
p
 
Partition number (1-4): 1  -- 分区号1,等格式化技术后对应sdb1
 
First cylinder (1-200, default 1):
 
Using default value 1 – 分区开始点
 
Last cylinder or +size or +sizeM or +sizeK (1-200, default 200): +100M  --把sdb1 设置成100m
 
 
 
Command (m for help): n
 
Command action
 
   e   extended
 
   p   primary partition (1-4)
 
p
 
Partition number (1-4): 2  --设置分区sdb2
 
First cylinder (97-200, default 97):
 
Using default value 97  --开始点
 
Last cylinder or +size or +sizeM or +sizeK (97-200, default 200):
 
Using default value 200  --结束点
 
 
 
Command (m for help): w  -- 写数据
 
The partition table has been altered!
 
Calling ioctl() to re-read partition table.
 
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
 
The kernel still uses the old table.
 
The new table will be used at the next reboot.
 
Syncing disks.
 
[root@rac1 ~]# fdisk -l
 
 
Disk /dev/sdb: 209 MB, 209715200 bytes
 
64 heads, 32 sectors/track, 200 cylinders
 
Units = cylinders of 2048 * 512 = 1048576 bytes
 
   Device Boot      Start         End      Blocks   Id  System
 
/dev/sdb1               1          96       98288   83  Linux
 
/dev/sdb2              97         200      106496   83  Linux
 
 
这里就是分区的效果
 
 
 
其他的操作类似,最终的格式化的效果是:
 
 
 
[root@rac1 ~]# fdisk -l
 
/dev/sda1           251        1958    13719510   83  Linux
 
/dev/sda2               1         250     2008093+  82  Linux swap / Solaris
 
/dev/sdb1               1         101      103408   83  Linux
 
/dev/sdb2             102         200      101376   83  Linux
 
/dev/sdc1               1          99      101360   83  Linux
 
/dev/sdc2             100         198      101376   83  Linux
 
/dev/sdc3             199         300      104448   83  Linux
 
/dev/sdd1               1        1217     9775521   83  Linux
 
/dev/sdd2            1218        1912     5582587+  83  Linux
 
/dev/sde1               1        1274    10233373+  83  Linux
 
 
 
注: 格式化时候,在另一个节点要重启一下系统,不然识别不了。
 
 
 
 
 
15. 配置raw 设备
 
 
 
   所谓raw 设备,就是通过字符方式访问的设备,也就是读写设备不需要缓冲区。 在Linux 下,对磁盘值提供了块方式的访问。要想通过字符方式访问,必须配置raw 设备服务,并且Oracle 用户对这些raw 设备必须有访问的权限。
 
 
 
RedHat 5 和 4在裸设备的配置上不一样。 关于4上raw的配置参考:
 
RAW+ASM+ RedHat 4.7 RAC 文档
 
 
 
 
RedHat 5上raw的配置也可以参考:
 
       RedHat 5 中裸设备(raw) 的配置
 
      
 
 
 
在2个节点上做如下操作:
 
 
 
1)修改/etc/udev/rules.d/60-raw.rules 文件
 
添加如下内容:
 
ACTION=="add", KERNEL=="sdb1",RUN+="/bin/raw /dev/raw/raw1 %N"
 
ACTION=="add", KERNEL=="sdb2",RUN+="/bin/raw /dev/raw/raw2 %N"
 
ACTION=="add", KERNEL=="sdc1",RUN+="/bin/raw /dev/raw/raw3 %N"
 
ACTION=="add", KERNEL=="sdc2",RUN+="/bin/raw /dev/raw/raw4 %N"
 
ACTION=="add", KERNEL=="sdc3",RUN+="/bin/raw /dev/raw/raw5 %N"
 
ACTION=="add",KERNEL=="raw[1-5]", OWNER="oracle", GROUP="oinstall", MODE="660"
 
 
 
2) 重启服务:
 
[root@rac1 ~]# start_udev
 
Starting udev:         [  OK  ]
 
 
 
3) 查看raw设备:
 
[root@rac1 ~]# ls -lrt /dev/raw
 
total 0
 
crw-rw---- 1 oracle oinstall 162, 5 Sep  8 03:18 raw5
 
crw-rw---- 1 oracle oinstall 162, 4 Sep  8 03:18 raw4
 
crw-rw---- 1 oracle oinstall 162, 1 Sep  8 03:18 raw1
 
crw-rw---- 1 oracle oinstall 162, 3 Sep  8 03:18 raw3
 
crw-rw---- 1 oracle oinstall 162, 2 Sep  8 03:18 raw2
 
 
 
raw的配置,也可以直接使用raw来实现。
 
[root@qs-dmm-rh2 mapper]# cat /etc/rc.local
#!/bin/sh
#
# This script will be executed *after* all the other init scripts.
# You can put your own initialization stuff in here if you don't
# want to do the full Sys V style init stuff.
 
touch /var/lock/subsys/local
 

#####
# Oracle Cluster Registry (OCR) devices
#####
chown root:oinstall /dev/mapper/ocr**
chmod 660 /dev/mapper/ocr*
raw /dev/raw/raw1 /dev/mapper/ocrp1
raw /dev/raw/raw2 /dev/mapper/ocrp2
raw /dev/raw/raw3 /dev/mapper/ocrp3
raw /dev/raw/raw4 /dev/mapper/ocrp4
#sleep 2
chown root:oinstall /dev/raw/raw1
chown root:oinstall /dev/raw/raw2
chown root:oinstall /dev/raw/raw3
chown root:oinstall /dev/raw/raw4
chmod 660 /dev/raw/raw1
chmod 660 /dev/raw/raw2
chmod 660 /dev/raw/raw3
chmod 660 /dev/raw/raw4
#####
# Oracle Cluster Voting disks
#####
chown oracle:oinstall /dev/mapper/voting*
chmod 660 /dev/mapper/voting*
raw /dev/raw/raw5 /dev/mapper/votingdiskp1
raw /dev/raw/raw6 /dev/mapper/votingdiskp2
raw /dev/raw/raw7 /dev/mapper/votingdiskp3
raw /dev/raw/raw8 /dev/mapper/votingdiskp4
#sleep 2
chown oracle:oinstall /dev/raw/raw5
chown oracle:oinstall /dev/raw/raw6
chown oracle:oinstall /dev/raw/raw7
chown oracle:oinstall /dev/raw/raw8
chmod 660 /dev/raw/raw5
chmod 660 /dev/raw/raw6
chmod 660 /dev/raw/raw7
chmod 660 /dev/raw/raw8
 
 
 
16.  在两个node上都安装 ASMLibs, tools, support 三个rpm文件. 注意内核版本要和linux一致。
 
 
 
# rpm -ivh *.rpm --nodeps --force
 
 
 
然后运行 /etc/init.d/oracleasm configure
 
回答 oracle , dba, y, y 就可以了
 
 
 
linux 挂在windows 共享的盘
 
1. 启动nfs服务:   service nfs start
 
2. mount -o username=share,password=share //10.85.10.80/RAC /mnt
 
 
 
17. 创建ASM 磁盘
 
       在一个node上:
 
通过以 root 用户身份运行以下命令来标记由 ASMLib 使用的磁盘:/etc/init.d/oracleasm createdisk DISK_NAME device_name(提示:DISK_NAME 应由大写字母组成。当前版本有一个错误,即假如使用小写字母,ASM 实例将无法识别磁盘。)
 
 
 
记住,ASM在linux下面处理的对象是 partition,不是disk, 所以你那些vmdk要linux 下面partition好才能用,所以先fdisk一下在创建.
 
 
 
/etc/init.d/oracleasm createdisk VOL1 /dev/sdd1
 
/etc/init.d/oracleasm createdisk VOL2 /dev/sdd2
 
 
 
创建好后, 在这个node 上运行 /etc/init.d/oracleasm listdisks 查看。
 
 
 
18. 在另外一个node 上
 
/etc/init.d/oracleasm scandisks
 
/etc/init.d/oracleasm listdisks 查看
 
 
 
19. 在每个node上配置Oracle的profile文件
 
 
 
Su -oracle
 
Cd /home/oracle
 
 
 
修改 oracle用户家目录下的 .bash_profile 。注意ORACLE_SID, 和后面建库要一致。
 
 
 
# User specific environment and startup programs
 
PATH=$PATH:$HOME/bin
 
export ORACLE_BASE=/u01/app/oracle
 
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
 
export ORA_CRS_HOME=$ORACLE_BASE/product/crs
 
export ORACLE_SID=rac1
 
export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin
 
export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin
 
export PATH=${PATH}:$ORACLE_BASE/common/oracle/bin
 
export ORACLE_TERM=xterm
 
export TNS_ADMIN=$ORACLE_HOME/network/admin
 
export ORA_NLS10=$ORACLE_HOME/nls/data
 
export LD_LIBRARY_PATH=$ORACLE_HOME/lib
 
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib
 
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib
 
export CLASSPATH=$ORACLE_HOME/JRE
 
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib
 
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib
 
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib
 
export THREADS_FLAG=native
 
export TEMP=/tmp
 
export TMPDIR=/tmp
 
 
 
 
 
第二个节点的 ORACLE_SID=rac2 其他都一样。
 

RedHat 5.4 + ASM + RAW+ Oracle 10g RAC 安装文档
[日期:2011-05-15] 来源:Linux社区  作者:tianlesoftware
 
 
 
 
二. 安装Oracle 10gR2 clusterware
 
 
 
1. 用Xmanager 软件连上虚拟机之后运行clusterware 的安装软件, Xmanager 支持图形界面, 所以能省很多事。
 
       主要要先修改/etc/RedHat-release 文件,不然会报错。
 
              [root@rac2 ~]# more /etc/RedHat-release
 
RedHat-4
 
 
 
2. 确认你的安装目录是/u01/app/oracle/product/crs
 
 
 
3. 增加相关结点信息
 
rac1 rac1-priv rac1-vip
 
rac2 rac2-priv rac2-vip
 
 
 
4.指定 eth0 的类型时public
 
 
 
5. 指定OCR 和 Voting Disk
 
一般而言,如果采用存储来存放OCR和Voting Disk. 存储本身就提供了redundancy策略,此时我们可以选择External Redundancy 选项, 此时Oracle 就不在考虑软件冗余了。 如果没有使用存储设备或者存储为RAID0,那么就可以使用Oracle 自己提供的软件冗余机制 Normal Redundancy 选项,此时就会激活Mirror Location 选项. 用来指定镜像文件位置, Oracle 的Clusterware在运行时会维护这个Mirror文件的内容同步。
 
 
 
 
 
OCR 最多只有一份冗余:
 
/dev/raw/raw1
 
/dev/raw/raw2
 
 
 
Voting Disk 最多可以定义2份冗余:
 
/dev/raw/raw3
 
/dev/raw/raw4
 
/dev/raw/raw5
 
 
 
6. 开始安装了,结束时会提示用root在每个节点上运行orainstRoot.Sh 和 root.Sh脚本, 在第二个结点上运行root.Sh 后自动调用vipca 这个命令, 在第二个结点运行root.Sh 之前要修改一下vipca命令, 不然可能会报错。
 
 
 
RAC安装时需要执行4个脚本及意义
 
 
 
 
注意: VIPCA 命令也是用ROOT 用户来运行的, 只需要在一个结点运行就可以了。
 
 
 
 
 
进入$CRS_HOME/bin/目录, 用vi来修改vipca 和 srvctl 2个命令。
 
 
 
问题1: vipca报错,是RedHat的bug
 
Running vipca(silent) for configuring nodeapps
 
/home/oracle/crs/oracle/product/10/crs/jdk/jre//bin/java: error while loading
 
shared libraries: libpthread.so.0: cannot open shared object file:
 
No such file or directory
 
 
 
解决方法:
 
Remember to re-edit these files on all nodes:
 
/bin/vipca
 
/bin/srvctl
 
/bin/srvctl
 
/bin/srvctl
 
 
 
after applying the 10.2.0.2 or 10.2.0.3 patchsets, as these patchset will still include those settings unnecessary for OEL5 or RHEL5 or SLES10.  This issue was raised with development and is fixed in the 10.2.0.4 patchsets.
 
 
 
Note that we are explicitly unsetting LD_ASSUME_KERNEL and not merely commenting out its setting to handle a case where the user has it set in their environment (login shell).
 
 
 
$ vi vipca
 
... ...
 
Linux) LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:$ORACLE_HOME/srvm/lib:$LD_LIBRARY_PATH
 
       export LD_LIBRARY_PATH
 
        echo $LD_LIBRARY_PATH
 
        echo $CLASSPATH
 
       #Remove this workaround when the bug 3937317 is fixed
 
       arch=`uname -m`
 
       if [ "$arch" = "i686" -o "$arch" = "ia64" ]
 
       then
 
        # LD_ASSUME_KERNEL=2.4.19   
 
        # export LD_ASSUME_KERNEL 
 
        echo  -- 这里一定要加上,不然返回会报错
 
       fi
 
       #End workaround
 
 
 
问题2: 如果遇到这个错误:
 
# vipca
 
Error 0(Native: listNetInterfaces:[3])
 
[Error 0(Native: listNetInterfaces:[3])]
 
解决方法:
 
在CRS_HOME下 运行 oifcfg 命令:
 
 
 
# ./oifcfg setif -global eth0/10.85.10.0:public
 
# ./oifcfg setif -global eth1/192.168.1.0:cluster_interconnect
 
# ./oifcfg getif
 
eth0 10.85.10.0 global public
 
eth1 192.168.1.0 global cluster_interconnect
 
 
 
-- 注意这里最后一个是0. 代表一个网段。 在一个节点设置之后,其他节点也能看到。 
 
 
 
然后在手工运行vipca添加nodeapps resource即可。
 
 
 
问题3:An unexpected exception has been detected in native code outside the VM.
 
Unexpected Signal : 11 occurred at PC=0xB7503E29
 
Function=__libc_free+0x49
 
Library=/lib/tls/libc.so.6
 
 
 
修改主机名不正确导致的。
 
RHEL
 
/etc/sysconfig/network 主机名,如果在/etc/hosts中解析不了。就报这个错误!
 
 
 
7.  clusterware 就安装结束.
 
 
 
确认一下.
 
$ /u01/app/oracle/product/crs/bin/olsnodes -n
 
rac1
 
rac2
 
$ ls -l /etc/init.d/init.*
 
-r-xr-xr-x 1 root root 1951 Oct 4 14:21 /etc/init.d/init.crs*
 
-r-xr-xr-x 1 root root 4714 Oct 4 14:21 /etc/init.d/init.crsd*
 
-r-xr-xr-x 1 root root 35394 Oct 4 14:21 /etc/init.d/init.cssd*
 
-r-xr-xr-x 1 root root 3190 Oct 4 14:21 /etc/init.d/init.evmd*
 
 
 
检查CRS 安装启动情况:用Root用户执行:
 
$CRS_HOME/bin/crsctl check crs
 
CSS appears healthy
 
CRS appears healthy
 
EVM appears healthy
 
 
 
表明CRS 安装完成,并且启动成功
 
[root@rac1 bin]# ./crs_stat -t -v
 
Name           Type           R/RA   F/FT   Target    State     Host
 
----------------------------------------------------------------------
 
ora.rac1.gsd   application    0/5    0/0    ONLINE    ONLINE    rac1
 
ora.rac1.ons   application    0/3    0/0    ONLINE    ONLINE    rac1
 
ora.rac1.vip   application    0/0    0/0    ONLINE    ONLINE    rac1
 
ora.rac2.gsd   application    0/5    0/0    ONLINE    ONLINE    rac2
 
ora.rac2.ons   application    0/3    0/0    ONLINE    ONLINE    rac2
 
ora.rac2.vip   application    0/0    0/0    ONLINE    ONLINE    rac2
 
 
 
注:如果clusterware 安装失败,再次运行安装程序,里面可以把之前的安装删除掉,删除之后在进行安装。
 

三. 安装Oracle 10gR2 database
 
 
 
1. 检查Oracle 的相关包。Oracle 10g 需要如下包
 
binutils-2.15.92.0.2-10.EL4
 
compat-db-4.1.25-9
 
control-center-2.8.0-12
 
gcc-3.4.3-9.EL4
 
gcc-c++-3.4.3-9.EL4
 
glibc-2.3.4-2
 
glibc-common-2.3.4-2
 
gnome-libs-1.4.1.2.90-44.1
 
libstdc++-3.4.3-9.EL4
 
libstdc++-devel-3.4.3-9.EL4
 
make-3.80-5
 
pdksh-5.2.14-30
 
sysstat-5.0.5-1
 
xscreensaver-4.18-5.rhel4.2
 
libaio-0.3.96
 
 
 
To see which versions of these packages are installed on your system, run the following command:
 
rpm -q binutils compat-db control-center gcc gcc-c++ glibc glibc-common \
 
gnome-libs libstdc++ libstdc++-devel make pdksh sysstat xscreensaver libaio openmotif21
 
 
 
2. 在Xmanager 中用oracle用户,运行database的runInstaller
 
3. ORACLE安装目录指定到 /u01/app/oracle/product/10.2.0/db_1
 
4. 把2个node选择上
 
5. 选择 Install database Software only
 
6. 会要求你用完全的root权限运行 root.sh ,分别在2个node上一一运行
 
7. 安装完毕
 
 
 
 
 
四. netca 创建监听
 
 
 
注:创建数据库过程应该遵循这个顺序: 先配置监听, 再配置ASM 实例, 最后创建数据库实例, 这样可以减少出错的概率。
 
 
 
1. oracle 用户在一个node上运行 netca
 
2. 选择所有node
 
3. 选择 Listener configuration
 
4. 添加一个LISTENER, 1521 port ,然后结束配置
 
 
 
监听配置成功后, 2个结点上的Listener 都会坐位Application Resource 注册到CRS中, 这样CRS 就可以监控Listener 的运行状态。 我们可以通过 crs_stat -t -v  查看Listener 状态。
 
 
 
 
 
五. 创建ASM 实例
 
 
 
1. 运行DBCA 命令
 
2. 选择 configure Automatic Storage Management, 来创建ASM 实例
 
3. 选择所有结点
 
4. 输入密码。RAC 的spfile 必须放在共享目录下。  参数文件我们选择第一个initialization parameter。 也可以放在我们建的裸设备上。
 
5. 修改asm 参数: asm_diskstring = ORCL:VOL*, 这样能让Oracle自动发现这些硬盘
 
6. ASM 实例创建完后,用Create New 来创建ASM 磁盘组。 我们用VOL1来创建一个DATA 组, VOL2 创建FLASH_RECOVERY_AREA组。
 
 
 
注: Redundancy 一般选external 就是也就是不考虑冗余,假如选normal 则是mirror, 至少要一个FailGroup. 选High 就是triple mirror,3倍镜像,需要三个FailGroup
 
 
 
7.  创建完成后,能看到组的状态是Mount, ASM 组必须mount之后才能使用。
 
 
 
注意: asm 对应的device 需要oracle 用户的权限,如:
 
chown oracle:oinstall /dev/mapper/device_name
 
 
 
ASM 的相关信息参考blog:
 
Oracle ASM 详解
 
 
 
 
在这里,如果asm 服务必须要启动。如果没有启动,就手动启动它。 具体参考:
 
       Oracle RAC 启动与关闭
 
 
 
 
[root@rac1 bin]# ./crs_stat -t
 
Name           Type           Target    State     Host
 
------------------------------------------------------------
 
ora....SM2.asm application    ONLINE    ONLINE    rac1
 
ora....C1.lsnr application    ONLINE    ONLINE    rac1
 
ora.rac1.gsd   application    ONLINE    ONLINE    rac1
 
ora.rac1.ons   application    ONLINE    ONLINE    rac1
 
ora.rac1.vip   application    ONLINE    ONLINE    rac1
 
ora....SM1.asm application    ONLINE    ONLINE    rac2
 
ora....C2.lsnr application    ONLINE    ONLINE    rac2
 
ora.rac2.gsd   application    ONLINE    ONLINE    rac2
 
ora.rac2.ons   application    ONLINE    ONLINE    rac2
 
ora.rac2.vip   application    ONLINE    ONLINE    rac2
 

六. 配置dbca创建数据库
 
 
 
1. 用oracle用户运行 dbca
 
2. 选择custom database
 
3. 输入数据库的全局名,比如rac
 
4. 输入系统的角色建立密码
 
5. 选择ASM 来存储, 分别选择我们刚创建的DATA 和FLASH_RECOVERY_AREA 组
 
6. Database Services 这里,你选择Add你一个新的service, 随便叫名字,比如oltp。然后选择 TAF Policy,是Basic。 这个服务在RAC 的Failover中会用到,如果在这里没有配置,也可以通过dbca命令, 选择 Services Management 来进行配置。 具体参考blog:
 
   Oracle RAC Failover 详解
 
  
 
 
 
7. 开始创建数据库
 
 
 
 
 
 
 
七. 检查RAC 运行状态
 
 
 
1.
 
[root@rac1 bin]# ./srvctl status database -d rac
 
Instance rac2 is running on node rac1
 
Instance rac1 is running on node rac2
 
 
 
2.
 
[root@rac1 bin]# ./crs_stat -t
 
Name           Type           Target    State     Host
 
------------------------------------------------------------
 
ora.rac.db     application    ONLINE    ONLINE    rac1
 
ora....oltp.cs application    ONLINE    ONLINE    rac2
 
ora....ac1.srv application    ONLINE    ONLINE    rac2
 
ora....ac2.srv application    ONLINE    ONLINE    rac1
 
ora....c1.inst application    ONLINE    ONLINE    rac2
 
ora....c2.inst application    ONLINE    ONLINE    rac1
 
ora....SM2.asm application    ONLINE    ONLINE    rac1
 
ora....C1.lsnr application    ONLINE    ONLINE    rac1
 
ora.rac1.gsd   application    ONLINE    ONLINE    rac1
 
ora.rac1.ons   application    ONLINE    ONLINE    rac1
 
ora.rac1.vip   application    ONLINE    ONLINE    rac1
 
ora....SM1.asm application    ONLINE    ONLINE    rac2
 
ora....C2.lsnr application    ONLINE    ONLINE    rac2
 
ora.rac2.gsd   application    ONLINE    ONLINE    rac2
 
ora.rac2.ons   application    ONLINE    ONLINE    rac2
 
ora.rac2.vip   application    ONLINE    ONLINE    rac2
 

本篇文章来源于 Linux公社网站()  原文链接:
阅读(1516) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~