Chinaunix首页 | 论坛 | 认证专区 | 博客 登录 | 注册

东南西北风andyhuang.blog.chinaunix.net

脚踏实地,一步一个脚印!

  • 博客访问: 2691818
  • 博文数量: 695
  • 博客积分: 8199
  • 博客等级: 中将
  • 技术积分: 9679
  • 用 户 组: 普通用户
  • 注册时间: 2010-05-25 20:19
个人简介

脚踏实地、勇往直前!

文章分类

全部博文(695)

文章存档

2017年(76)

2016年(48)

2015年(50)

2014年(169)

2013年(52)

2012年(177)

2011年(93)

2010年(30)

微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

订阅
热词专题
HACMP配置 2012-09-06 18:47:49

分类: 系统运维

环境:
OS:Aix 6.1
P740两台,每台机器两个物理网卡.
共享存储:IBM V7000
操作系统:AIX 6.1
HACMP版本:HACMP 5.3
 
一.IP地址规划
1.节点nodeA
启动ip地址(nodeA_boot): en0 192.168.10.11    netmask:255.255.255.0
备用ip地址(nodeA_sta):  en1 192.168.20.11    netmask:255.255.255.0
服务ip地址(nodeA_svc):  192.168.30.11
永久ip地址(nodeA_per):  192.168.40.11
 
2.节点nodeB
启动ip地址(nodeB_boot): en0 192.168.10.12    netmask:255.255.255.0
备用ip地址(nodeB_sta):  en1 192.168.20.12    netmask:255.255.255.0
服务ip地址(nodeB_svc):  192.168.30.12
永久ip地址(nodeB_per):  192.168.40.12

二.安装HACMP5.3文件集
1.安装HACMP5.3要求的操作系统文件集:
bos.data
bos.adt.lib
bos.adt.libm
bos.adt.syscalls
bos.net.tcp.client
bos.net.tcp.server
bos.rte.SRC
bos.rte.libc
bos.rte.libcfg
bos.rte.libpthreads
bos.rte.odm
bos.rte.lvm
bos.clvm.enh(IBM aix5.3系统默认没有安装)
2.要求的RSCT文件集
rsct.compat.basic.hacmp 2.4.2.0
rsct.compat.clients.hacmp 2.4.2.0
rsct.core.sec 2.4.2.1
rsct.basic.sp.2.4.2.0
三.安装HACMP5.3
1.插入hacmp5.3光盘,除以下文件集外全部安装:
cluster.es.plugins
cluster.hativoli
cluster.haview
rsct.exp
2.安装完成后重启AIX系统,并查看相关进程
#lssrc -g cluster
#ps -ef|grep cl*
四、网络配置
nodeA地址配置:
#ifconfig en0 192.168.10.11 netmask 255.255.255.0
#ifconfig en1 192.168.20.11 netmask 255.255.255.0
nodeB地址配置:
#ifconfig en0 192.168.10.12 netmask 255.255.255.0
#ifconfig en1 192.168.20.12 netmask 255.255.255.0

五.编写/etc/hosts文件(nodeA 和nodeB上都需要做相同添加)
192.168.10.11 nodeA_boot   nodeA
192.168.20.11 nodeA_sta
192.168.30.11 nodeA_svc
192.168.40.11 nodeA_per
192.168.10.12 nodeB_boot   nodeB
192.168.20.12 nodeB_sta
192.168.30.12 nodeB_svc
192.168.40.12 nodeB_per
注:nodeA 和nodeB上配置完ip地址并且修改完hosts文件后,两台主机可以互相ping下,检测两边是否连通.

六.修改网络参数
#no  -p  -o  nonlocsrcroute=1
#no  -p  -o  ipsrcrouterec=1
#no  -p  -o  routerevalidate=1
七.编写/usr/es/sbin/cluster/etc/rhosts 文件(nodeA和nodeB上都需要相同修改),建立信任关系.
192.168.10.11 //(nodeA的启动ip)
192.168.20.11 //(nodeA的备用ip)
192.168.10.12 //(nodeB的启动ip)
192.168.20.12 //(nodeB的备用ip)

八.编写/usr/es/sbin/cluster/netmon.cf文件(nodeA 和nodeB上各添加自己的启动ip和备用ip)
nodeA上添加:192.168.10.11
            192.168.20.11
nodeB上添加:192.168.10.12
            192.168.20.12
九.创建程序服务的脚本启动文件(nodeA 和nodeB 上都做相同操作)
#touch /etc/hastart1.sh
#touch /etc/hastop1.sh
#chmod -R /etc/hast*.sh
十.验证串口设备的通信,以便于串口设置做HACMP心跳线
nodeA上:#lsdev -c tty
        #cat < /dev/tty0
nodeB上:#lsdev -c tty
        #cat  /etc/hosts >/dev/tty0
反之,将nodeA上查看的hosts文件信息重定向输出到nodeB的终端上.
十一.共享存储配置SSA
在节点nodeA上,配置SSA存储的raid
#smiity ssaraid
----> add an ssa raid array
选择要创建的raid的类型
添加创建raid所需要的磁盘
查看命令:#lsdev  -c  disk   查看SSA logical  disk drive
         #lspv              查看是否出现一个新的磁盘
在nodeB上使用cfgmgr命令扫描硬件然后使用lspv命令查看是否能看到与nodeA上一样的一块新磁盘,
如果nodeA和nodeB上都出现一块相同的的物理磁盘 则证明共享存储SSA配置成功
十二.共享卷组配置
在节点nodeA上,使用共享磁盘创建卷组,并指定卷组的major号(主设备号),使用lspv查看共享磁盘为hdisk2.
#mkvg -V 60 -y oravg hdisk2
#lsvg -o
  rootvg
  oravg
修改卷组oravg属性,开机不自动启动
#chvg  -an  oravg
在新的卷组oravg上创建逻辑卷
#mklv -t jfs2 -y halv oravg 5G
在新的逻辑卷halv上创建文件系统 /hafs
#crfs  -v jfs2 -d halv -m /hafs
在节点nodeA 上varyoffvg卷组
#varyoffvg oravg
在节点nodeB上为扫描出来的新共享磁盘hdisk2添加PVID
#chdev -l hdisk2 -a pv=yes
在几点nodeB上导入卷组,同时指定卷组的major号与节点nodeA上卷组的major号相同
#importvg  -y oravg  -V 60 hdisk2
#lsvg -l  oravg
在节点nodeB上修改卷组的属性,使开机不自动激活并关闭卷组
#chvg  -an oravg
#varyoffvg oravg
#lspv
十三.添加集群(以下操作需要在卷组所在的主机上操作,本篇中为nodeB)
添加集群cluster1
#smitty hacmp——>initialization  and  standard  configuration  ——>add nodes to an HACMP cluster
指定cluster名:cluster1:选择nodeA和nodeB的启动ip地址
十四.添加服务ip地址标签
添加节点nodeA上的服务ip地址nodeA_svc
#smitty hacmp——>initialization  and standard  configuration——>configure resources to make highly available——>configure service ip labels/addresses——>add a service ip label/address
选择nodeA的服务ip地址(该位置指定以后真正使用的服务ip地址)
十五.添加应用服务
#smitty hacmp——>initialization and standard configuration——>configure resources to make highly available——>configure application servers——>add an application server
添加如下:server  name:appserver
         start  script: /etc/hastart1.sh
         stop  script: /etc/hastop1.sh

十六.添加资源组
添加新的资源组rsg1,参与的节点为nodeA和nodeB,且nodeA在前,表示节点nodeA的优先级最高
#smitty  hacmp——>initialization and standard configuration——>configure HACMP resource Groups——>add a resource group
指定资源组名:rsg1;选择节点nodeA   nodeB(备注:nodeA在前 优先级高)

十七.更改资源组
更改资源组rsg1,将资源(服务ip,应用服务,卷组)加入资源组中
#smitty hacmp——>initialization  and standard configuration——>configure hacmp resource groups——>change/show resources  for a resource group
选择nodeA_svc,appserver1,oravg等资源

十八.添加永久IP地址
添加节点nodeA的永久ip地址(节点NodeA)
#smitty hacmp——>extended configuration——>extended topology configuration——>configure  hacmp persistent node ip label/address——>add a persistent node ip label/address
选择节点nodeA上的永久ip地址:nodeA_per
 
添加节点nodeB的永久ip地址(节点NodeB)
#smitty hacmp——>extended configuration——>extended topology configuration——>configure  hacmp persistent node ip label/address——>add a persistent node ip label/address
选择节点nodeB上的永久ip地址:nodeB_per
十九.添加串口心跳网络和网络设备
添加串口网络和设备
#smitty hacmp——>extended configuration——>extended topology configuration——>configure hacmp communication interfaces/devices——>add communication interface/devices
按F7键选中nodeA nodeB的串口心跳网络设备:
>nodeA     tty0         /dev/tty0
>nodeB     tty0         /dev/tty0
二十.显示HACMP配置
显示HACMP配置
#smitty hacmp——>initialization  and  standard  configuration——>display HACMP configuration
二十一.验证并同步HACMP配置(将在nodeA上做的集群配置同步到nodeB上)
smitty hacmp——>initialization and standard configuration——>verify and synchronize HACMP configuration
同步成功表示集群配置成功!
查看永久ip地址,可以看到没有启动hacmp服务时永久nodeA和nodeB的永久ip已经存在.
nodeA#ifconfig -a
nodeB#ifconfig -a
二十二.启动HACMP服务
启动节点nodeA和节点nodeB的集群服务
#smitty hacmp——>system management(C-SPOC)——>manage hacmp services——>start cluster services
二十三.查看集群当前状态
启动完成后,查看集群当前状态
#smitty hacmp——>problem determination tools——>view current state
二十四.测试集群的高可用性
1.服务ip地址在网卡间的漂移(服务ip地址nodeA_svc在nodeA的en0网卡上)
nodeA#ifconfig  en0   down        模拟en0网卡宕掉
nodeA#ifconfig  -dl               查看关闭的网卡
nodeA#ifconfig  -a                查看服务ip地址是否转移漂移到en1上
nodeA#ifconfig  en1   down        模拟en1网卡也宕掉了 看服务ip地址是否漂移到nodeB主机上面
2.服务ip地址主机间漂移
#假设服务ip地址当前在nodeB主机上,通过reboot命令重启nodeB主机服务ip会自动漂移到nodeA主机上,
当nodeA主机重启时服务ip地址会自动漂移到nodeB主机上;nodeB主机正常的关机,开机操作服务ip地址不会发生漂移
,资源组中默认的是级联的漂移方式优先级高的优先获得服务ip地址.
阅读(6737) | 评论(0) | 转发(3) |
0

上一篇:AIX下配置NFS

下一篇:windows日常维护

给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册