Chinaunix首页 | 论坛 | 博客
  • 博客访问: 103729205
  • 博文数量: 19283
  • 博客积分: 9968
  • 博客等级: 上将
  • 技术积分: 196062
  • 用 户 组: 普通用户
  • 注册时间: 2007-02-07 14:28
文章分类

全部博文(19283)

文章存档

2011年(1)

2009年(125)

2008年(19094)

2007年(63)

分类: LINUX

2008-04-15 22:42:37

作者: xtvnet  出自:
这里的heartbeat就是linux-ha项目,被许多高可用系统采用。heartbeat的配置信息非常复杂,但是最关键也就是那么几项。

1.准备环境
准备两台Debian Linux,hostname和ip分别是ha(192.168.0.167),ha2(192.168.0.139)。

2.安装heartbeat
通过apt-get install heartbeat给ha和ha2安装heartbeat,能省去在别的Linux环境下需要先安装依赖库libnet等步骤,这里都自动完成。

3.配置heartbeat
需要配置文件有三个:authkeys、haresources、ha.cf。这三个配置文件需要在/etc/ha.d目录下面,但是默认是没有这三个文件的,所以你可以自己创建,简单配置很简单:
在ha和ha2上配置相同的authkeys和haresources,如下:
#cat authkeys
--------------
auth 3
#1 crc
#2 sha1 HI!
3 md5 Hello!
--------------
1,2,3表示认证算法选择,这里选择了md5算法
而且authkeys文件权限必须是0600,所以
#chmod 0600 authkeys

#cat haresources
--------------
ha 192.168.0.2/24/eth0 apache
--------------
ha是主节点名称,192.168.0.2/24/eth0是对外虚拟服务IP/掩码/网卡接口,apache表示资源名称,用来启动及停止apache服务的脚本,需要在resource.d目录下创建apache这个脚本,支持start和stop操作。

ha.cf在两个节点上稍有不一样,
ha(192.168.0.167)配置如下:
#cat ha.cf
--------------
auto_failback off
#说明:主节点重启成功后,资源是自动拿回到主节点还是等到副节点down调后拿回资源
node ha
node ha2
#说明:节点名称,与uname –n保持一致。是否主节点与此位置的先后顺序无关。而是在haresources里指定
#bcast eth0
#说明:采用eth0的udp广播用来发送心跳信息,建议在副节点不只一台时使用
ucast eth0 192.168.0.139
#说明:采用网卡eth0的udp单播来通知心跳,ip应为对方IP(未验证)
#mcast eth0 225.0.0.1 694 1 0
#说明:采用udp多播播来通知心跳,建议在副节点不只一台时使用
#注:广播,单播,多播,以上三种任选其一即可
--------------
ha2(192.168.0.139)配置如下:
#cat ha.cf
--------------
auto_failback off
#说明:主节点重启成功后,资源是自动拿回到主节点还是等到副节点down调后拿回资源
node ha
node ha2
#说明:节点名称,与uname –n保持一致。是否主节点与此位置的先后顺序无关。而是在haresources里指定
#bcast eth0
#说明:采用eth0的udp广播用来发送心跳信息,建议在副节点不只一台时使用
ucast eth0 192.168.0.167
#说明:采用网卡eth0的udp单播来通知心跳,ip应为对方IP(未验证)
#mcast eth0 225.0.0.1 694 1 0
#说明:采用udp多播播来通知心跳,建议在副节点不只一台时使用
#注:广播,单播,多播,以上三种任选其一即可
--------------

4.验证
启动ha和ha2的heartbeat:
#/etc/init.d/heartbeat start
通过ifconfig查看eth0:0的192.168.0.2会在某台服务器上分配上了,说明这台目前是活动服务器,而另外一台没有分配上。
当浏览器访问时,是会返回目前活动服务器上的apache服务响应

5.常见的错误:
通过ifconfig发现两台机器都分配上了eth0:0的192.168.0.2这个虚拟IP,并在/var/log/syslog中产生大量日志:
WARN: nodename ha uuid changed to ha2
ERROR: should_drop_message: attempted replay attack
可能原因:ha和ha2的uuid改变引起,可能ha2是通过VMware克隆复制方式产生的或hostname设置在安装heartbeat之后
解决方案:让uuid重新生成,可以先卸载heartbeat,删除/var/lib/heartbeat目录(uuid文件就在这个目录下,该目录在卸载时不被删除,需手动删除,如果不手动删除,重新安装还会使用原来uuid)
阅读(655) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~