Chinaunix首页 | 论坛 | 博客
  • 博客访问: 10327589
  • 博文数量: 1669
  • 博客积分: 16831
  • 博客等级: 上将
  • 技术积分: 12594
  • 用 户 组: 普通用户
  • 注册时间: 2011-02-25 07:23
个人简介

柔中带刚,刚中带柔,淫荡中富含柔和,刚猛中荡漾风骚,无坚不摧,无孔不入!

文章分类

全部博文(1669)

文章存档

2023年(4)

2022年(1)

2021年(10)

2020年(24)

2019年(4)

2018年(19)

2017年(66)

2016年(60)

2015年(49)

2014年(201)

2013年(221)

2012年(638)

2011年(372)

分类: 服务器与存储

2012-12-10 10:08:59

RHEL6_GFS_Web_HA实现  

2012-12-10 10:06:30|  分类: 高可用RHCS |  标签: |字号 

1.实验环境
节点1:  v1.domain.com 192.168.137.11
节点2:   v2.domain.com 192.168.137.12
iscsi存储/配置服务器:rhel6.domain.com 192.168.137.6
修改/etc/hosts文件或者搭建DNS服务器,三台serverhosts文件如下:
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.137.11    v1.domain.com    v1
192.168.137.12    v2.domain.com    v2
192.168.137.6    rhel6.domain.com    rhel6
2.配置集群之前
2.1.存储配置
2.1.1.ISCSI服务器
1.rhel6.domain.com上sda1和sda2为/分区和swap 分区,尚余一部分磁盘空间未分配,用fdisk分出sda3一个分区(10G)准备用作iscsi共享存储。
2.安装scsi-target-utils软件提供iscsi服务
[root@rhel6 ~]# yum install scsi-target-utils
3.修改/etc/tgt/targets.conf,添加:

backing-store /dev/sda3

4.重启tgtd服务,并将其设为开机启动:

[root@rhel6 ~]# /etc/init.d/tgtd restart
[root@rhel6 ~]# chkconfig tgtd on
5.查看服务状态,可以看到已经提供了一个10G的ISCSI 
LUN 1卷


6.打开防火墙端口3260或者关闭防火墙,具体设置自行解决。
2.1.2.ISCSI客户机
1.安装iscsi客户端软件iscsi-initiator-utils
[root@v1 ~]# yum install iscsi-initiator-utils
2.发现服务器rhel6.domain.com的iscsi共享卷
[root@v1 ~]# iscsiadm -m discovery -t sendtargets -p rhel6
Rhel6为主机名,使用ip地址也可
3.登录ISCSI存储:
[root@v1 ~]# iscsiadm -m node -T iqn.2011-06.com.domain:server.target1 -p 192.168.137.6:3260 -l
使用iscsiadm -m node -T target名称 -p targetIP地址:端口号 –login 命令
5.卸载ISCSI存储命令
[root@v1 ~]# iscsiadm -m node -T iqn.2011-06.com.domain:server.target1 -p 192.168.137.6:3260 -u
6.在其他的节点上挂载ISCSI
7.将iscsi设为开机启动

2.2.集群软件包安装
分为集群节点和配置管理器(LuciRHCSweb管理工具,仅仅只是配置工具,集群可脱离它正常运行)
2.2.1.集群节点
1.配置好yum源后,安装集群软件包
[root@v1 ~]# yum install ricci openais cman rgmanager lvm2-cluster gfs2-utils
2.打开防火墙相应端口
端口        协议  程序
5404,5405   UDP   corosync/cman
11111       TCP   ricci
21064       TCP   dlm
16851       TCP   modclusterd
3.或者直接禁用防火墙
[root@v1 ~]# /etc/init.d/iptables stop
[root@rhel6 ~]# chkconfig iptables off
4.关闭节点上的ACPI服务:
[root@v1 ~]# /etc/init.d/acpid stop
[root@v1 ~]# chkconfig acpid off
5.禁用NetworkManager
[root@v1 ~]# /etc/init.d/NetworkManager stop
[root@v1 ~]# chkconfig NetworkManager off
6.给软件用户ricci设置密码:
[root@v1 ~]# passwd ricci
7.启动ricci服务
[root@v1 ~]# /etc/init.d/ricci start

2.2.2.集群配置管理器(luci
可以安装在节点上,我现在安装在存储服务器上,更利于监控集群状态。
1.配置好yum源后,安装管理软件:
[root@rhel6 ~]# yum install luci

2.打开软件相应端口(iptables命令)
端口        协议  程序
8084       TCP  luci
3.或者直接禁用防火墙
[root@rhel6 ~]# /etc/init.d/iptables stop
[root@rhel6 ~]# chkconfig iptables off
4.启动luci:
[root@rhel6 ~]# /etc/init.d/luci start

3.创建集群
1.登录管理服务器的luci 界面,端口8084:


2.输入用户名root和密码,登录

3.转到manage cluster界面

4.点击Create,创建集群

5.此处密码为ricci密码

6.集群创建成功

7.转到Fence Devices创建fence设备,因为不是用的服务器,没有fence设备,我随意建了一个SRF,实际生产环境中,必须使用fence硬件设备。

8.回到nodes菜单下,点击v1.domain.com,出现节点详情后点击add fence method添加一个method, 
9.点击add fence instance,添加刚才设定的SRF。





4.建立GFS文件系统
4.1.创建LVM
1.创建物理卷
[root@v1 ~]# pvcreate /dev/sda 
2.查看物理卷
[root@v1 ~]# pvdisplay 
3.创建卷组v g1
[root@v1 ~]# vgcreate vg1 /dev/sda 
4.查看卷组
[root@v1 ~]# vgdisplay
5.创建逻辑卷lv1
[root@v1 ~]# lvcreate -L 10G -n lv1 vg1
-L 10G指定大小 –n lv1指定名称 vg1指定所在卷组
6.现在在两台节点上手动重启/etc/clvmd服务:
[root@v1 ~]# /etc/init.d/clvmd restart
7.在两边主机上都可以看到新建的lvm卷

4.2.创建GFS2文件系统
1.在将lvm卷 lv1格式化成GFS2文件系统
[root@v1 ~]# mkfs.gfs2 -p lock_dlm -t mycluster:data1 -j 4 /dev/vg1/lv1
-p指定lock参数,-t指定
集群名:文件系统名 –j 指定可以连接的节点数
2.节点上挂载GFS2文件系统
[root@v1 ~]# mkdir /mnt/data1
[root@v1 ~]# mount /dev/vg1/lv1 /mnt/data1/
[root@v2 ~]# mkdir /mnt/data1
[root@v2 ~]# mount /dev/vg1/lv1 /mnt/data1/
3.测试GFS2文件系统是否正常运行,在v1和v2上分别新建文件,在双方查看是否同步
4.让GFS2文件系统开机自动挂载
查看mount
[root@v1 ~]# mount
。。。。。。
/dev/mapper/vg1-lv1 on /mnt/data1 type gfs2 (rw,relatime,hostdata=jid=0)
[root@v2 ~]# mount

。。。。。。
/dev/mapper/vg1-lv1 on /mnt/data1 type gfs2 (rw,relatime,hostdata=jid=1)
分别修改节点/etc/fstab文件,加入
/dev/mapper/vg1-lv1   /mnt/data1   gfs2    defaults   0 0
重启节点验证
[root@v1 ~]# df -h
5.建立Web高可用服务
5.1.配置web服务器
两个节点上建立web服务器,实际使用中网站根目录均应使用/mnt/data1/下的相同目录,测试中为了更好的验证,分别使用/mnt/data1/www1/mnt/data1/www2.
1.修改两个节点上的/etc/httpd/conf/httpd.conf
[root@v1 ~]# vim /etc/httpd/conf/httpd.conf
DocumentRoot "/var/www/html"改为
DocumentRoot "/mnt/data1/www1"
[root@v2 ~]# vim /etc/httpd/conf/httpd.conf
DocumentRoot "/var/www/html"改为
DocumentRoot "/mnt/data1/www2"
2.新建目录及网页文件index.html
[root@v2 ~]# mkdir /mnt/data1/www1 
/mnt/data1/www2
root@v2 ~]# vim /mnt/data1/www1/index.html
This is v1 !
root@v2 ~]# vim /mnt/data1/www2/index.html
This is v2 !
3.启动http服务
[root@v1 ~]# /etc/init.d/httpd start
[root@v2 ~]# /etc/init.d/httpd start
4.访问192.168.137.11和192.168.137.12得到:


5.2.集群中创建服务组
1.创建Web高可用需要的两个资源:
(1) ip地址:192.168.137.10/24
(2) httpd脚本:/etc/init.d/httpd


2.新建故障倒换域

3.新建服务组,添加刚才新建的两个资源进服务组


4.启动服务组

显示运行在v2上,访问192.168.137.10有:

5.3.高可用性验证
1.手动切换


刷新192.168.137.10页面

2.模拟宕机,关闭V1(现实生产应用中必须使用Fence设备!!!

新增pdf文件

  (1.38 MB)
阅读(1076) | 评论(0) | 转发(1) |
给主人留下些什么吧!~~