Chinaunix首页 | 论坛 | 博客
  • 博客访问: 560042
  • 博文数量: 166
  • 博客积分: 4038
  • 博客等级: 上校
  • 技术积分: 1115
  • 用 户 组: 普通用户
  • 注册时间: 2008-01-14 23:29
文章分类

全部博文(166)

文章存档

2010年(12)

2009年(126)

2008年(28)

分类: LINUX

2009-07-13 09:16:13

一、网络拓扑图及相关网络节点说明

机器名称
硬件
环境
IP
OS
作用和服务
Akczcenter.xatlj
华硕 TS 500
E5-PA4
标配
10.109.1.55
RHEL 5.1
  • 集群节点,并安装VMWAREVM创建在双机共享盘阵上,安装WIN2000系统,提供WEB服务。
Akczdns.xatlj
华硕 TS 500
E5-PA4
标配
10.109.1.56
RHEL 5.2
  • 集群节点,并安装VMWARE,提供DNS NTP服务,VM创建在双机共享盘阵上,安装WINXP系统,提供WEB服务。
Akczftp.xatlj
华硕 TS 300
E5-PA4
标配
10.109.1.59
Fedora release 7
  • ISCSI服务器端,使用软RAID向集群节点提供ISCSI服务。本地FTP服务器。



二、服务器选型:
21ISCSI服务器端,使用软RAID向集群节点提供ISCSI服务,本地FTP服务器。
服务器名称
ISCSI服务器
主要功能
ISCSI服务器端,使用软RAID向集群节点提供ISCSI服务。本地FTP服务器。
服务器型号
ASUS TS300E5-PA4
入选理由
作为5U入门级服务器提供快速处理能力和更高的性能。内建RAID 010+15(软件受限于支持的操作系统)提供低成本的数据保护。此外,服务器级双千兆网卡提供专业可靠的网络连接。后置: 2USB 2.0接口可以使用USB HUB分两组连接6USB移动硬盘,在操作系统支持下创建RAID10设备。
数量
1
22.集群节点,并安装VMWARE,提供DNS NTP服务,VM1VM2创建在双机共享盘阵上,安装WINXP系统,提供WEB服务。
服务器名称
集群节点
主要功能
集群节点,并安装VMWARE,提供DNS NTP服务,VM1VM2创建在双机共享盘阵上,安装WINXP系统,提供WEB服务。
服务器型号
ASUS TS300E5-PA4
入选理由
TS500-E4/PX4服务器基于双核英特尔® 至强® 处理器5000/5100系列/四核英特尔® 至强® 处理器5300系列,支持EM64T技术、64位操作系统、英特尔® VT技术和英特尔® I/OAT技术,经济实惠的完整数据保护
数量
2

三、ISCSI服务器配置
  该ISCSI服务器通过使用一台华硕 TS 300 E5-PA4入门级的服务器以及6块移动硬盘,通过LINUX提供的软件RAID方法实现了一个大容量的、具有很强数据冗余能力以及很高数据安全性的数据存储案例。
3.1双网卡绑定实现负载均衡
采用双网卡绑定技术实现服务器网络连接的高可用性及吞吐量。
1)效果:网卡eth0eth1虚拟成设备bond0,并且向外公布一个虚拟IP地址。(拓扑图如图1
配置完成后在akczftp:~ #处输入命令: ifconfig,出现如下信息:
bond0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F
inet addr:10.109.1.59 Bcast:10.255.255.255 Mask:255.255.255.0
inet6 addr: fe80::20c:76ff:fe6c:861f/64 Scope:Link
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
RX packets:10831 errors:0 dropped:0 overruns:0 frame:0
TX packets:476 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1290093 (1.2 Mb) TX bytes:164685 (160.8 Kb)

eth0 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F
inet addr:10.109.1.59 Bcast:10.255.255.255 Mask:255.255.255.0
inet6 addr: fe80::20c:76ff:fe6c:861f/64 Scope:Link
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:5396 errors:0 dropped:0 overruns:0 frame:0
TX packets:238 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:643234 (628.1 Kb) TX bytes:83262 (81.3 Kb)
Base address:0xb000 Memory:f5000000-f5020000

eth1 Link encap:Ethernet HWaddr 00:0C:76:6C:86:1F
inet addr:10.109.1.59 Bcast:10.255.255.255 Mask:255.255.255.0
inet6 addr: fe80::20c:76ff:fe6c:861f/64 Scope:Link
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:5435 errors:0 dropped:0 overruns:0 frame:0
TX packets:238 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:646859 (631.6 Kb) TX bytes:81423 (79.5 Kb)
Base address:0xc000 Memory:f9000000-f9020000

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:108 errors:0 dropped:0 overruns:0 frame:0
TX packets:108 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:7288 (7.1 Kb) TX bytes:7288 (7.1 Kb)
2)配置方法:使用VI编辑器将标有//的内容添加到/etc/init.d/network中的相应位置。(//不用输入,修改完后需要重启服务器操作系统)mode为网卡工作方式,“1”为互援式工作方式(热备份工作方式,当前工作链路或网卡出现故障时,备份网卡会自动接管网络链路),“0”为集群式工作方式(同时在线提供两倍带宽,一条链路或网卡故障时,网络带宽为工作网卡带宽,不需切换)。如下:
akczftp:~ # vi /etc/network
akczftp:~ # vi /etc/init.d/network
rc_status -v
fi
//#modprobe bonding mode=active-backup miimon=100 primary=eth0
//modprobe bonding mode=0 miimon=100 primary=eth0
//ifconfig bond0 inet 10.109.1.59 netmask 255.255.255.0
//route add default gw 10.109.1.1
//ifenslave bond0 eth0
//ifenslave bond0 eth1
//ifconfig bond0 up
;;
stop)
echo Shutting down network interfaces:
echo Shutting down network interfaces:
//ifenslave -d bond0 eth0
//ifenslave -d bond0 eth1
//ifconfig bond0 down

    • Linux创建软Raid的配置过程(RAID1+0
  将6块廉价IDE硬盘盒组建成一个RAID1+0设备,操作系统启动正常后,分别依次开启IDE硬盘盒电源开关,操作系统会依次加载这些设备:
Disk /dev/sdb: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdb1 1 9729 78148161 83 Linux

Disk /dev/sdc: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdc1 1 9729 78148161 83 Linux

Disk /dev/sdd: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdd1 1 9729 78148161 83 Linux

Disk /dev/sde: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sde1 1 9729 78148161 83 Linux

Disk /dev/sdf: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdf1 1 9729 78148161 83 Linux

Disk /dev/sdg: 80.0 GB, 80026361856 bytes
255 heads, 63 sectors/track, 9729 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System
/dev/sdg1 1 9729 78148161 83
第一步:创建新磁盘分区:
root用户执行命令#fdisk /dev/hdb,完成对第二个IDE硬盘的格式化。
Command (m for help):提示下输入n,即创建新的磁盘分区。
Command action
e extended
p primary partition (1-4):提示下输入p,即创建主分区。
Partition number (1-4): 提示下输入1 ,即分区号
First cylinder (1-522, default 1): 提示下按回车,即指定起始柱面(注意:括号中尾柱面数字取决于硬盘的具体型号)
Last cylinder or +size or +sizeM or +sizeK (1-522, default 522): 提示下按回车,即指定尾柱面。
Command (m for help): 提示下输入p ,即查看分区状态,如果看到/dev/sdb1等信息则说明分区成功。
Command (m for help): 提示下输入t,即转换分区类型
Hex code (type L list codes): 提示下输入L,即显示分区编码列表
Hex code (type L list codes): 提示下输入fd,即LinuxRaid分区编码
Command (m for help): 提示下输入w ,即保存退出
重复以上步逐,在其余两块硬盘上创建LinuxRaid分区。完成后需要重新启动Linux主机,以使设置生效。
第二步:创建RAID设备
执行创建RAID1设备命令
[root@localhost /]# mdadm -Cv /dev/md0 -l1 -n2 -c128 /dev/sd[b,c]1
[root@localhost /]# mdadm -Cv /dev/md1 -l1 -n2 -c128 /dev/sd[d,e]1
[root@localhost /]# mdadm -Cv /dev/md2 -l1 -n2 -c128 /dev/sd[f,g]1
命令中各参数的作用如下:
-C”:创建一个新的阵列;“/dev/md0”:表示阵列设备名称;“-l1”表示设置阵列模式,可以选择01456,它们分别对应于RAID0RAID1RAID4RAID5RAID6,这里设为RAID1模式;“-n2”指设置阵列中活动设备的数目,该数目加上备用设备的数目应等于阵列中的总设备数; “-c128”指设置块的尺寸为128KB,缺省为64KB;“/dev/hd[b, c,]1”指当前阵列中包含的所有设备标识符,也可以分开来写,中间用空格分开。
  当创建一个新阵列或者对阵列重构时,设备需要进行同步操作。这一过程需要一定时间,可以通过查看/proc/mdstat文件,来显示阵列的当前状态以及同步进度、所需时间等信息。
[root@localhost etc]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md3 : active raid0 md2[2] md1[1] md0[0]
234443904 blocks 128k chunks
md2 : active raid1 sdg1[1] sdf1[0]
78148096 blocks [2/2] [UU]
[========>............] resync = 42.5% (33272576/78148096) finish=88.1min speed=8480K/sec
md1 : active raid1 sde1[1] sdd1[0]
78148096 blocks [2/2] [UU]
[========>............] resync = 43.6% (34123712/78148096) finish=85.6min speed=8568K/sec
md0 : active raid1 sdc1[1] sdb1[0]
78148096 blocks [2/2] [UU]
[==========>..........] resync = 51.3% (40093760/78148096) finish=63.8min speed=9933K/sec
unused devices:
当新建或重构完成后,再次查看/proc/mdstat文件:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md2 : active raid1 sdg1[1] sdf1[0]
78148096 blocks [2/2] [UU]
md1 : active raid1 sde1[1] sdd1[0]
78148096 blocks [2/2] [UU]

md0 : active raid1 sdc1[1] sdb1[0]
78148096 blocks [2/2] [UU]
unused devices:
  通过以上内容,可以很清楚地看出当前阵列的状态,各部分所代表的意思如下:“[2/2]”中的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,如果有一个设备损坏,则第二位数将减1;“[UU]”标记当前阵列可以正常使用的设备情况,现假设/dev/md1出现故障,则该标记将变成 [U_],这时的阵列以降级模式运行,即该阵列仍然可用,但是不再具有任何冗余;“sdd1[2]”指阵列所包含的设备数为n,若方括号内的数值小于 n,则表示该设备为活动设备,若数值大于等于n,则该设备为备份设备,当一个设备出现故障的时候,相应设备的方括号后将被标以(F)
执行创建RAID0设备命令
[root@localhost etc]# mdadm -Cv /dev/md3 -l0 -n3 -c128 /dev/md0 /dev/md1 /dev/md2
查看/proc/mdstat文件出现如下信息:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md3 : active raid0 md2[2] md1[1] md0[0]
234443904 blocks 128k chunks
md2 : active raid1 sdg1[1] sdf1[0]
78148096 blocks [2/2] [UU]
md1 : active raid1 sde1[1] sdd1[0]
78148096 blocks [2/2] [UU]
md0 : active raid1 sdc1[1] sdb1[0]
78148096 blocks [2/2] [UU]
unused devices:
至此,RAID10盘阵创建完成。
第三步:配置RAID设备
  接下来我们为mdadm生成配置文件, mdadm的缺省配置文件为/etc/mdadm.conf,它主要是为了方便阵列的日常管理而设置的,对于阵列而言不是必须的,但是为了减少日后管理中不必要的麻烦,还是应该坚持把这一步做完。
mdadm.conf文件中要包含两种类型的行:一种是以DEVICE开头的行,它指明在阵列中的设备列表;另一种是以ARRAY开头的行,它详细地说明了阵列的名称、模式、阵列中活动设备的数目以及设备的UUID号。格式如下:
DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=8f128343:715a42df: baece2a8: a5b878e0
以上的这些信息可以通过扫描系统的阵列来获取,命令为:
# mdadm -Ds
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c4f17506:687b1bd2:9964e709:c0d4630d
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=ae52d48a:e65c88c2:0bb4c763:50499806
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=4027a9e7:a8fab70b:272f6793:c8a72f12
ARRAY /dev/md3 level=raid0 num-devices=3 UUID=1cdfe4da:d88fe61e:54d2ed07:7aeb9c96
使用vi命令,按照规定的格式编辑修改/etc/mdadm.conf文件
# vi /etc/mdadm.conf
[root@localhost etc]# vi /etc/mdadm.conf
文件内容如下:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=c4f17506:687b1bd2:9964e709:c0d4630d devices=/dev/sdb1,/dev/sdc1
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=ae52d48a:e65c88c2:0bb4c763:50499806 devices=/dev/sdd1,/dev/sde1
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=4027a9e7:a8fab70b:272f6793:c8a72f12 devices=/dev/sdf1,/dev/sdg1
ARRAY /dev/md3 level=raid0 num-devices=3 UUID=1cdfe4da:d88fe61e:54d2ed07:7aeb9c96 devices=/dev/md0,/dev/md1,/dev/md2
//每行的devices后的内容为添加内容,设备名以盘阵的设备名为准。
重启服务器后,按照顺序依次打开硬盘盒,执行如下命令:
[root@localhost etc]# mdadm –As
出现如下信息:
mdadm: /dev/md0 has been started with 2 drives.
mdadm: /dev/md1 has been started with 2 drives.
mdadm: /dev/md2 has been started with 2 drives.
mdadm: /dev/md3 has been started with 3 drives.
说明系统已经挂载完成创建好的RAID10阵列。
查看/proc/mdstat文件出现如下信息:
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid0]
md3 : active raid0 md0[0] md2[2] md1[1]
234443904 blocks 128k chunks

md2 : active raid1 sdf1[0] sdg1[1]
78148096 blocks [2/2] [UU]

md1 : active raid1 sdd1[0] sde1[1]
78148096 blocks [2/2] [UU]
md0 : active raid1 sdb1[0] sdc1[1]
78148096 blocks [2/2] [UU]
unused devices:
第四步:创建LVM卷设备
[root@akczftp ~]# 输入pvcreate /dev/md3命令,创建物理卷。
[root@akczftp ~]# 输入vgcreate akczftp /dev/md3命令创建卷组。
分别在[root@akczftp ~]# 输入lvcreate -L 120000M -n akczftpLV1 akczftplvcreate -L 100000M -n akczftpLV2 akczftp两个命令创建两个逻辑卷。
使用VI编辑器在/etc/init.d/文件中创建启动和停止iscsi服务的脚本:
启动脚本/etc/init.d/mdmountvsftpd_start内容如下:
#! /bin/bash
mdadm -As
vgchange -a y akczftp
mount /dev/dm-0 /ftp (作为本地目录使用)
/etc/init.d/vsftpd start
/etc/init.d/iscsi-target start
停用脚本/etc/init.d/mdmountvsftpd_stop内容如下:
#! /bin/bash
/etc/init.d/iscsi-target stop
umount /ftp
vgchange -a n akczftp
mdadm --stop /dev/md3
mdadm --stop /dev/md2
mdadm --stop /dev/md1
mdadm --stop /dev/md0
注意:
系统开机顺序:
  • 启动操作系统
  • 操作系统正常启动后依次打开硬盘盒电源
3.3 在此基础上我们将安装LinuxIscsi服务器需要的服务器端软件iscsitarget,该软件可以从http//iscsitarget.sourceforge.net/进行下载,下载完后在本地下载保存目录中应该出现iscsitarget-0.4.16.tar.gz文件,注意:安装要2.6.14以上内核。在[root@akczftp opt]# uname –a
系统返回如下信息:
Linux akczftp.xatlj 2.6.21-1.3194.fc7 #1 SMP Wed May 23 22:35:01 EDT 2007 i686 i686 i386 GNU/Linux
2.6.21-1.3194.fc7即为该系统Linux内核(Kernel)版本。
Iscsitarget具体安装步逐如下:
  • [root@akczftp opt]#处输入命令tar -zxf iscsitarget-0.4.15.tar.gz //解压该tar
  • [root@akczftp opt]#处输入命令cd iscsitarget-0.4.16 //进入解压后生成的安装文件目录
  • 依次在[root@akczftp iscsitarget-0.4.16]#处输入以下命令
make
make kernel
make usr
make KSRC=/usr/src/kernels/2.6.21-1.3194.fc7-i686/ install-man
make KSRC=/usr/src/kernels/2.6.21-1.3194.fc7-i686/ install-kernel
make KSRC=/usr/src/kernels/2.6.21-1.3194.fc7-i686/ install-usr
make KSRC=/usr/src/kernels/2.6.21-1.3194.fc7-i686/ install-init
make KSRC=/usr/src/kernels/2.6.21-1.3194.fc7-i686/ install-etc
chkconfig --add iscsi-target
  • [root@akczftp opt]#处输入命令vi /etc/ietd.conf/etc/ietd.conf文件进行配置,以下内容是我的配置实例
Target iqn.2008-04.xatlj.akczftp:storage.disk2.sys1.xyz
# Users, who can access this target. The same rules as for discovery
# users apply here.
# Leave them alone if you don't want to use authentication.
#IncomingUser joe secret
#OutgoingUser jim 12charpasswd
IncomingUser admin akczadmin
OutgoingUser admin akczadmin
# Logical Unit definition
# You must define one logical unit at least.
# Block devices, regular files, LVM, and RAID can be offered
# to the initiators as a block device.
Lun 0 Path=/dev/dm-1,Type=fileio
Alias iDISK0
# Alias Test
# various iSCSI parameters
# (not all are used right now, see also iSCSI spec for details)
#MaxConnections 1
#InitialR2T Yes
#ImmediateData No
#MaxRecvDataSegmentLength 8192
#MaxXmitDataSegmentLength 8192
#MaxBurstLength 262144
#FirstBurstLength 65536
#DefaultTime2Wait 2
#DefaultTime2Retain 20
#MaxOutstandingR2T 8
#DataPDUInOrder Yes
#DataSequenceInOrder Yes
#ErrorRecoveryLevel 0
#HeaderDigest CRC32C,None
#DataDigest CRC32C,None
# various target parameters
#Wthreads 8
上面这一行中的“Target iqn.2008-04.xatlj.akczftp:storage.disk2.sys1.xyz
这是 Target 名称,称作‘iSCSI Qualified Name'(简称:iqn),这格式在 iSCSI 规格书中有详细说明:
iqn.yyyy-mm.[:identifier]
格式意义 范例
yyyy-mm 年份-月份 2008-04
reversed domain name
倒过来的网域名称 xatlj.akczftp
identifier
识别代号 storage.disk2.sys1.xyz
LUNLogical Unit Number),“#Lun 0 Path=/dev/dm-1,Type=fileio”这一行中, Path 改成您提供的硬盘名称,此例为“Path=/dev/dm-1”。我们可以使用像是区块装置(Block devices,例 /dev/sdc)、一般档案(regular files)、LVM 逻辑卷轴(Logical Volume)与磁碟阵列(RAID)提供给 Initiators 主机当做‘区块装置’(硬盘)。
  • [root@akczftp etc]#处输入/etc/init.d/iscsi-target start启动iscsi-target服务。
  • [root@akczftp etc]# 处输入cat /proc/net/iet/volume命令检查启动后的iscsi-target,如果系统返回如下信息
tid:1 name:iqn.2008-04.xatlj.akczftp:storage.disk2.sys1.xyz
lun:0 state:0 iotype:fileio iomode:wt path:/dev/md3
说明iscsi-target服务已经正常工作。
四、RHEL5 Cluster部署
41 按要求分别在两台服务器上安装RHEL5.1RHEL5.2操作系统及Cluster需要的软件环境。
42 配置iscsi客户端及共享存储
RHEL5.1系统中, 生成并查看Iscsi启动器的名称
[root@akczdns etc]#处输入命令
echo "InitiatorName=`iscsi-iname`" > /etc/iscsi/initiatorname.iscsi
[root@akczdns etc]#处输入命令
cat /etc/iscsi/initiatorname.iscsi,系统返回如下信息
InitiatorName=iqn.2005-03.com.redhat:01.9fd8e65dd7f8
RHEL5.1系统中, 配置iSCSI启动器服务
[root@akczdns etc]#处输入命令 vi /etc/iscsi/iscsid.conf (iSCSI启动器服务的配置文件,按照具体情况修改相关行内容)
node.startup = automatic
node.session.auth.authmethod = CHAP
node.session.auth.username = iqn.2005-03.com.redhat:01.9fd8e65dd7f8
node.session.auth.password = 01.9fd8e65dd7f8
[root@akczdns etc]#处输入命令chkconfig iscsi --level 35 on
Storbridge系统中, 创建并分配一个iSCSI共享
通过共享管理-iSCSI共享, 使用iSCSI共享虚拟磁盘创建一个iSCSI共享;
根据第3步得到的iSCSI启动器的名称, 使用CHAP认证模式进行分配;
启动器名称:
iqn.2005-03.com.redhat:01.9fd8e65dd7f8
启动器口令:
01.9fd8e65dd7f8
RHEL5系统中, 启动iSCSI启动器服务
[root@akczdns etc]#处输入命令service iscsi start
RHEL5系统中, 使用iSCSI存储
[root@akczdns etc]#处输入命令rm -rf /var/lib/iscsi/nodes/*
[root@akczdns etc]#处输入命令rm -rf /var/lib/iscsi/send_targets/*
[root@akczdns etc]#处输入命令iscsiadm -m discovery -t st -p 10.109.1.59 (发现)
10.109.1.59:3260,1 iqn.2008-04.xatlj.akczftp:storage.disk2.sys1.xyz
[root@akczdns etc]#处输入命令iscsiadm -m node -T iqn.2001-04.xatlj.akczftp:storage.disk2.sys1.xyz -p 10.109.1.59 -l (登录)
[root@akczdns etc]#处输入命令sfdisk -s
/dev/rd/c0d0: 71802880
/dev/sda: 102400000
total: 174202880 blocks
其中/dev/sda就是我们的Iscsi存储设备
RHEL5.2系统中同样执行以上步逐,正常情况可以看到如下信息:
[root@akczcenter ~]# sfdisk -s
/dev/rd/c0d0: 137498624
/dev/sda: 102400000
total: 239898624 blocks
这样我们可以在两台机器上看到相同的盘符信息。
我们分别在两台机器中执行如下命令:
mkfs.gfs2 -t akczcluster:akczftp -p lock_dlm -j 2 /dev/sda /dev/sda格式化为DLM锁方式GFS2文件系统。
43 创建Cluster
IE浏览器中输入出现如图画面,输入管理员帐号密码登陆

出现如下画面:
点击cluster->create a new cluster要求添入集群信息,输入之后出现如下画面:

点击Submit,系统将创建Cluster并重新启动系统,重起后登陆点击cluster就可以看到如下画面:

点击storage出现如下画面:

分别点击10.109.1.5510.109.1.56出现如下画面:

点击sda出现如下画面

Mountpoint/etc/fstab Mountpoint处添入/akczftpLV2为挂载点,点击apply
之后分别登陆两个节点输入mount可以看到如下信息:
[root@akczcenter ~]# mount
/dev/rd/c0d0p2 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/rd/c0d0p1 on /boot type ext3 (rw)
/dev/rd/c0d0p5 on /vmware type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
none on /proc/fs/vmblock/mountPoint type vmblock (rw)
none on /sys/kernel/config type configfs (rw)
/dev/sda on /akczftpLV2 type gfs2 (rw,hostdata=jid=0:id=262145:first=1)
说明/dev/sda被顺利挂载。
输入vi /etc/fstab可以看到如下信息:
LABEL=/ / ext3 defaults 1 1
LABEL=/boot /boot ext3 defaults 1 2
LABEL=/vmware /vmware ext3 defaults 1 2
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
LABEL=SWAP-rd/c0d0p3 swap swap defaults 0 0
/dev/sda /akczftpLV2 gfs2 defaults 0 0
说明/etc/fstab已经被更新。
  我们在10.109.1.55下创建文件夹aaa,登陆到10.109.1.56查看,如果文件夹同样存在,我们可以将其删除,然后返回10.109.1.55查看,文件夹消失,说明DLM锁方式GFS2文件系统也正常。
五、部署VMWARE虚拟机
  分别在节点中建立vmware帐号,分别在两个节点计算机中修改/akczftpLV2目录的属组及用户为vmware,确定修改成功后,查看如下图:

在节点一中安装VMware-Workstation-6.5.2-156735.i386.bundle,并将Vmware网络设置为桥模式,并将设备指向bond0(节点均为双网卡绑定模式)

使用vmware登入系统,点击Vmware Workstation 出现下图:

点击Create a new virtual machine创建虚拟机,到如下画面将location内容修改为/akczftpLV2/VM1

到如下画面将File name修改为/akczftpLV2/VM1 Windows XP Professional点击Next出现如下画面:

点击Finish完成虚拟机创建。
在节点二中同样进行配置。需要注意的是节点二中的location内容要修改为/akczftpLV2/VM2File name修改为/akczftpLV2/VM2 Windows XP Professional
我们还可以在/akczftpLV2上为VM1VM2创建新的分区文件,部署WINDOWS系统应用。
六、系统的优点:
  • 使用了基于iscsiIP-SAN技术,取代了价格昂贵的SCSI或者光纤SAN存储。
  • 应用系统和数据的有效分离,数据被集中存放在RAID10盘阵上,不会因为节点失效(软、硬件故障)导致数据丢失。
  • 虚拟机的快速切换应用。任意节点失效,VM系统都可迅速在另一节点重新部署。
  • 应用分散,有利于系统均衡。10.109.1.59既提供FTP服务,同时也是ISCSI服务器,10.109.1.55作为10.109.1.58的宿主机,10.109.1.58作为主OA应用服务器,日常访问频繁,为了减轻压力,10.109.1.55只提供VM服务,10.109.1.56作为10.109.1.57的宿主机同时也是NTPDNS服务器,10.109.1.57作为WEB服务器,其上部署了两个WEB网站。该应用方案目前为150个节点提供服务,没有出现过阻塞问题。
  • 使用了虚拟化技术,减少了硬件成本投入,提高了系统资源的使用率。
阅读(1414) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~