一、 现场条件 1、 硬件配置:
两台SUN F280R(SPARC III+ 900MHz/8M Cache/2048M/2X36.4GHD)
一台SUN A1000磁盘阵列(SG-XARY171A-145G),总容量145G,出厂设好RAID5
我们的系统很大连了很多设备与终端
2、 软件版本:
Solaris 5.8
8.1.7
oursoft V2.52.01c
3、 IP地址分配:
dbserver: 172.31.1.13 255.255.255.240
apserver: 172.31.1.14 255.255.255.240
MP1: 172.31.1.1
MP2: 172.31.1.9
MP3: 172.31.1.2
MP4: 172.31.1.10
Test IP: 172.31.1.201 (在客户端配两个IP地址用探针ProbeApp252.exe)
LMT IP: 172.31.1.221
Client PC: 172.31.1.12 255.255.255.240 + 172.31.1.201 255.255.255.0
4、 项目:OUR ITEM
OMCR(V2.0)系统分为三个功能模块,分别是应用模块,数据库服务器模块和通讯服务器模块,在双机的情况下,上述三个模块可以相互组合,分别运行在两台服务器中,其中将数据库服务器模块独立出来,形成数据库/应用服务器组(通讯服务器与应用服务器合并)的架构,这种架构在实际运行过程中显得比较合理
两台服务器分别运行数据库分为模块和应用+通讯服务模块。磁盘阵列同时连接在两台服务器上,磁盘阵列不是必备的设备,但推荐使用。数据库服务器上必须安装ORACLE服务器软件,应用服务器中可以只安装ORACLE客户端(安装ORACLE服务器也是可以的);OMCR(V2.0)软件必须完整的安装在两台服务器上。如果配置了磁盘阵列,则OMCR的数据文件推荐安装在磁盘阵列上,否则需要安装在数据库服务器中。
上述结构可以实现双机运行的负荷分担,以及在一台服务器中OMCR进程全部异常时的进程迁移,但是在一台服务器完全宕机的情况下,迁移不能保证OMCR系统的正确运行。
根据印度SPICE项目的现场条件决定在两台服务器内置硬盘中做RAID1镜像,将RAID 5磁阵连数据服务器,并安装数据库实例omc于其中。
二、 先不连磁阵分别在应用服务器和数据服务器上安装Solaris 5.8 分区时只对c1t0d0一块硬盘进行分区,并将c1t0d0s7预留给metadb
选择custom自定义安装,并选中Solstice DiskSuite 4.2.1 (做RAID 1用)
Solaris装完后
#format时看到的两块内置硬盘:
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c1t0d0
/pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cffa0f5d,0
1. c1t1d0
/pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cfc34a4a,0
format>0
format>p
其中第一块硬盘c1t0d0分区表如下:
partition>p
Part Tag Flag Cylinders Size Blocks
0 root wm 0 - 1088 1.50GB (1089/0/0) 3146121
1 swap wu 1089 - 3992 4.00GB (2904/0/0) 8389656
2 backup wm 0 - 24619 33.92GB (24620/0/0) 71127180
3 var wm 3993 - 4355 512.06MB (363/0/0) 1048707
4 usr wm 4356 - 6533 3.00GB (2178/0/0) 6292242
5 unassigned wm 6534 - 8711 3.00GB (2178/0/0) 6292242
6 home wm 8712 - 22181 18.56GB (13470/0/0) 38914830
7 unassigned wm 0 0 (0/0/0) 0
安装完后再给Solaris打补丁
三、 做内置硬盘的镜像RAID 1
1、格式化c1t0d0s7分区
#format
选c1t0d0
查看分区表(结果就是上面列出来的表)
format>p
选预留的c1t0d0s7
partition>7
Enter partition id tag[unassigned]:
Enter partition permission flags[wm]:
开始柱面紧接c1t0d0s6后下一柱面
start cyl 22182
大小用总数24619减c1t0d0s6最后一个柱面
size 2438c
标识并命名(要用“ ”号括起来)
partition>label
partition>name
partition>q
分区表存盘退出
format>save
format>q
2、按c1t0d0同样的分区表对另一块硬盘c1t1d0进行分区
#prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2
3、在两块硬盘的最后分区中各建4个镜像库
#metadb -af -c 4 c1t0d0s7
#metadb -af -c 4 c1t1d0s7
建完后可以查看
# metadb
flags first blk block count
a u 16 1034 /dev/dsk/c1t0d0s7
a u 1050 1034 /dev/dsk/c1t0d0s7
a u 2084 1034 /dev/dsk/c1t0d0s7
a u 3118 1034 /dev/dsk/c1t0d0s7
a u 16 1034 /dev/dsk/c1t1d0s7
a u 1050 1034 /dev/dsk/c1t1d0s7
a u 2084 1034 /dev/dsk/c1t1d0s7
a u 3118 1034 /dev/dsk/c1t1d0s7
4、做镜像分区
#metainit -f d51 1 1 c1t0d0s0
#metainit d52 1 1 c1t1d0s0
#metainit d1 -m d51
#metainit -f d53 1 1 c1t0d0s1
#metainit d54 1 1 c1t1d0s1
#metainit d2 -m d53
#metainit -f d55 1 1 c1t0d0s3
#metainit d56 1 1 c1t1d0s3
#metainit d3 -m d55
#metainit -f d57 1 1 c1t0d0s4
#metainit d58 1 1 c1t1d0s4
#metainit d4 -m d57
#metainit -f d59 1 1 c1t0d0s5
#metainit d60 1 1 c1t1d0s5
#metainit d5 -m d59
#metainit -f d61 1 1 c1t0d0s6
#metainit d62 1 1 c1t1d0s6
#metainit d1 -m d51
5、定义启动引导分区
#metaroot d1
6、改文件/etc/vfstab内容为:
#/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes -
fd - /dev/fd fd - no -
/proc - /proc proc - no -
/dev/md/dsk/d2 - - swap - no -
/dev/md/dsk/d1 /dev/md/rdsk/d1 / ufs 1 yes -
/dev/md/dsk/d4 /dev/md/rdsk/d4 /usr ufs 1 yes -
/dev/md/dsk/d3 /dev/md/rdsk/d3 /var ufs 1 yes -
/dev/md/dsk/d6 /dev/md/rdsk/d6 /export/home ufs 2 yes -
/dev/md/dsk/d5 /dev/md/rdsk/d5 /opt ufs 2 yes -
swap - /tmp tmpfs - yes -
lock所有已mounted的UFS文件系统
#lockfs -fa
7、关机重启
#sync
#shutdown -g0 -y -i6
然后会看到类似:
forceload of misc/md_trans failed
forceload of misc/md_raid failed
forceload of misc/md_hotspares failed
的提示信息(执行/etc/profile时产生),这是正常的,因为现在还不需要这些模块。
8、连接mirror分区到第二块硬盘
#metattach d1 d52
#metattach d2 d54
#metattach d3 d56
#metattach d4 d58
#metattach d5 d60
#metattach d6 d62
9、查看镜像情况
#metastat
这时mirror会自动同步,能观察到硬盘读写频繁,此时若执行操作机器反应速度会变慢,是正常的,最后d6同步完100%结束。
四、 安装StorEdge Raid Manager 6.22
在服务器上可用#admintool 或#/usr/sbin/swmtool图形化安装
在TELNET终端上可用
#/usr/sbin/pkgadd –d /cdrom/raid_manager_6_22/Product安装
完成安装下次启动后生效
#sync
#shutdown –g0 –y –i5
五、 安装外置磁阵
先对照随机资料检查磁阵,主要是看SCSI号的设置,有的型号是用DIP开关,对照文档确认左边和右边的硬盘没有冲突(除了磁阵的安装手册外还另有几页纸注明安装手册第X页的第X张表需要更正),印度现场磁阵箱的背面有Scroll式switch(SCSI ID=4),只有两个SCSI口。
如果需要安装SCSI卡或网卡,就先关机插上SCSI卡和网卡。
如是SUN的卡,Solaris应可自动识别,其它的卡随机会有驱动程序和手册。
在断电情况下连磁阵背面SCSI口到一台服务器,另一个SCSI口接上TERMINAL终端电阻。
磁阵加电,服务器加电,开机时STOP+A,然后
ok probe-scsi-all
如果正确列出内置硬盘、磁阵(如磁阵已做好RAID 5,只能看到一个)、光驱就说明Solaris可正确识别。否则:
ok set-defaults (eeprom中所用参数用默认值)
ok setenv auto-boot? false (或#eeprom auto-boot?=false让机器启动时自动停在eeprom状态)
ok reset-all
如果还不行,就试着:
ok setenv scsi-initiator-id 6 (如需将磁阵连两台服务器,在连第二台服务时要修改此值)
再 ok probe-scsi-all
如果还不能正确列出Targets,最后只有换拔码了,总之probe正常, #format时才能看到,才可以使用。正常后:
ok boot –r
启动时能看到Raid 的守护进程载入内存及Raid初始化的信息。
启动好后执行
#dmesg|more
可以看到以下字样:
Jun 1 13:23:13 dbserver scsi: [ID 365881 kern.info] 301 cyl 52037 alt 2 hd 64 sec 64>
运行Raid Manager 6.22
#/usr/lib/osa/bin/rm6
能识别出磁阵RAID的名称,识
【责编:admin】
--------------------next---------------------
阅读(465) | 评论(0) | 转发(0) |