Chinaunix首页 | 论坛 | 博客
  • 博客访问: 762282
  • 博文数量: 803
  • 博客积分: 6000
  • 博客等级: 准将
  • 技术积分: 5015
  • 用 户 组: 普通用户
  • 注册时间: 2008-10-28 10:29
文章分类

全部博文(803)

文章存档

2011年(1)

2008年(802)

我的朋友

分类:

2008-10-29 11:30:25


  一、 现场条件
  1、 硬件配置:
  两台SUN F280R(SPARC III+ 900MHz/8M Cache/2048M/2X36.4GHD)
  一台SUN A1000磁盘阵列(SG-XARY171A-145G),总容量145G,出厂设好RAID5
  我们的系统很大连了很多设备与终端
  
  2、 软件版本:
  Solaris 5.8
   8.1.7
  oursoft V2.52.01c
  
  3、 IP地址分配:
  dbserver: 172.31.1.13 255.255.255.240
  apserver: 172.31.1.14 255.255.255.240
  MP1: 172.31.1.1
  MP2: 172.31.1.9
  MP3: 172.31.1.2
  MP4: 172.31.1.10
  Test IP: 172.31.1.201 (在客户端配两个IP地址用探针ProbeApp252.exe)
  LMT IP: 172.31.1.221
  Client PC: 172.31.1.12 255.255.255.240 + 172.31.1.201 255.255.255.0
  
  4、 项目:OUR ITEM
  OMCR(V2.0)系统分为三个功能模块,分别是应用模块,数据库服务器模块和通讯服务器模块,在双机的情况下,上述三个模块可以相互组合,分别运行在两台服务器中,其中将数据库服务器模块独立出来,形成数据库/应用服务器组(通讯服务器与应用服务器合并)的架构,这种架构在实际运行过程中显得比较合理
  
  两台服务器分别运行数据库分为模块和应用+通讯服务模块。磁盘阵列同时连接在两台服务器上,磁盘阵列不是必备的设备,但推荐使用。数据库服务器上必须安装ORACLE服务器软件,应用服务器中可以只安装ORACLE客户端(安装ORACLE服务器也是可以的);OMCR(V2.0)软件必须完整的安装在两台服务器上。如果配置了磁盘阵列,则OMCR的数据文件推荐安装在磁盘阵列上,否则需要安装在数据库服务器中。
  上述结构可以实现双机运行的负荷分担,以及在一台服务器中OMCR进程全部异常时的进程迁移,但是在一台服务器完全宕机的情况下,迁移不能保证OMCR系统的正确运行。
  根据印度SPICE项目的现场条件决定在两台服务器内置硬盘中做RAID1镜像,将RAID 5磁阵连数据服务器,并安装数据库实例omc于其中。
  
  二、 先不连磁阵分别在应用服务器和数据服务器上安装Solaris 5.8
  分区时只对c1t0d0一块硬盘进行分区,并将c1t0d0s7预留给metadb
  选择custom自定义安装,并选中Solstice DiskSuite 4.2.1 (做RAID 1用)
  Solaris装完后
  #format时看到的两块内置硬盘:
  Searching for disks...done
  AVAILABLE DISK SELECTIONS:
  0. c1t0d0
  /pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cffa0f5d,0
  1. c1t1d0
  /pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cfc34a4a,0
  format>0
  format>p
  其中第一块硬盘c1t0d0分区表如下:
  partition>p
  Part Tag Flag Cylinders Size Blocks
  0 root wm 0 - 1088 1.50GB (1089/0/0) 3146121
  1 swap wu 1089 - 3992 4.00GB (2904/0/0) 8389656
  2 backup wm 0 - 24619 33.92GB (24620/0/0) 71127180
  3 var wm 3993 - 4355 512.06MB (363/0/0) 1048707
  4 usr wm 4356 - 6533 3.00GB (2178/0/0) 6292242
  5 unassigned wm 6534 - 8711 3.00GB (2178/0/0) 6292242
  6 home wm 8712 - 22181 18.56GB (13470/0/0) 38914830
  7 unassigned wm 0 0 (0/0/0) 0
  
  安装完后再给Solaris打补丁
  
  三、 做内置硬盘的镜像RAID 1
  1、格式化c1t0d0s7分区
  #format
  选c1t0d0
  查看分区表(结果就是上面列出来的表)
  format>p
  选预留的c1t0d0s7
  partition>7
  Enter partition id tag[unassigned]:
  Enter partition permission flags[wm]:
  开始柱面紧接c1t0d0s6后下一柱面
  start cyl 22182
  大小用总数24619减c1t0d0s6最后一个柱面
  size 2438c
  标识并命名(要用“ ”号括起来)
  partition>label
  partition>name
  partition>q
  分区表存盘退出
  format>save
  format>q
  
  2、按c1t0d0同样的分区表对另一块硬盘c1t1d0进行分区
  #prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2
  
  3、在两块硬盘的最后分区中各建4个镜像库
  #metadb -af -c 4 c1t0d0s7
  #metadb -af -c 4 c1t1d0s7
  建完后可以查看
  # metadb
  flags first blk block count
  a u 16 1034 /dev/dsk/c1t0d0s7
  a u 1050 1034 /dev/dsk/c1t0d0s7
  a u 2084 1034 /dev/dsk/c1t0d0s7
  a u 3118 1034 /dev/dsk/c1t0d0s7
  a u 16 1034 /dev/dsk/c1t1d0s7
  a u 1050 1034 /dev/dsk/c1t1d0s7
  a u 2084 1034 /dev/dsk/c1t1d0s7
  a u 3118 1034 /dev/dsk/c1t1d0s7
  
  4、做镜像分区
  #metainit -f d51 1 1 c1t0d0s0
  #metainit d52 1 1 c1t1d0s0
  #metainit d1 -m d51
  
  #metainit -f d53 1 1 c1t0d0s1
  #metainit d54 1 1 c1t1d0s1
  #metainit d2 -m d53
  
  #metainit -f d55 1 1 c1t0d0s3
  #metainit d56 1 1 c1t1d0s3
  #metainit d3 -m d55
  
  #metainit -f d57 1 1 c1t0d0s4
  #metainit d58 1 1 c1t1d0s4
  #metainit d4 -m d57
  
  #metainit -f d59 1 1 c1t0d0s5
  #metainit d60 1 1 c1t1d0s5
  #metainit d5 -m d59
  
  #metainit -f d61 1 1 c1t0d0s6
  #metainit d62 1 1 c1t1d0s6
  #metainit d1 -m d51
  
  5、定义启动引导分区
  #metaroot d1
  
  6、改文件/etc/vfstab内容为:
  #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes -
  fd - /dev/fd fd - no -
  /proc - /proc proc - no -
  /dev/md/dsk/d2 - - swap - no -
  /dev/md/dsk/d1 /dev/md/rdsk/d1 / ufs 1 yes -
  /dev/md/dsk/d4 /dev/md/rdsk/d4 /usr ufs 1 yes -
  /dev/md/dsk/d3 /dev/md/rdsk/d3 /var ufs 1 yes -
  /dev/md/dsk/d6 /dev/md/rdsk/d6 /export/home ufs 2 yes -
  /dev/md/dsk/d5 /dev/md/rdsk/d5 /opt ufs 2 yes -
  swap - /tmp tmpfs - yes -
  
  lock所有已mounted的UFS文件系统
  #lockfs -fa
  
  7、关机重启
  #sync
  #shutdown -g0 -y -i6
  然后会看到类似:
  forceload of misc/md_trans failed
  forceload of misc/md_raid failed
  forceload of misc/md_hotspares failed
  的提示信息(执行/etc/profile时产生),这是正常的,因为现在还不需要这些模块。
  
  8、连接mirror分区到第二块硬盘
  #metattach d1 d52
  #metattach d2 d54
  #metattach d3 d56
  #metattach d4 d58
  #metattach d5 d60
  #metattach d6 d62
  
  9、查看镜像情况
  #metastat
  这时mirror会自动同步,能观察到硬盘读写频繁,此时若执行操作机器反应速度会变慢,是正常的,最后d6同步完100%结束。
  
  四、 安装StorEdge Raid Manager 6.22
  在服务器上可用#admintool 或#/usr/sbin/swmtool图形化安装
  在TELNET终端上可用
  #/usr/sbin/pkgadd –d /cdrom/raid_manager_6_22/Product安装
  完成安装下次启动后生效
  #sync
  #shutdown –g0 –y –i5
  
  五、 安装外置磁阵
  先对照随机资料检查磁阵,主要是看SCSI号的设置,有的型号是用DIP开关,对照文档确认左边和右边的硬盘没有冲突(除了磁阵的安装手册外还另有几页纸注明安装手册第X页的第X张表需要更正),印度现场磁阵箱的背面有Scroll式switch(SCSI ID=4),只有两个SCSI口。
  如果需要安装SCSI卡或网卡,就先关机插上SCSI卡和网卡。
  如是SUN的卡,Solaris应可自动识别,其它的卡随机会有驱动程序和手册。
  在断电情况下连磁阵背面SCSI口到一台服务器,另一个SCSI口接上TERMINAL终端电阻。
  磁阵加电,服务器加电,开机时STOP+A,然后
  ok probe-scsi-all
  如果正确列出内置硬盘、磁阵(如磁阵已做好RAID 5,只能看到一个)、光驱就说明Solaris可正确识别。否则:
  ok set-defaults (eeprom中所用参数用默认值)
  ok setenv auto-boot? false (或#eeprom auto-boot?=false让机器启动时自动停在eeprom状态)
  ok reset-all
  如果还不行,就试着:
  ok setenv scsi-initiator-id 6 (如需将磁阵连两台服务器,在连第二台服务时要修改此值)
  再 ok probe-scsi-all
  如果还不能正确列出Targets,最后只有换拔码了,总之probe正常, #format时才能看到,才可以使用。正常后:
  ok boot –r
  启动时能看到Raid 的守护进程载入内存及Raid初始化的信息。
  启动好后执行
  #dmesg|more
  可以看到以下字样:
  Jun 1 13:23:13 dbserver scsi: [ID 365881 kern.info]   301 cyl 52037 alt 2 hd 64 sec 64>
  运行Raid Manager 6.22
  #/usr/lib/osa/bin/rm6
  能识别出磁阵RAID的名称,识
【责编:admin】

--------------------next---------------------

阅读(465) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~