Chinaunix首页 | 论坛 | 博客
  • 博客访问: 44667149
  • 博文数量: 384
  • 博客积分: 9990
  • 博客等级: 中将
  • 技术积分: 5644
  • 用 户 组: 普通用户
  • 注册时间: 2008-06-05 17:44
文章分类

全部博文(384)

文章存档

2011年(1)

2008年(383)

分类: 服务器与存储

2008-06-06 05:49:52

什么是服务器
  

服务器是一种高性能计算机,作为 网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机 等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到 达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领 导”这些设备。

服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定 的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对 自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常 的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。

服务器技术之EMP技术


目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。

服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。

EMP(Emergency Management Port)技术

EMP(Emergency Management Port)技术也是一种远程管理技术,利用EMP技术可以在客户端通过电话线或电缆直接连接到服务器,来对服务器实施异地操作,如关闭操作系统、启动电 源、关闭电源、捕捉服务器屏幕、配置服务器BIOS等操作,是一种很好的实现快速服务和节省维护费用的技术手段。 应用ISC和EMP两种技术可以实现对服务器进行远程监控管理。

服务器技术之RAID冗余磁盘阵列技术


目前服务器的技术热点主要有:IRISC与CISC技术、处理器技术、多处理器技术(AMP技术、SMP技术、MPP技术、COMA技术、集群技术和NUMA技术)、SCSI接口技术、智能I/O技术、容错技术、磁盘阵列技术、热插拔技术、双机热备份。

服务器在网络中承担传输和处理大量数据的任务,要具备高可伸缩性、高可靠性、高可用性和高可管理性。IA-64体系将带动服务器技术特性的提高,如高性能CPU、多处理器技术、总线和内存技术、容错技术、群集技术、硬件管理接口、均衡服务器平台技术等。

RAID(Redundant Array of Independent Disks)冗余磁盘阵列技术

RAID技术是一种工业标准,各厂商对RAID级别的定义也不尽相同。目前对RAID级别的定义可以获得业界广泛认同的有4种,RAID 0、RAID 1、RAID 0+1和RAID 5。

RAID 0是无数据冗余的存储空间条带化,具有成本低、读写性能极高、存储空间利用率高等特点,适用于Video/Audio信号存储、临时文件的转储等对速度要 求极其严格的特殊应用。但由于没有数据冗余,其安全性大大降低,构成阵列的任何一块硬盘的损坏都将带来灾难性的数据损失。所以,若在RAID 0中配置4块以上的硬盘,对于一般应用来说是不明智的。

RAID 1是两块硬盘数据完全镜像,安全性好,技术简单,管理方便,读写性能均好。但它无法扩展(单块硬盘容量),数据空间浪费大,严格意义上说,不应称之为"阵列"。

RAID 0+1综合了RAID 0和RAID 1的特点,独立磁盘配置成RAID 0,两套完整的RAID 0互相镜像。它的读写性能出色,安全性高,但构建阵列的成本投入大,数据空间利用率低,不能称之为经济高效的方案。

负载均衡技术概览

当前,无论在企业网、园区网还是在广域网如Internet上,业务量的发展都超出了过去最乐观的估计,上网热潮风起云涌,新的应用层出不穷,即使按照 当时最优配置建设的网络,也很快会感到吃不消。尤其是各个网络的核心部分,其数据流量和计算强度之大,使得单一设备根本无法承担,而如何在完成同样功能的 多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,就成了一个问题,负载均衡机制也因此应运而 生。

负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提 高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性 ;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。

对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体分析,大体上不外乎从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。

■传输链路聚合

为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的链路连入网络。而网络中的业务量分布是不平衡的,核心高、边缘低,关键部门高、一般部门 低。伴随计算机处理能力的大幅度提高,人们对多工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输 及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,瓶颈延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护 措施,一个无意的动作(像一脚踢掉网线的插头)就会让服务器与网络断开。

通常,解决瓶颈问题采用的对策是提高服务器链路的 容量,使其超出目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型企业来说,采用升级技术是一种长远的、有前景的解决方案。然而对于许多企业, 当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级技术就显得大材小用了。在这种情况下,链路聚合技术为消除传输链路上的瓶颈与不安全因素提 供了成本低廉的解决方案,

链路聚合技术,将多个线路的传输容量融合成一个单一的逻辑连接。当原有的线路满足不了需求,而单 一线路的升级又太昂贵或难以实现时,就要采用多线路的解决方案了。目前有4种链路聚合技术可以将多条线路“捆绑”起来。同步IMUX系统工作在T1/E1 的比特层,利用多个同步的DS1信道传输数据,来实现负载均衡。IMA是另外一种多线路的反向多路复用技术,工作在信元级,能够运行在使用ATM路由器的 平台上。用路由器来实现多线路是一种流行的链路聚合技术,路由器可以根据已知的目的地址的缓冲(cache)大小,将分组分配给各个平行的链路,也可以采 用循环分配的方法来向线路分发分组。多重链路PPP,又称MP或MLP,是应用于使用PPP封装数据链路的路由器负载平衡技术。MP可以将大的PPP数据 包分解成小的数据段,再将其分发给平行的多个线路,还可以根据当前的链路利用率来动态地分配拨号线路。这样做尽管速度很慢,因为数据包分段和附加的缓冲都 增加时延,但可以在低速的线路上运行得很好。

链路聚合系统增加了网络的复杂性,但也提高了网络的可靠性,使人们可以在服务 器等关键LAN段的线路上采用冗余路由。对于IP系统,可以考虑采用VRRP(虚拟路由冗余协议)。VRRP可以生成一个虚拟缺省的网关地址,当主路由器 无法接通时,备用路由器就会采用这个地址,使LAN通信得以继续。总之,当主要线路的性能必需提高而单条线路的升级又不可行时,可以采用链路聚合技术。


更高层交换

大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第2层/3层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术 设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,可以将一个外部IP地址映射为多个内部IP地址,对每 次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力。


Web内容交换技术,即URL交换或七层交换技术,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来 执行负载均衡的决策,并可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务。它不是根据TCP端口号来进行控制的,所以不会造成访问流量的滞 留。如果Web服务器已经为图像服务、SSL对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。目前, 采用第七层交换技术的产品与方案,有黎明网络的iSwitch、交换机,Cisco的CDN(内容交换网络系统)等。

服务器群集解决方案

在某些情况下,例如,某网站内部职员和外部客户同时使用网站,而公司要将内部职员的服务请求连接到一个较慢的服务器来为外部客户提供更多的资源,这时就 可以使用Web内容交换技术。Web主机访问控制设备也可以使用这种技术来降低硬件成本,因为它可以轻易地将访问多个主机的用户流量转移给同一个Web服 务器。如果用户访问量增加到一定程度,这些流量还可以被转移到专用的Web服务器设备,虽然这种专用设备的成本较高,但是由于使用的是相同的Web内容交 换技术来控制流量,所以网络的结构框架就不用再进行改变了。

但是,使用Web内容交换技术的负载均衡设备所能支持的标准和 规则的数目有限,其采用的标准和规则的灵活性也有限。另外,负载均衡设备所能监测到HTTP报头的深度也是限制内容交换能力的一个因素。如果所要找的信息 在负载均衡设备所不能监测的字段内,那内容交换的作用就无法发挥。而且,内容交换还受到能够同时开启的TCP连接数量以及TCP连接的建立和断开比率的限 制。另外,Web内容交换技术还会占用大量的系统资源(包括内存占用和处理器占用)。对Web内容交换技术进行的测试表明,操纵Web内容的吞吐量是很费 力的,有时只能得到很小的性能改进。所以,网络管理员必须认真考虑投入与回报的问题。


■带均衡策略的服务器群集

如今,服务器必须具备提供大量并发访问服务的能力,其处理能力和I/O能力已经成为提供服务的瓶颈。如果客户的增多导致通信量超出了服务器能承受的范 围,那么其结果必然是――宕机。显然,单台服务器有限的性能不可能解决这个问题,一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒 钟内处理上百万个甚至更多的请求。但若能将10台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒 钟处理几百万个甚至更多请求的能力。这就是利用服务器群集实现负载均衡的最初基本设计思想。

早期的服务器群集通常以光纤镜 像卡进行主从方式备份。令服务运营商头疼的是关键性服务器或应用较多、数据流量较大的服务器一般档次不会太低,而服务运营商花了两台服务器的钱却常常只得 到一台服务器的性能。新的解决方案见图,通过LSANT(Load Sharing Network Address Transfer)将多台服务器网卡的不同IP地址翻译成一个VIP(Virtual IP)地址,使得每台服务器均时时处于工作状态。原来需要用小型机来完成的工作改由多台PC服务器完成,这种弹性解决方案对投资保护的作用是相当明显的 ――既避免了小型机刚性升级所带来的巨大设备投资,又避免了人员培训的重复投资。同时,服务运营商可以依据业务的需要随时调整服务器的数量。

网络负载均衡提高了诸如Web服务器、FTP服务器和其他关键任务服务器上的因特网服务器程序的可用性和可伸缩性。单一计算机可以提供有限级别的服务器 可靠性和可伸缩性。但是,通过将两个或两个以上高级服务器的主机连成群集,网络负载均衡就能够提供关键任务服务器所需的可靠性和性能。

为了建立一个高负载的Web站点,必须使用多服务器的分布式结构。上面提到的使用代理服务器和Web服务器相结合,或者两台Web服务器相互协作的方式 也属于多服务器的结构,但在这些多服务器的结构中,每台服务器所起到的作用是不同的,属于非对称的体系结构。非对称的服务器结构中每个服务器起到的作用是 不同的,例如一台服务器用于提供静态网页,而另一台用于提供动态网页等等。这样就使得网页设计时就需要考虑不同服务器之间的关系,一旦要改变服务器之间的 关系,就会使得某些网页出现连接错误,不利于维护,可扩展性也较差。

能进行负载均衡的网络设计结构为对称结构,在对称结构 中每台服务器都具备等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后,可以通过某种技术,将外部发送来的请求均匀分配到对称结构中的每台 服务器上,接收到连接请求的服务器都独立回应客户的请求。在这种结构中,由于建立内容完全一致的Web服务器并不困难,因此负载均衡技术就成为建立一个高 负载Web站点的关键性技术。

总之,负载均衡是一种策略,它能让多台服务器或多条链路共同承担一些繁重的计算或I/O任务,从而以较低成本消除网络瓶颈,提高网络的灵活性和可靠性。

高端服务器技术
服务器性能指标以系统响应速度和作业吞吐量为代表。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完 成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或 服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统 能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。

技术目标

服务器所要求的高扩展性、高可用性、易管理性、高可靠性不仅是厂商追求的技术目标,也是用户所需求的。

可扩展性具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈 将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求同时,又保护投资。

可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如99.9%的可用性表示每年有8小时的时间设备不能正常运行,99.999%的可用性表示 每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI 卡)添加冗余配置,并设计方便的更换结构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行。

可管理性 旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用。最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损 失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所 花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因 此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的 目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发 出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的操作也非常简单方便。

说到可靠性,简单来说就是要求服 务器必须稳定运行,也就是宕机率低。其中的关键在于操作系统与硬件设备的协作,如果待处理的资源控制在CPU和操作系统上,而不是应用上,就会避免由于某 项任务处理出错而导致系统无法运行,服务器宕机率将大大降低,而这也恰恰是Unix/Linux系统的优势之一。导致日常维护工作的中断有:主机升级、硬 件维护或安装、操作系统升级、应用/文件升级或维护、文件重组、全系统备份等原因。意外的灾难包括硬盘损坏、系统故障、软件故障、用户错误、电源掉电、人 为破坏和自然灾害等因素。

SMP
SMP(Symmetrical Multi-Processor)就是对称式多处理器。在对称式结构中,机器里每一位处理器的地位都是一样的,它们连接在一起,共享一个存储器。存储器里 有一个操作系统,每个计算机都能运行这个操作系统,都能响应外部设备的要求,即每个存储器的地位是平等的、对称的。在国内市场上这类机型的处理器一般以4 个或8个为主,有少数是16个处理器。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对 于多数的用户来说已经够用了。这种机器的好处在于它的使用方式和微机或工作站的区别不大,编程的变化相对来说比较小,原来用微机工作站编写的程序如果要移 植到SMP机器上使用,改动起来也相对比较容易。SMP结构的机型可用性比较差。因为4个或8个处理器共享一个操作系统和一个存储器,一旦操作系统出现了 问题,整个机器就完全瘫痪掉了。而且由于这个机器的可扩展性较差,不容易保护用户的投资。但是这类机型技术比较成熟,相应的软件也比较多,因此现在国内市 场上推出的并行机大量都是这一种。

集群技术

通俗地说,集群是这样一种技术:它至少将两个系统连接到一起,使两台服务器能够像一台机器那样工作或者看起来好像一台机器。采用集群系统通常是为了提高 系统的稳定性和网络中心的数据处理能力及服务能力。自80年代初以来,各种形式的集群技术纷纷涌现。因为集群能够提供高可用性和可伸缩性,所以,它迅速成 为企业和ISP计算的支柱。

常见集群技术

1.服务器镜像技术

服务器镜像技术是将建立在同一个局域网之上的两台服务器通过软件或其他特殊的网络设备(比如镜像卡)将两台服务器的硬盘做镜像。其中,一台服务器被指定为 主服务器,另一台为从服务器。客户只能对主服务器上的镜像的卷进行读写,即只有主服务器通过网络向用户提供服务,从服务器上相应的卷被锁定以防对数据的存 取。主/从服务器分别通过心跳监测线路互相监测对方的运行状态,当主服务器因故障宕机时,从服务器将在很短的时间内接管主服务器的应用。

服务器镜像技术的特点是成本较低,提高了系统的可用性,保证了在一台服务器宕机的情况下系统仍然可用,但是这种技术仅限于两台服务器的集群,系统不具有可扩展性。

2. 应用程序错误接管集群技术

错误接管集群技术是将建立在同一个网络里的两台或多台服务器通过集群技术连接起来,集群节点中的每台服务器各自运行不同的应用,具有自己的广播地址,对 前端用户提供服务,同时每台服务器又监测其他服务器的运行状态,为指定服务器提供热备份作用。当某一节点因故障宕机时,集群系统中指定的服务器会在很短的 时间内接管故障机的数据和应用,继续为前端用户提供服务。

\错误接管集群技术通常需要共享外部存储设备—磁盘阵列柜,两台或多台服务器通过SCSI电缆或光纤与磁盘阵列柜相连,数据都存放在磁盘阵列柜上。这种集 群系统中通常是两个节点互为备份的,而不是几台服务器同时为一台服务器备份,集群系统中的节点通过串口、共享磁盘分区或内部网络来互相监测对方的心跳。

错误接管集群技术经常用在数据库服务器、MAIL服务器等的集群中。这种集群技术由于采用共享存储设备,所以增加了外设费用。它最多可以实现32台机器的集群,极大地提高了系统的可用性及可扩展性。

3.容错集群技术

容错集群技术的一个典型的应用即容错机,在容错机中,每一个部件都具有冗余设计。在容错集群技术中集群系统的每个节点都与其他节点紧密地联系在一起,它 们经常需要共享内存、硬盘、CPU和I/O等重要的子系统,容错集群系统中各个节点被共同映像成为一个独立的系统,并且所有节点都是这个映像系统的一部 分。在容错集群系统中,各种应用在不同节点之间的切换可以很平滑地完成,不需切换时间。

容错集群技术的实现往往需要特殊的软硬件设计,因此成本很高,但是容错系统最大限度地提高了系统的可用性,是财政、金融和安全部门的最佳选择。

目前在提高系统的可用性方面用得比较广泛的是应用程序错误接管技术,即我们通常所采用的双机通过SCSI电缆共享磁盘阵列的集群技术,这种技术目前被各家集群软件厂商和操作系统软件厂商进一步扩充,形成了市面上形形色色的集群系统。

基于IA架构高性能集群系统技术
利用最新的4、8路IA服务器架构的高性能服务器集群系统, 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠 性,具有极高的产品性价比,为Internet的应用提供了一个强有力的数据库服务器平台。

1.系统概述

数据中心领域一直是高端RISC服务器的天下,多年来人们只有选择AS400 、E10000、HP9000等这样的小型机,价格昂贵,维护成本高。而IA 架构服务器价格低廉,易于使用和维护,通过Cluster技术可以构造超级计算机,其超强的处理能力可以取代价格昂贵的中大型机,为行业的高端应用开辟新 的方向。

对于成长中的大型用户来讲,数据中心或数据仓库中所保存的企业经营、管理数据的增长是十分惊人的,而这些数据对大 型用户的作用又是非常重要的。发展若干年中积累下的数据是一笔宝贵的财富,通过对这些浩若烟海的数据进行分析,经营者们能够得出直观的经营图表、曲线,能 够为以后大型用户的发展提供有力的决策支持。但是由于这样的数据随着时间的流逝不断膨胀,给大型用户的IT系统管理人员带来了巨大的压力。

用户到底需要什么样的服务器才能满足目前和未来发展的需要?

首先要有超强的计算能力,可以承受长时间、大用户量的并发访问。

其次,服务器系统的高可用性、易用易管理对于用户也是极为重要的,如果系统出现故障,造成服务的中断,或者重要资料的丢失,会给用户造成挽回的损失。所以,用户在选择服务器系统时一定要考虑高可用的系统方案。

第三,随着数据的不断堆积,对数据的查询和统计将使系统变得越来越慢,硬件设备的更新换代可以说是一个发展中的大型用户必不可少的工作。

利用最新的4、8路IA服务器架构的高性能服务器集群系统[1], 采用了领先的VI(Visual Interface)技术,有效地消除了系统中节点之间通讯的瓶颈;同时,系统采用的负载均衡技术使用户设备可以充分得到利用,并且达到了4个9的可靠 性,具有极高的产品性价比,1999年推出以来引起了用户的广泛关注,为国内广大用户提供了一个强有力的数据库服务器平台。

2.系统原理

高性能服务器集群系统是基于2节点或4节点的集群,最多可达32个CPU,内存最大支持32GB。4节点构成一个工作单元,最多可级联16个工作单元。

各节点为IA服务器,它支持4路或8路Pentium III Xeon CPU并行处理。每台服务器上插一块千兆网卡或vi结构的高速交换卡,连接至一台高速交换机(可以是千兆以太网卡交换机或某些特殊的高速交换机,例如vi 结构的高速交换机)做为服务器彼此之间的数据交换用,称之为SAN(Server Area Network)交换机。

每台服务器插有一块百兆或千兆以太网卡,连接到局域网用的交换机或集线器上,为客户端的访问提供连接服务。

四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两 个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此这种配置方案是冗余的,防止单点失效。对于最重要的存放 在磁盘阵列柜中的数据,还可采取将集群系统与磁盘阵列柜分别存放的方式来确保数据安全,光纤通道允许集群系统与磁盘阵列柜之间最长10公里的距离。

每台服务器有一个硬盘区域,用于安装本机的引导系统和数据库系统的管理部分。用户数据存储在共享的磁盘阵列柜中。

在局域网中,有一台客户机做为管理控制台,在其上安装有数据库的管理控制台,用于管理并行数据库,可以同时监控四个节点上的数据库实例,实现启动、停止、监控运行性能等功能。

另外在这台客户机上安装有网管系统,SAN的管理控制台,磁盘柜的管理控制台,UPS管理控制台等,实现集群系统的统一管理。有的管理功能实现时只需要安装TCP/IP协议,有的则还需要安装SNMP协议才能正常工作。

一个良好的集群系统除了优秀的性能指标之外,还需要有相应的操作系统和数据库的支持,我们目前的集群系统支持WINDOWS NT 4.0 及WINDOWS 2000操作系统[2],在数据库方面支持ORACLE和DB2。它不运行在单机上,只有在多个节点同时工作时,才能够显示出它的性能,并使得系统能够真 正做到负载均衡(Load Balance)。

2.1 两节点集群系统

从方案的配置上来 说,用户可以根据需要做不同的选择,可以使用两台高端服务器实现一个虚拟主机。这时,采用vi结构的高速交换设备更具有优越性,不需要使用vi 交换机,可以用每台服务器上的vi结构的高速交换卡直连实现服务器之间的高速数据交换。如果使用千兆以太网卡,还需要千兆交换机,成本较高。


2.2 四节点集群系统

集群系统方案的设计目标是支持4节点的cluster,在实现时以4个节点加相应存储设备和交换设备构成一个工作单元。每个工作单元由四台独立的4路或 8路服务器组成的服务器阵列作为一个虚拟的容错主机工作,四台服务器共享一台光纤通道磁盘阵列柜。每台服务器有两块光纤通道卡,分别连接到两个光纤通道的 集线器上,每个集线器分别连接到光纤通道磁盘阵列柜的两个控制器上。对于光纤通道磁盘阵列柜,只要有一个控制器能正常工作,整个阵列柜就能正常工作,因此 这种配置方案是冗余的,防止单点失效。
阅读(431) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~