Chinaunix首页 | 论坛 | 博客
  • 博客访问: 348227
  • 博文数量: 282
  • 博客积分: 10010
  • 博客等级: 上将
  • 技术积分: 3260
  • 用 户 组: 普通用户
  • 注册时间: 2008-07-26 14:38
文章分类

全部博文(282)

文章存档

2011年(1)

2008年(281)

我的朋友
最近访客

分类: 服务器与存储

2008-07-26 15:13:53

  目前人们要求计算机系统能够不间断运行:即便是计划中的停机来进行系统的重新配置也变得不可接受,所以对系统的改变越来越多地必须在运行中实时完成。

  对系统的一种改变就是数据迁移:把数据从一个存储网络(SAN)设备转移到另外一个SAN设备,目的是为了平衡工作负载、系统扩充、故障恢复或者许多其它目的。要达到这个目的,传统的方法要么是把应用系统停机,要么严重影响前台应用程序的性能,当性能的可预测性变得和速度几乎一样重要时,这两种方法都不会有好结果。

  本文提供了这个问题以及相关问题的解决方案,将介绍如何使用控制理论方面的方法,从统计学的角度保证在数据迁移中对前台工作的影响程度,同时仍然能够在尽可能短的时间内完成数据迁移。(数据绑定控制,简单地指的是使用不同控制的数据绑定属性,其中这些控制自动链接到数据控制的结果列集中,使得在控制数据和结果数据集之间能够自动同步。)结果是对于终端用户,提供了更好的服务质量,系统管理员的压力更小,而且系统的适应性更好,可以满足变化的需求。

  在线数据迁移体系结构

  目前的企业计算系统在成百上千的磁盘组中存储了数百千兆的活动的、在线数据,这些磁盘组由诸如Fibre Channel或者Gigabit Ethernet 这样的存储区域网络(SAN)互联而成。在面临改变存取模式(或者是渐进的,或者是季节性的,或者是不可预见的)时,需要保持这样的系统运转,诸如采用新的应用程序,发生设备故障,采用新资源,需要平衡工作负载以便达到可接受的性能之类的场合就需要移动数据,或者在SAN组件之间迁移。换句话说,创建和恢复在线备份可以视作数据迁移的特例,只是其中的数据源不被擦除。

  现有的数据迁移的方法要么是进行脱机数据迁移,要么让由迁移过程中产生的I/O资源消耗,同前台的应用程序互相干扰,并减慢了前台程序的运行速度,有时慢到不可接受的地步。在如今全球化的、始终在线的互联网环境中,前者的方法明显不合时宜,因为全世界的人都是全天存取数据。后者几乎同样糟糕,信息存取应用程序的可预言性是现代企业获得成功的先决条件,即前台应用程序的性能是非常关键的。

  数据迁移问题

  数据迁移问题可以作如下的形式化:连续在前台执行的客户应用程序所存取的数据同数据的迁移并行进行,迁移引擎的输入是迁移计划-数据从一个初始状态到需要的最终状态的一个移动序列,以便重新安排系统中的数据存放位置;而且在迁移发生时,客户应用程序的服务质量(QoS)需求以及I/O性能标准必须得到满足。

  在SAN中,高度可变的服务(例如,由于不可预知的定位延迟,缓冲和I/O请求重排序)以及在任意时间内发生的工作负载大小的涨落,使得很难提供绝对的保证,所以除非能够容忍总体超标,提供统计意义上的保证是适宜的。换句话说,数据迁移问题就是在尽可能最短的时间内完成数据迁移,同时保持服务质量目标。

阅读(283) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~