Chinaunix首页 | 论坛 | 博客
  • 博客访问: 11681081
  • 博文数量: 8065
  • 博客积分: 10002
  • 博客等级: 中将
  • 技术积分: 96708
  • 用 户 组: 普通用户
  • 注册时间: 2008-04-16 17:06
文章分类

全部博文(8065)

文章存档

2008年(8065)

分类: 服务器与存储

2008-12-05 16:28:19

  虚拟化提供的灵活性、效率和减少的拥有成本使它对大型企业和小型企业都非常有吸引力。越来越多的IT机构正在考虑在所有的平台上实施虚拟化。

  随着这种趋势越来越深入到数据中心,机构正开始利用虚拟化技术消除控制一个应用程序应该在哪一个平台上运行的许多局限性。不同类型的应用程序有不同的工作量的“个性”。这些个性对于一个应用程序如何在一个指定的虚拟模式中很好地运行有很大的影响。

  一些工作量具有某些特点,非常适合整合到大型计算机中。本文将讨论这些特点以及分析现有的IT环境恶整个流程,以便确定把工作量整合到大型计算机平台的优化的方法。

  分析转移到大型计算机的工作量

  可以使用分区、监视程序、容器和其它方法使许多工作量在一个统一的平台上共存。考虑到平台类别的相对优点和弱点,当在这些平台之间实施整合的时候,需要做大量的工作。这些工作包括理解哪些应用程序将在大型计算机上运行,哪些应用程序通过转移能够获得最大的好处,在过渡之后这些应用程序看起来将是什么样子。实际上,更重要的是理解这种过渡的细微差别,特别是当整个目标是把风险减小到最低限度的同时优化这种好处的时候。

  通过建模控制它们的局限性,可以描绘一个达到最终目标的路线图,同时在这个过程中将不偏离方向。这些局限性可以分为以下三类:

  1、技术局限性:什么东西能够集成在一起。

  2、业务和流程的局限性:什么东西应该集成在一起。

  3、工作量分析:什么东西能够相互适合。

  技术局限性分析

  技术局限性分析一般处理硬件与软件组件之间的兼容性和密切关系的问题。什么能够在什么上运行,什么与什么对话,等等。对于大型计算机来说,这个步骤关系到哪些应用程序能够在大型计算机上运行,什么能够从这个转移中得到最大的好处,应该如何组织这些应用程序才能够优化地利用这些好处。

 硬件和软件兼容性

  除了理解哪些应用程序能够相互对话和哪些应用程序相互之间有密切的关系之外,理解应用程序及其应用如何驱动中间件软件的行为也是很重要的。同样,任何跨平台的过渡都必须考虑到源系统使用的特殊硬件是否很难一起转移,如令牌环、传真和USB设备。如果这些硬件中的任何东西影响这个应用程序在大型计算机环境中的设置,在整合的候选名单中就应该取消这个硬件。

  网络连接能力和延迟

  一个应用程序的空间拓扑位置中的任何改变都可能引起通信延迟的改变,从而影响到应用程序的性能。如果这些变化在错误的地方引起延迟,如在应用服务器与数据库之间引起延时,性能就会受到不利的影响。因此,开始采用其数据库已经在大型计算机中的目标应用程序是一个很好的战略。

  应用程序连接性能

  不要仅寻找已经与大型计算机对话的应用程序,机构应该寻找相互对话的应用程序。通过整合到同一个系统,这些应用程序通过促进不会对网络产生任何影响的“对话”来实现巨大的好处。不过,需要提醒的是,这种策略有时候能够绕过重要的网络安全控制措施,因此要认真处理崩溃的应用层和通信路径的问题。

  业务和流程局限性分析

  由于管理规定、内部政策或者其它现实世界的整合,这些局限性帮助机构从技术的角度确定什么能做什么不能做。

  面向流程的局限性

  生产IT环境的适当的功能通常依靠严密的流程控制。变化冻结、维护窗口和其它控制措施必要要尊重。IT环境的任何转变必须要考虑到已经制定的规则。

  这对于大型计算机整合是一个好消息,因为大型计算机过去的流程非常严格,这种流程目前仅在数据中心使用。

  遵守安全和管理规定

  为了保护知识产权和其它敏感的信息,许多环境隔离数据类型,并且相应地使用安全和接入控制政策。企业应该避免可能引起安全漏洞的虚拟化情况。即使这台大型计算机的安全模型支持反应分布式环境的政策,设法采用不跨越安全区和可能引起潜在的管理或者安全问题的更简单的方法也许更可行。

 一般业务和局限性

  机构通常不愿意在各个部门之间共享基础设施,部分原因是缺乏能够实现跨部门托管的chargeback(退款)模式。可能对虚拟化产生影响的另一个问题是运行环境。把生产环境与非生产环境结合到一个共享幕肪持幸残硎遣焕硐氲摹0言谕?桓鱿低成系目?⒑筒馐缘牟豢稍ぜ?姆绞阶魑?匾?纳??ぷ髁啃矶啻罅康募记桑?乇鹗嵌杂诠ぷ髁抗芾怼?/p>

  工作量分析

  分析大型计算机虚拟化的最具有挑战性的问题之一是适当地实现系统虚拟化方式的正常化。因为数据中心出现的多重工作量个性和平台的各种不同的特点,得到正确的答案并不是一件很容易的事。处理器使用率必须要适当地实现正常化,必须要考虑到I/O速率,内存使用率和环境转换,以保证准确的结果。

  要解决这个问题,许多发表的测试基准取消了工作量的高带宽和高同步化部分。因此,有必要创建一个能够准确地捕捉不同平台种类相对优点的特殊的测试基准。换句话说,使用标准的整数基准实现中型计算机和大型计算机平台之间的工作量的正常化并不能提供这个正确的答案。

  这个问题并不仅仅是大型计算机遇到的问题。许多虚拟化技术都受到这样的问题的影响,有的是由于没有适当的基准,有的是这种标准刚刚出现。在许多情况下,需要一种灵活的基准单独地根据工作量的具体个性和与其相适应的目标平台的性能实现工作量的正常化。

  处理器正常化和基准

  最然构成工作量在大型计算机上运行的东西的理论是复杂的,获得这个答案的实际方法是很简单的。通过使用代表指定工作量个性的源系统和目标系统相对性能的多个基准,有可能进行一次单项的分析,用一个步骤优化使用多个源/目标组合。然后,每一个源工作量能够根据独特的个性单独实现正常化,目标端点(大型计算机分区)根据合理地准确预测的利用率填补这个工作容量。虽然这种方法的好处是巨大的,但是,这个挑战变成了确定每一个源工作量的确切的个性是什么。幸运的是有一些关键的指标能够用来把不同类型的活动分开。

  I/O分析

  虽然大型计算机平台的实力之一是其I/O性能,但是,分析源工作量的I/O特点仍是很重要的。在任何整合情况下,把能够促进平衡利用资源的工作量结合在一起是很理想的。因此,I/O局限性应该使用处理器和其它指标进行并行分析,以便提供一个优化利用目标资源的平衡的结果。

  内存分析

  当确定一个系统中能够虚拟化多少了应用程序的时候,内存通常是一个决定性的因素。不过,这种分析比较复杂,因为一个应用程序真正的内存需求并不是由系统上使用的物理内存决定的。使用测量的内存使用率来确定什么能够适合目标的要求将提供一个稳妥的答案。但是,它需要使用的内存将超过实际的需求。

  结论

  所有这些局限性最终必须都要在一起进行分析以便确定实施虚拟化的优化方法。当针对一系列源服务器和目标服务器考虑这些局限性的时候,这个分析就变成了一个三维的优化问题。

  把应用程序工作量整合到一个大型计算机平台上是许多IT环境中要考虑的一个伟大的战略。通过恰当地评估要进行整合的应用程序的适应性、这些整合提供的结果以及这个解决方案的拥有总成本,有可能发现一些重大的机会来简化IT基础设施、提高弹性、减少耗电量并且最终减少为这些工作量提供的服务的相关成本。

阅读(757) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~