专题——《》
2012年5月20日(文/黄亮)
今年的 World 2012将于5月21日——也就是明天开始在美国拉开帷幕。在本文中笔者将提前对这次大会做一些展望,在讨论Project Thunder(雷电计划)和最近刚刚宣布各自的市场定位之前,我们先来EMC VMAX 40K(即新一代VMAX)。
VMAX虚拟矩阵连接加倍:理想与现实?
EMC VMAX 40K 与 VMAX 20K(即原Symmetrix VMAX)对比
在我们编译的“”一文中,国外媒体已经提前泄漏出EMC第二代VMAX高端比较详细的资料。其中后端接口由FC改用6Gb/s SAS、增加2.5英寸驱动器支持,以及硬件平台由 Xeon(至强)5400升级为Xeon 5600都在意料当中。CPU核心增加、主频和效率提高,以及内存容量翻倍自不必说。对于虚拟矩阵(Virtual Matrix)连接由每个(上图中所示的一个VMAX引擎中包括一对,即2个Director)2条增加到4条RapidIO,这一点我曾听到过业内人士对VMAX采用的内部互连技术(可能指的是带宽?)有所微词。
EMC Symmetrix VMAX虚拟矩阵架构示意图(点击放大)
Symmetrix VMAX——即今天的VMAX 20K虚拟矩阵架构的总互连带宽为80GB/s,其中满配包括8个引擎(如上图),也就是平均每个引擎这部分的I/O带宽是10GB/s,单一Director对应5GB/s。现在VMAX 40K将每个Director上的RapidIO连接数量由A/B增加到A/B/C/D 4个,这样带宽就翻倍了。不过也不能说一点副作用都没有,那就是由此带来的线缆数量加倍,以及MIBE交换设备端口数量需求的增加。举一个相反的例子:低端版本的VMAX 10K(重新命名的VMAXe)由于只支持4个引擎,其整体互连必然比VMAX 20K简单,尽管使用的技术是一样的。
P10000 3PAR V800全网状背板互连示意图(点击放大)
那么除了使用RapidIO还有什么更好的方式吗?纵观今天Scale-out(向外扩展,或称横向扩展)设计的高端阵列,惠普P10000 3PAR V系列的8个控制器节点之间,通过“全网状背板”实现点对点的PCIe连接——即每个V800节点分别提供7条通向另外7个控制器的独立连接(如上图)。各节点之间的互不影响,最大内部连接带宽为112GB/s,如今EMC VMAX 40K应该超过了这个数字。而在惠普收购3PAR之前就有的F和T系列则使用PCI-X点对点互连。
还有一种实现起来比较简单也更加普及的连接方式——InfiniBand。不过在支持PCIe 2.0的平台上,无论40Gb/s还是56Gb/s的IB HCA卡受限于x8 PCI Express(5Gbps速率理论带宽4GB/s,实际效率大约在60~70%之间)都无法充分发挥。可能就是这个原因,去年推出的“网格”节点间互连只使用了20Gb/s InfiniBand,当然该产品的定位也要低一些。
诚然支持PCIe 3.0的是个不错的选择,但别忘了级存储产品的研发/测试周期,特别是针对关键应用,对可靠性有着苛刻要求的高端阵列。我们相信在EMC的实验室中一定会有Xeon E5相关的产品,不过它们很可能还处于研发阶段。
用于安装、连接3PAR控制器节点的机箱框架和背板
由于PCIe控制器在Intel Xeon 5500/5600平台上位于IOH组中,更是集成到CPU,在系统中比RapidIO和InfiniBand更加直接,从理论上说可以实现更大的带宽和更低的延时。当然惠普3PAR不像EMC VMAX那样是纯粹的x86架构,其控制器的关键不在Intel而是Gen 3/4 ASIC。而PCIe面临的问题是,当前用于系统/机箱外部(out-box)互连应该还没有比较成熟的长距离交换方案。因此如上图,3PAR的8个控制器节点只能位于同一个机箱中,通过高带宽背板进行通信,所有的驱动器机箱都需要使用FC-AL(光纤通道仲裁环路,暂时还没有支持)连接到这里。
VMAX 40K的系统机架(包含控制器引擎)之间的最大距离可达25米
最早的Symmetrix VMAX(VMAX 20K)有一个系统机柜全部是用来放引擎的,不过在精的VMAXe(VMAX 10K)发布时一个机柜里面就一个引擎,剩下都是驱动器。这样就允许系统机架3和4之间距离最大可以为10米,通过使用光纤介质来传送RapidIO信号。如今的VMAX 40K继续发扬了这一点,系统机架可以分开达到25米(82英尺),可以分散横跨在地板上的,或者避开内的障碍物。
和阵列上的虚拟机
在我们编译的另一篇“”中,提到了通过本次同时推出的Enginuity 5876新版提供的联邦(FTS)功能,VMAX 20K和40K支持对后端连接的第三方阵列进行整合。该特性与HDS(数据系统)VSP以及USP V/VM高端阵列的存储虚拟化功能比较类似。
上图来自文档中对Federated Tiered Storage (FTS)功能的测试配置,在VMAX 40K的后端连接了一台XP 24000(OEM自HDS USP)。这里笔者产生一个有趣的想法,如果将这个USP(V)换成VSP或者保持不变,然后在它的后端再虚拟化连接一台Symmetrix DMX...
我想应该有读者还记得EMC曾经表示过,可以在VMAX和Isilon控制器上运行虚拟机吧?本次我们看到了这种特性在VMAX 20K和40K上的具体实现,不过不是运行用户自己的应用程序,而是将RecoverPoint拆分器(splitter)集成到阵列。RecoverPoint是一款有点类似于飞康(持续数据保护),被EMC用于存储设备的复制(备份/恢复)软件,在此之前应该是需要安装在一台单独的介质服务器上,如今可以运行在VMAX引擎上的虚拟机中,简化了整个架构的复杂性。与Symmetrix产品线专用的SRDF复制功能相比,RecoverPoint可以支持异构阵列之间的复制。
雷电计划(Thunder)与XtermIO的异同
VMAX 40K支持的3,200个驱动器在上一代基础上增加了50%,不过人们已经不再为这个数字而兴奋,因为凭借增加硬盘主轴数量来提高IOPS性能的时代将要成为历史,这是因为级闪存的应用正在不断成熟。
记得2月初,也就是EMC正式发布“闪电计划”的时候,笔者曾经在《》的最后一页简单介绍了当时正在展开用户测试的。EMC还放出了一页ppt如下:
在EMC 2011年演示ppt中的资料,最终产品如有变化是正常的
“Thunder”宣称拥有优秀的性能,最近我们看到国外媒体称其使用的PCIe flash就是多块VFCache闪存卡。不过从这张图片来看,并考虑到闪存的热插拔/更换支持,Thunder上面配置的有可能不是标准的PCIe扩展卡,而是像在上支持的Express Flash PCIe——由美光提供的2.5英寸,或者前不久Fusion-io公布的——惠普即将在ProLiant DL380p Gen8上采用的SCSI Express(SCSI over PCIe协议)连接ioMemory那样的2.5英寸驱动器外形。考虑到EMC和Fusion-io之间的竞争关系,PCIe闪存硬件更多可能还是从美光等供应商处。
而最近传来的的消息,是否容易让人产生一种疑惑:EMC将要推出的Thunder在硬件上很像全闪存阵列了,XtermIO产品的定位与它又有哪些不同呢?有业内人士这样表示:
“个人认为XtermIO全闪存阵列就是后端的盘全都是‘SSD’,没有机械硬盘。Project Thunder是一个服务器端或网络端的解决方案,说到底只是为了加速性能实现的大容量高速缓存,和后端真正用于保存数据的XtermIO全闪存阵列还是有本质上的差别的。”
无独有偶,在最近一周HDS组织的关于新品的采访中,日立数据系统中国区解决与专业服务事业部总监陈戈先生在回答我提出的问题时表示:“像Fusion-io那样插在服务器上的闪存卡,用于I/O加速没有问题,而作为(替代传统的)存储还要考虑可靠性。”而笔者在之前就续的《》专题中也表达过类似的观点:“服务器上的SSD/PCIe闪存卡不具备高可用和共享特性;部分新兴的全闪存阵列暂时还没有复制等高级软件功能。因此结合好现有技术并发挥闪存的优势成为新一轮竞争的关键...”
看来所谓的“雷电计划”(很快就会知道它的正式名称)从形式上来说应该是一款将VFCache转移到服务器机箱外部的闪存缓存方案,构成一个可以像那样被多台服务器共享的“Server Area Network”。至于它能否支持写缓存和高可用?还是让我们等正式消息吧。
让我们再来XtermIO,首先他们能够支持4台X-Brick存储系统Scale-out(横向扩展)组成集群,可以同时提高容量和性能。此外还可以支持Inline Deduplication(线内重复数据删除)、原始闪存容量利用率高、Thin Provisioning(自动精简配置)、具有空间效率的快照,以及支持VMware VAAI(针对阵列整合的vSphere存储API)等特性。
显然相对于只具备轻量级软件栈的EMC Thunder来说,XtermIO的高级软件功能要丰富多了,这才算是一款真正的全闪存阵列。
其它看点
最后,即将举行的EMC World上还有许多值得期待的新品,包括:
据称速度可以超过30TB/小时Data Domain 990(DD990)重复数据删除设备,它会支持吗?
VFCache与FAST(全自动存储分层)的进一步集成,会有技术吗?
...
敬请关注我们的专题——《》
From: