Chinaunix首页 | 论坛 | 博客
  • 博客访问: 202494
  • 博文数量: 179
  • 博客积分: 5010
  • 博客等级: 大校
  • 技术积分: 2040
  • 用 户 组: 普通用户
  • 注册时间: 2008-07-25 10:25
文章分类

全部博文(179)

文章存档

2011年(1)

2008年(178)

我的朋友
最近访客

分类: 服务器与存储

2008-07-25 10:33:56

本周在内华达州Reno举办的Supercomputing 07(SC07)大会成了一个巨大的舞台,各大存储厂商都展示了自己在高性能计算(HPC)方面取得的成就。绝大部分的发布和展示都是围绕着InfiniBand这种主流的互联技术进行的,思科(Cisco)、Voltaire和Qlogic还混合了多协议“网关”的功能。

然而,至少有一名分析家认为,目前专业存储人士现在就可以精挑细选。

Linley Group顾问公司的分析家Bob Wheeler表示,“我们并不认为InfiniBand在现在或者未来能够成为最重要的存储互联方式。”不过InfiniBand的统治地位仍将继续局限在服务器集群领域,他认为,FCoE(Fibre Channel over Ethernet)才是存储专业人士应该关注的协议。

Wheeler表示,“Cisco/Nuova、Emulex、QLogic最近做了一些值得关注的发布,英特尔(Intel)也在以太网NIC方面开始试水FCoE。”未来,即使速度更高的以太网日益普及,高端的存储阵列依旧将继续支持Fibre Channel,Wheeler预言,未来FcoE NIC可以让服务器不必在FC HBA与10Gbit/秒的以太网NIC之间抉择。

正在发展中的FCoE已经引起了高端用户的兴趣,但是产品却还没有成为主流。

同时,Wheeler也认为,使用远程直接内存访问技术(RDMA)的协议仍然有机会。InfiniBand可以使用RDMA技术,绕开操作系统,直接将数据从一台服务器传送到另一台服务器上。由于该项技术在InfiniBand上运行良好,RDMA技术已经被10Gb/s以太网作为iWARP(Internet Wide Area RDMA Protocol,互联网广域RDMA协议)使用,一群为数不多,但是却颇有影响力的实施者采用了这种方法,其中包括Chelsio、NetEffect和NetXen。尽管如此,iWARP技术在目前来说依旧是一项新兴技术。

一些厂商也试图将iSCSI与RDMA合并为一项名为iSER (iSCSI Extension for RDMA,RDMA的iSCSI扩展)的协议。这种做法得到了Voltaire的支持,并且有望成为OpenFabrics Alliance(开放网络联盟)正在开发的规范中的一部分,Chelsio、Cisco、HP、IBM、NetApp、NetEffect、NetXen、QLogic、Sun以及其他众多厂商都是该组织的成员单位。

OpenFabrics项目致力于研究OpenFabrics Enterprise Distribution和其他一些机制,试图把InfiniBand和以太网结合在一起,但是Wheeler认为这种结合仍然需要针对所支持的两种网络,提供相同的功能。

结果会怎样?另一名分析家认为我们还要拭目以待,他认为存储厂商们只是为了自身的利益,想把水搅浑。Gartner的分析家Joe Skorupa今天在一封电子邮件中写道,“起码在未来几年里,这场战争还会继续。”“IB(InfiniBand)将被用于计算集群,一些集群将使用IB或IB-FC网关进行存储存取。一些低性能的集群将使用10GE,并且将在块存储存取中使用10GE/iSCSI 或者FC。一些集群将使用10GE NAS(NFS或CIFS)提出请求,反馈会以块的形式通过FC进行传输。”

他认为,厂商将“把已经混乱的局面弄得更加混乱。”一些厂商甚至绕开标准,只是想把客户锁定在自己的技术上。Skorupa认为,“这可不是件好事情。”

博科(Brocade)之类的厂商一直就私有解决方案是好是坏的问题争论不休,Brocade刚刚推出了自己的Fabric设计。

另一位不愿意透露姓名的分析家认为,存储经理们应该遵守基本的经济原理,让自己的生活尽可能地保持简单。他表示,“存储经理应该关注的是易用性,而不是协议。”“如果变化会给他们带来风险、麻烦或者争议,他们就不会愿意这样做。反之,他们就会很有兴趣。和你交谈的人,绝大部分都会抱怨在存储中使用10G以太网所带来的风险、麻烦和争议。iSCSI也是如此。只是它的价格过于便宜,服务器和存储厂商很难从中赚钱。”(许薇/编译)

阅读(309) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~