Chinaunix首页 | 论坛 | 博客
  • 博客访问: 264046
  • 博文数量: 757
  • 博客积分: 40040
  • 博客等级: 大将
  • 技术积分: 4935
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-09 12:37
文章分类

全部博文(757)

文章存档

2011年(1)

2008年(756)

我的朋友

分类:

2008-09-09 12:51:10

     如今,排名全球2000名以内的企业均朝向数据中心整合与整合的方向发展,数据中心从数以百计缩减为少数几个,应用程序也整合到少数几台上。由此,越来越多的企业员工以远程方式或在分公司内工作。

     企业在建设集中数据中心时大多使用广域网作为传输网络,而广域网的传输性能问题,也为集中数据中心应用的效率带来了全新的挑战,这个问题经常造成数据中心访问速度低下,而广域网的传输性能主要受到以下的因素影响:传输线路带宽的大小、数据的传输效率、网络的延时和TCP传输控制方式等。

     而为了解决广域网的传输性能问题,Juniper、F5、Citrix、RiverBed、深信服等厂商都纷纷推出了各种各样的解决措施,例如数据压缩、Cache动态缓存、TCP优化、应用优化、QoS优化等系列广域网加速手段,

     为了全面剖析广域网加速技术,IT168网络频道推出了系列广域网加速技术连载,从各个方面去分析广域网加速技术,以及它为企业用户所带来的好处。

    广域网加速技术连载目录:
    网间加速之TCP协议和应用协议优化
    网间加速之数据压缩、Cache动态缓存
    网间加速之Web应用加速分析
    网间加速之C/S应用加速分析
    网间加速之应用难题分析

     在多种网间加速方法中,除了数据压缩、Cache动态缓存这两种主要的加速手段外,相对重要的就要算TCP协议和应用协议优化了。

     100Mb/s到底比2Mb/s带宽快多少?

     目前有一种常规的认识是,100Mb/s带宽肯定比2Mb/s带宽的数据传输速率高,并且会高很多。真的是这样的么?

     回答是不幸的。这里有一份来自国内厂商深信服给企业所做的实际测试数据。某企业同时使用100Mb/s带宽接入和2Mb/s带宽的带宽接入,并对之进行对比。

     根据实际测试数据显示,一条2Mb/s的ADSL线路在最大64K字节窗口(TCP数据传输协议的相关数据传输原理术语)情况下,在网络延时小于40ms时,线路能达到其带宽允许的最高数据吞吐量,但是当网络延时逐渐增大的时候,线路传输效率明显下降,实际的吞吐量只能达到带宽所允许的最高数据吞吐量的10%以下。

     在另外的100Mb/s带宽的线路上面进行相同(64K字节窗口)的测试,得到的结果显示在网络延时大于40ms以后,100Mb/s带宽线路的数据吞吐量和2Mb/s的线路几乎下降到同样的水平,所以说存在网络延时以及TCP窗口不合适的时候100Mb/s带宽线路的数据传输能力并不比2Mb/s带宽线路的数据传输能力强多少。

     从上面的测试可见,并不是带宽足够大了,网络的传输能力就一定能够同步增长,宽带足够大只是必要条件,不是充分条件,它还受制于数据的传输协议以及网络延时对传输协议的影响等多种因素。

  协议优化如何影响速率?

     现在我们知道,在网络传输的过程中,网络协议通常会对数据传输产生较大的影响,这些典型的协议既包括处在传输层的TCP协议,也包含各种应用层的协议比如:MAPI协议、CIFS协议、HTTP协议、基于RPC的应用协议等,下面我们就从这两个层面来看网间加速技术是如何来针对性的解决这些问题的。

     TCP协议:应答信号避过广域网,提高响应率

     TCP/IP是很多的不同的协议组成,实际上是一个协议组,TCP用户数据报表协议(也称作TCP传输控制协议-Transport Control Protocol,可靠的主机到主机层协议。这里要先强调一下,传输控制协议是OSI网络的第四层的叫法,TCP传输控制协议是TCP/IP传输的6个基本协议的一种。TCP是一种可靠的面向连接的传送服务,它在传送数据时是分段进行的,主机数据必须建立一个会话。

    TCP协议是一个确保连接和的传输协议,而使用的手段就是连接握手和Ack机制。在TCP会话初期,有所谓的“三握手”:对每次发送的数据量是怎样跟踪进行协商使数据段的发送和接收同步,根据所接收到的数据量而确定的数据确认数及数据发送、接收完毕后何时撤消联系,并建立虚连接;同时在每一次数据包的传输过程中都需要客户端和服务端之间进行Ack,这样在客户端和服务端之间就存在着大量的应答交互,这些应答交互放到公网上以后就会收到网络延时的影响,并且随着应答交互次数的增加将延时的影响进行放大。

     根据测试数据,在一个2M带宽的网络条件下,使用TCP协议进行数据传输时,网络传输速度和延时存在着如下的关系:

图1

  从上图我们可以看到在网络延时小于40ms的时候,传输速度可以达到网络带宽的90%左右,但是随着网络延时的增加,传输速度逐渐减小,当网络延时达到120ms以上后,传输速度将到带宽的10%了。

    现在我们知道TCP协议会受到网络延时的影响了,那么是否有方法来解决这个问题,能不能既确保数据传输的性同时又把网络延时造成的影响降到最低程度,接下来就看看网间加速是怎么解决这个问题的。

图2

     实际上,网间加速技术采用的是类似于“代理”这样的方式来解决这个问题的,就是说将原本需要通过广域网进行传输的应答消息,改成由本地网间加速设备来进行处理,在分支机构的网间加速设备代替服务器来处理客户端的应答消息,而在总部的网间加速设备则代替客户端来处理服务端的应答消息,这样所有的应答消息都是在本地网络进行传输,自然就消除了广域网的影响。
    
     TCP协议经过以上的优化,众多的应答消息就直接避开了广域网,从而极大地减少了网络延时,提高了网络传输效率。

[1]  

【责编:Kittoy】

--------------------next---------------------

阅读(144) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~