Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1786326
  • 博文数量: 1647
  • 博客积分: 80000
  • 博客等级: 元帅
  • 技术积分: 9980
  • 用 户 组: 普通用户
  • 注册时间: 2008-10-13 15:15
文章分类

全部博文(1647)

文章存档

2011年(1)

2008年(1646)

我的朋友

分类:

2008-10-28 18:22:18


  作者:温福才
  
  Linux 包含复杂的带宽管理系统 TC (流量控制,Traffic Control)。该系统支持分类、优先、共享和输入、输出流量限制等。这套系统可以与专用的带宽管理系统相媲美。
  
    1. 基本的构成块
  
    tc 包括三个基本的构成块: 队列规定(queueing discipline )、类(class)和分类器(Classifiers) 。
  
    队列规定可以看作设备的流量/数据包管理器。 队列规定内封装了其他两个主要TC组件(类和分类器),控制数据的流动。
  
    目前,有一些设备队列规定可以用来管理设备,包括类基队列(CBQ),优先级和CSZ (Clark-Shenker-Zhang)等。CBQ 是一种超级队列,即它能够包含其它队列(甚至其它CBQ)。
  
    类由设备队列规定来管理。类由若干规则(rule)构成,这些规则用以管理那个类所拥有的数据。例如,某类里的全部数据包都受到 1 Mbps的速率限度,而在午夜和早上6点的一段时间段内允许最高达 3 Mbps。
  
    一些队列规定可以绑定到类上,包括FIFO(先进先出),RED(随机早期探测),SFQ(随机公平队列)和令牌桶(Token Bucket)。
  
    如果设备上未绑定队列规定,则使用基本的FIFO。另外, CBQ,CSZ和优先级也能用于类,以及类的子类。这表明使用TC,可以轻松地建造非常复杂的流量控制。管理类的队列规定可以称为类队列规定(class queueing disciplines)。
  
    一般地,类队列规定管理该类的数据和队列,能决定延迟、丢掉或者重新分类它管理的包。分类器或过滤器描述包,并且把他们映射到队列规定所管理的类。
  
    这些过滤器通常都提供简单的描述语言,指定选择包、把包映射到类的方法。
  
    目前,TC可以使用的过滤器有:fwmark分类器,u32分类器,基于的分类器和RSVP分类器(分别用于IPV6、IPV4)等;其中,fwmark分类器允许我们使用 Linux netfilter 代码选择流量,而u32分类器允许我们选择基于 ANY 头的流量 。所有的过滤器, 例如,ipchains,都能用来分类包。
  
    TC代码位于内核,不同的功能块既能编译为模块,也能直接编进内核。 与内核代码或模块的通信和配置由用户级程序tc完成。
  
    2. 示例
  
    2.1 编译内核
  
    首先要确保选中 Kernel/User netlink socket,因为只有这样 tc 才能通过 netlink 与内核通讯。
  
    然后,把队列规定和分类器都编进内核。这其中包括:
  
    QoS or fair queueing, CBQ packet scheduler, CSZ packet scheduler, the simplest PRIO pseudoscheduler, RED queue, SFQ queue, TBF queue, QoS support, rate estimator, packet classifier API, routing-tables-based classifier, U32 classifier, special RSVP classifier 和 special RSVP classifier for IPv6。
  
    然后就是大家熟知的编译和安装过程了。
  
    2.2 建立
  
    [因特网] ---〈E3、T3 等〉--- [Linux 路由器] --- [Office+ISP]
  
    eth1 eth0
  
    上图中的 Linux 路由器有两个接口,不妨称之为 eth0 和 eth1。eth1 连接到路由器, eth0 连接到包括公司在内的子网上。
  
    由于我们只能限制发送的内容,所以我们需要两套独立的、但可能非常相似的规则集。我们可以通过改变发送次序来控制传输速率。通过修改 eth0 上的队列,我们可以确定客户 的(download)速率;通过修改 eth1 上的队列,我们可以确定我们公司自己的用 户的上载(upload)速率。
  
    比如说,公司连接到因特网的线路带宽为 10 兆,同时满足外部客户和公司自己用户的需要;此时,我们就需要一种策略,来进行管理和协调。CBQ 就可以满足我们的要求。
  
    我们有两个主类:'ISP' 和 'Office'。我们可以决定,客户有 8 兆的带宽,Office用户有 2 兆的带宽。
  
    我们首先发布如下的命令:
  
    # tc qdisc add dev eth0 root handle 10: cbq bandwidth 10Mbit avpkt 1000
  
    其含义是:我们配置了 eth0 的队列规定,root 表示这是根(root)规定,其句柄 (handle)设定为 10:'。 其类型为 CBQ。带宽为 10 M,平均包大小为 1000 字节。
  下面生成根类(root class):
  
    # tc class add dev eth0 parent 10:0 classid 10:1 cbq bandwidth 10Mbit rate \
    10Mbit allot 1514 weight 1Mbit prio 8 maxburst 20 avpkt 1000
  
    这条命令其实不比前一条命令有更多的含义。其中,1514 是 MTU 的值。
  
    下面生成 ISP 类:
  
    # tc class add dev eth0 parent 10:1 classid 10:100 cbq bandwidth 10Mbit rate \
    8Mbit allot 1514 weight 800Kbit prio 5 maxburst 20 avpkt 1000 bounded
  
    我们分配了 8 兆的带宽给它,其中 bounded 表示该类不能超过该阀值。
  
    下面生成 Office 类:
  
    # tc class add dev eth0 parent 10:1 classid 10:200 cbq bandwidth 10Mbit rate \
    2Mbit allot 1514 weight 200Kbit prio 5 maxburst 20 avpkt 1000 bounded
  
    为了更清晰起见,我们的类可以用下图表示:
  
  
    我们已经向内核通知了我们的类,我们还需要告诉内核如何管理队列,如下所示:
  
    # tc qdisc add dev eth0 parent 10:100 sfq quantum 1514b perturb 15
    # tc qdisc add dev eth0 parent 10:200 sfq quantum 1514b perturb 15
  
    这里,我们使用了随机公平队列(sfq),在消耗 CPU 周期较少的情况下,其性能还是可以接受的。其它一些队列规定可能更好,但要占用较多的 CPU 资源。令牌桶过滤器也经常使用。
  
    下面还有一件事要作:告诉内核网络包和类的映射关系。
  
    # tc filter add dev eth0 parent 10:0 protocol ip prio 100 u32 match ip dst \
  150.151.23.24 flowid 10:200
    # tc filter add dev eth0 parent 10:0 protocol ip prio 25 u32 match ip dst \
  150.151.0.0/16 flowid 10:100
  
    这里,我们假定 Office 位于防火墙 150.151.23.24 的后面,其它 IP 地址都属于 ISP。 u32 匹配是一种比较简单的匹配,我们可以使用 netfilter 生成更加复杂的匹配规则。
  
    我们已经分配了带宽,下面是上载带宽的分配:
  
    # tc qdisc add dev eth1 root handle 20: cbq bandwidth 10Mbit avpkt 1000
  
    # tc class add dev eth1 parent 20:0 classid 20:1 cbq bandwidth 10Mbit rate \
    10Mbit allot 1514 weight 1Mbit prio 8 maxburst 20 avpkt 1000
  
    # tc class add dev eth1 parent 20:1 classid 20:100 cbq bandwidth 10Mbit rate \
    8Mbit allot 1514 weight 800Kbit prio 5 maxburst 20 avpkt 1000 \
    bounded
  
    # tc class add dev eth1 parent 20:1 classid 20:200 cbq bandwidth 10Mbit rate \
    2Mbit allot 1514 weight 200Kbit prio 5 maxburst 20 avpkt 1000 \
    bounded
  
    # tc qdisc add dev eth1 parent 20:100 sfq quantum 1514b perturb 15
    # tc qdisc add dev eth1 parent 20:200 sfq quantum 1514b perturb 15
  
    # tc filter add dev eth1 parent 20:0 protocol ip prio 100 u32 match ip src \
    150.151.23.24 flowid 20:200
  
    # tc filter add dev eth1 parent 20:0 protocol ip prio 25 u32 match ip src \
    150.151.0.0/16 flowid 20:100
  
    这与前面的描述基本一致,所以就不做更多的解释了。
  
    注:
  
    在前面的例子中,我们注意到:即使 ISP 客户多数离线,我们的 Office 用户也仍然只 有 2 M 的带宽,这是相当浪费的。我们可以删掉 'bounded' 参数,这样,各类之间就可以相互借用带宽了。
  但是,某些类也许不希望向其它类借用带宽;比如,一条线路上的两个互为竞争对手的 ISP 的情况。在这种情况下,我们可以加上关键字 'isolated'。
  
    3. 结束语
  
    目前,Linux 所提供的 QoS(服务质量)是所有操作系统中最复杂、最完善的。另外, BSD 的 ALTQ 应该说也相当不错;但是,在复杂性、灵活性和可扩展性等方面要落后 Linux 一大截。我不太清楚微软的产品是否提供了这方面的功能。Sun 的 Solaris 提供 了 CBQ 和 RSVP 的功能。
  
    Linux 也支持 IETF diffserv 特征。Linux 在 QoS 方面众多的特征,将极大提升 Linux 的市场占有率。
  
【责编:admin】

--------------------next---------------------

阅读(168) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~