Chinaunix首页 | 论坛 | 博客
  • 博客访问: 3096489
  • 博文数量: 94
  • 博客积分: 2599
  • 博客等级: 少校
  • 技术积分: 990
  • 用 户 组: 普通用户
  • 注册时间: 2006-08-30 23:23
文章分类

全部博文(94)

文章存档

2012年(1)

2011年(7)

2010年(24)

2009年(61)

2008年(1)

我的朋友

分类: LINUX

2009-04-07 23:55:42

Linux下双网卡绑定技术实现负载均衡

我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡……


  我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。   bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。说了半天理论,其实配置很简单,一共四个步骤: 实验的操作系统是Redhat Linux Enterprise 3.0。绑定的前提条件:组型号相同,而且网卡应该具备自己独立的BIOS芯片。

双网卡邦定的拓朴图   1.编辑虚拟网络接口配置文件,指定网卡IP:
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  [root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0
  2、#vi ifcfg-bond0   将第一行改成 DEVICE=bond0:
# cat ifcfg-bond0  DEVICE=bond0  BOOTPROTO=static  IPADDR=172.31.0.13  NETMASK=255.255.252.0  BROADCAST=172.31.3.254  ONBOOT=yes  TYPE=Ethernet
  这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
[root@rhas-13 network-scripts]# cat ifcfg-eth0  DEVICE=eth0  ONBOOT=yes  BOOTPROTO=dhcp  [root@rhas-13 network-scripts]# cat ifcfg-eth1  DEVICE=eth0  ONBOOT=yes  BOOTPROTO=dhcp




  那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能。在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息:

[root@rhas-13 root]# ifconfig  bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1  RX packets:2817 errors:0 dropped:0 overruns:0 frame:0  TX packets:95 errors:0 dropped:0 overruns:0 carrier:0  collisions:0 txqueuelen:0  RX bytes:226957 (221.6 Kb) TX bytes:15266 (14.9 Kb)  eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1  RX packets:1406 errors:0 dropped:0 overruns:0 frame:0  TX packets:48 errors:0 dropped:0 overruns:0 carrier:0  collisions:0 txqueuelen:1000  RX bytes:113967 (111.2 Kb) TX bytes:7268 (7.0 Kb)  Interrupt:11  eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B  inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1  RX packets:1411 errors:0 dropped:0 overruns:0 frame:0  TX packets:47 errors:0 dropped:0 overruns:0 carrier:0  collisions:0 txqueuelen:1000  RX bytes:112990 (110.3 Kb) TX bytes:7998 (7.8 Kb)  Interrupt:15
  在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用。通过查看bond0的工作状态查询能详细的掌握bonding的工作状态:
[root@rhas-13 bonding]# cat /proc/net/bonding/bond0  bonding.c:v2.4.1 (September 15, 2003)  Bonding Mode: load balancing (round-robin)  MII Status: up  MII Polling Interval (ms): 0  Up Delay (ms): 0  Down Delay (ms): 0  Multicast Mode: all slaves  Slave Interface: eth1  MII Status: up  Link Failure Count: 0  Permanent HW addr: 00:0e:7f:25:d9:8a  Slave Interface: eth0  MII Status: up  Link Failure Count: 0  Permanent HW addr: 00:0e:7f:25:d9:8b
  Linux下通过网卡邦定技术既增加了服务器的可靠性,又增加了可用网络带宽,为用户提供不间断的关键服务。用以上方法均在redhat的多个版本测试成功,而且效果良好.心动不如行动,赶快一试吧!
阅读(1109) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~