SUSE-11图形界面操作双网卡绑定
- 格式:docx
- 大小:658.83 KB
- 文档页数:5
Windows 双网卡绑定第一步:硬件连接与安装首先进入BIOS设置将主板上集成的网卡打开,同时将独立网卡插入空闲的PCI插槽,用直通双绞线将两块网卡和宽带路由器的LAN口相连。
重新启动Windows XP系统,自动为两块网卡安装好驱动程序。
打开“网络连接”,会看到“本地连接”和“本地连接2”两个连接,而且这两个连接已经启用,硬件的连接与安装就算完成了。
第二步:绑定双网卡下载并安装绑定双网卡的软件“NIC Express”(下载地址/soft/36156.htm)。
在安装软件的过程中保持默认值,一路点击“Next”后,最后点击“Demo”就可以完成安装。
在将两块网卡绑定而虚拟出新设备的时候,会提示“未通过微软认证”,连续点击几次“仍然继续”按钮就可以继续安装。
弹出“绑定”窗口后(见图),在中间文本框中输入绑定后的连接名称(如“网卡绑定”),点击“Add”按钮将两块网卡加入到下面的“Assigned Adpaters”即可。
接着进入NIC Express的配置界面,保持默认值就可完成安装。
网卡绑定第三步:配置连接进入“网络连接”窗口,会看到多出了一个“网卡绑定NIC Express Virtual Adapter”的连接,并且已启用。
现在,这两块网卡已经成功绑定,可以右键点击“网卡绑定”,进行IP地址、子网、网关等参数的配置。
将IP地址设置为与路由器默认IP在同一网段,网关设置为路由器默认IP地址。
测速现在就可以进行BT下载的测试了。
以用BitComet下载一个350MB的热门电影为例。
打开数据流量窗口,可以从流量曲线监控图以及BitComet的“任务摘要”中看到两块网卡都在进行数据传输。
双网卡绑定组的传输速率从80KB/s起步,最高达到123KB/s,两块网卡的平均传输速率比较稳定,下载350MB的电影耗时23分钟,平均下载速度为110KB/s。
利用单网卡执行相同的下载任务,发现最高速度骤减到67KB/s,而且传输过程中的速率波动很大,下载这个350MB 的电影耗时49分钟,平均下载速度为79KB/s。
Solaris 配置IPMP(双网卡绑定)使用IPMP实现网卡负载(网卡负载就是需要两张网卡共用一个IP地址实现网卡灾备功能)。
修/etc/hosts、/etc/hostname.bge0、/etc/hostname.bge1、/etc/defaultrouter、/etc/netmasks 五个文件,具体配置如下:使用Solaris 10 的IPMP实现网卡负载均衡功能,网卡负载均衡即使用两个或两个以上的网卡共用一个IP地址,实现网卡灾备的功能。
在本例中实现此项功能需要配置/etc/hosts、/etc/hostname.vmxnet0、/etc/hostname.vmxnet1、/etc/defaultrouter、/etc/netmasks 等五个文件。
以下过程为配置过程:1.验证系统的版本# uname -aSunOS Solaris10 5.10 Generic_118855-33 i86pc i386 i86pc或# cat /etc/releaseSolaris 10 11/06 s10x_u3wos_10 X86Copyright 2006 Sun Microsystems, Inc. All Rights Reserved.Use is subject to license terms.Assembled 14 November 20062.修改EPROM中的local -mac -address?= 的参数值,设置网卡使用自身的MAC地址,重启后生效。
#eeprom local-mac-address?=true注意:此命令在解除ipmp 时是否需要更改3.设置子网掩码# vi /etc/netmasks192.1.1.0 255.255.255.04.编辑/etc/hosts 文件# vi /etc/hosts## Internet host table#127.0.0.1 localhost192.1.1.200 Solaris10 #此地址为将要虚拟出来用于服务的IP地址########configure for ipmp################192.1.1.201 Solaris10-test1 #test ip 1 #此地址为vmxnet0 的实际地址192.1.1.202 Solaris10-test2 #test ip 2 #此地址为vmxnet1 的实际地址##########################################5.编辑/etc/hostname.vmxnet0# vi /etc/hostname.vmxnet0Solaris10 netmask + broadcast + group fzu1 up addif Solaris10-test1 netmask + broadcast + deprecated - failover up注意:Solaris10为系统主机名Solaris10-test1用于本次测试的ip地址fzu1为本次测试的IPMP 的组名以上命令解释:Solaris10 用于本案例的主机名称netmask + 子网掩码由文件/etc/netmasks 和/etc/hostname.vmxnet0 计算的出broadcast + 广播地址由文件/etc/netmasks 和/etc/hostname.vmxnet0 计算的出group fzu1 设置本案例中的IPMP 组名为fzu1addif Solaris10-test1 增加一个以Solaris10-test1 的子接口deprecated 标志此为一个测试用端口并不用于服务- failover 标志此逻辑接口不用于故障切换up 标志此逻辑接口启动6.编辑/etc/hostname.vmxnet1# vi /etc/hostname.vmxnet1Solaris10-test2 netmask + broadcast + group fzu1 deprecated - failover up注意:Solaris10为系统主机名Solaris10-test1用于本次测试的ip地址fzu1为本次测试的IPMP 的组名以上命令解释:Solaris10-test2 设置一个用于本案例的Solaris10-test2 的子接口netmask + 子网掩码由文件/etc/netmasks 和/etc/hostname.vmxnet1 计算的出broadcast + 广播地址由文件/etc/netmasks 和/etc/hostname.vmxnet1 计算的出group fzu1 设置本案例中的IPMP 组名为fzu1deprecated 标志此为一个测试用端口并不用于服务- failover 标志此逻辑接口不用于故障切换?是否不应该使用-failover 而使用failover呢??up 标志此逻辑接口启动8.设置/etc/defaultrouter# vi /etc/defaultrouter192.1.1.253#默认网关,IPMP会通过ping网关来检测主网卡是否正常,ping不通网关会进行切换网卡7.测试使用如下命令强行使网卡切换#if_mpadm -d pcn2下重新启用网卡#if_mpadm -r pcn2可以观察到网卡地址的切换,现象如下:root:/#ifconfig -alo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000vmxnet0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.1.1.200 netmask ffffff00 broadcast 192.1.1.255groupname fzu1ether 0:c:29:b3:21:d3vmxnet0:1: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 2inet 192.1.1.201 netmask ffffff00 broadcast 192.1.1.255vmxnet1: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 3inet 192.1.1.202 netmask ffffff00 broadcast 192.1.1.255groupname fzu1ether 0:c:29:b3:21:ddroot:/#if_mpadm -d vmxnet0root:/#ifconfig -alo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000vmxnet0: flags=89000842<BROADCAST,RUNNING,MULTICAST,IPv4,NOFAILOVER,OFFLINE> mtu 0 index 2inet 0.0.0.0 netmask 0groupname fzu1ether 0:c:29:b3:21:d3vmxnet1: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 3inet 192.1.1.202 netmask ffffff00 broadcast 192.1.1.255groupname fzu1ether 0:c:29:b3:21:ddvmxnet1:1: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 3 inet 192.1.1.200 netmask ffffff00 broadcast 192.1.1.255vmxnet1:2: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 3inet 192.1.1.201 netmask ffffff00 broadcast 192.1.1.255root:/#if_mpadm -r vmxnet0root:/#ifconfig -alo0: flags=2001000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 inet 127.0.0.1 netmask ff000000vmxnet0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 192.1.1.200 netmask ffffff00 broadcast 192.1.1.255groupname fzu1ether 0:c:29:b3:21:d3vmxnet0:1: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 2inet 192.1.1.201 netmask ffffff00 broadcast 192.1.1.255vmxnet1: flags=1040842<BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4> mtu 1500 index 3inet 192.1.1.202 netmask ffffff00 broadcast 192.1.1.255groupname fzu1ether 0:c:29:b3:21:dd。
双网卡绑定方法下载并执行NICExpress的安装程序,待安装向导提示“Setup Type”时,选择“Enabled”(如图1),这样做的目的是启用网络负载平衡,当数据流量比较大时,该软件就会自动进行分流,使绑定的每块网卡都担当一定的任务,而不是把重任压在某一块网卡的身上。
小提示:如果是Windwos XP,那么在接下来的安装向导中可能会出现硬件无法通过兼容性测试,这里只要点击“仍然继续”按钮即可继续(如图2)。
根据安装向导的操作,待文件复制完毕即会进入绑定网卡设置窗口,可以看到窗口上方是计算机上已经安装的网卡,中间是设置组的名称,可以直接输入。
现在我们要做的就是在上方已经安装好的网卡列表中选中要绑定抽多卡,单击“Add”按钮,将其添加到“Assigned Adapters”框中去,被添加的网卡就是被绑定的网卡(如图3),添加好之后单击“OK”按钮,稍候片刻还会弹出一个参数设置窗口,在这里我们建议使用程序的默认参数即可。
三、应用设置现在我们绑定的网卡即可在工作了。
打开“网上邻居”的属性窗口,我们可以看到在原来物理网卡的基础上又多功能出一块虚拟的网卡(如图4)。
右击该网卡,选择“属性”命令打开网卡的设置窗口,我们可以看到在已安装的组件中多出一个“NIC Express Transport for Ethernet”,选中该项并单击“属性”按钮即可打开网卡绑定窗口,在这里我们可以增加其它绑定的网卡,也可以将绑定的网卡删除;如果打开“Internet协议(TCP/IP)”的属性窗口,那么还可以像普通网卡一样设置该虚拟网卡的IP地址等参数。
小提示:如果被绑定的网卡在绑定之前已经设置了IP地址,那么在绑定过程中程序会提示是否使用已经设置的IP地址。
四、综合应用现在我们就可以将两根网线连接到绑定的两块网卡,然后通过虚拟网卡的IP地址访问服务器,并进行操作,你就可以在网卡的指示灯上看到两个网卡都在进行数据交换。
双网卡绑定
一.什么是双网卡绑定
双网卡绑定即使两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作
二.双网卡绑定的好处
1. 增大带宽
2. 保持带宽的稳定性
3. 可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证
了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断。
三.操作步骤
1、安装INTEL的网卡驱动
2、驱动完毕后在设备管理器里右键点INTEL的网卡,选属性,选择分组选
项,勾选将此适配器与其他适配器组合,选新组
3、添加组名(组名可以根据需要随意取)
4、单击下一步,选择组类型,此处选择适应性负载平衡。
5、下一步,勾选需要添加到组中的适配器
6、选择组模式,模式选适应性负载平衡,如果交换机支持链路聚合,选静态链路聚合也可以
7、设置组,选择主、从卡
8、在完成双网卡绑定以后在设备管理器中,网络适配器处会出现一个新的设备
“组:test”。
在本地连接中也将出现本地连接3。
四.遇到的问题以及解决方法
在绑定操作的最后一步中,单击完成后,系统则不再前进,无法完成绑定。
出现该问题的原因驱动版本过低,更新到最新版本的驱动程序后,问题解决。
SUSE 11图形界面操作双网卡绑定1.输入yast2登入图形界面,选择Network Settings点击进去2.选择Overview中Add,进去选择Bond,并进行网卡命名后进行下一步3.在静态地址中输入你所需要指定的IP,选择Bond Slaves4.将两块网卡选择为绑定网卡,并选择参数。
(下面会将每个参数作解释,根据实际需求选择)balance-rr (mode=0)轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。
本模式提供负载均衡和容错的能力。
active-backup(mode=1)活动-备份(主备)策略:在绑定中,只有一个slave被激活。
当且仅当活动的slave 接口失败时才会激活其他slave。
为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见。
在bongding的2.6.2及其以后的版本中,主备模式下发生一次故障迁移时,bonding将在新激活的slave上会送一个或者多个gratuitous ARP.bonding的主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,只要这些接口上配置了至少一个IP地址。
VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。
本模式提供容错能力,primary option,documented below会影响本模式的行为。
balance-xor(mode=2)XOR策略:基于所选择的传送hash策略。
本模式提供负载均衡和容错的能力。
broadcast(mode=3)广播策略:在所有的slave接口上传送所有的报文。
本模式提供容错能力。
802.3ad(mode=4)IEEE 802.3ad 动态链路聚合。
创建共享相同的速率和双工模式的聚合组。
能根据802.3ad 规利用所有的slave来建立聚合链路。
Salve的出站选择取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项加以改变。
双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。
根据交换机可支持的功能不通,最常见的是设定为主备方式的双网卡绑定。
一、操作步骤这里以绑定两个网卡为示例描述。
配置文件都在/etc/sysconfig/network-scripts/目录下。
1、编辑新的ifcfg-bond0文件增加如下内容:引用# cat /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0IPADDR=192.168.1.155NETMASK=255.255.255.0ONBOOT=yesBOOTPROTO=noneUSERCTL=no这是最后bond0设备的实际IP设置。
2、分别编辑ifcfg-eth0和ifcfg-eth1文件引用# cat /etc/sysconfig/network-scripts/ifcfg-eth0DEVICE=eth0USERCTL=noONBOOT=yesMASTER=bond0SLAVE=yesBOOTPROTO=none# cat /etc/sysconfig/network-scripts/ifcfg-eth1DEVICE=eth1USERCTL=noONBOOT=yesMASTER=bond0SLAVE=yesBOOTPROTO=none3、修改/etc/modules.conf文件# vi /etc/modules.conf添加如下内容:引用alias bond0 bondingoptions bond0 miimon=100 mode=1说明:引用miimon是用来进行链路监测的。
比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
Suse Linux系统的网卡冗余bonding新方法以下介绍的Suse Linux系统对网卡的绑定方式,是Suse厂家提供的一种官方方法。
特点的简便、适用,在运行过程中不易导致IP地址的丢失。
在今后的开局过程中推荐使用该方法来对网口进行绑定。
对网卡绑定的步骤如下:1,上传ifcfg-bond0到/etc/sysconfig/network 。
ifcfg-bond0文件名是Suse启动网卡时,优先使用模式的配置文件2,YaST->网络设备->网卡。
把需要绑定的网卡进行设定操作,完成设定操作后在/etc/sysconfig/network里就可以看到相关的ifcfg-eth-id-【mac】文件。
如:ifcfg-eth-id-00:1e:0b:be:95:983,查看网卡配置信息的目录:wxmrc14:/etc/sysconfig/network # ls. if-up.d ifcfg-lo scripts.. ifcfg-bond0 ifcfg.template update-log config ifcfg-eth-bus-pci-0000:0b:00.0 ifcfgeth0 update-log.debug dhcp ifcfg-eth-id-00:1e:0b:be:95:98 ifroute-lo wirelessif-down.d ifcfg-eth-id-00:1e:0b:be:95:9a providers4,两块网卡的启动模式修改为:none,目的是网卡启动时不使用DHCP模式。
wxmrc14:/etc/sysconfig/network # vi ifcfg-eth-id-00\:1e\:0b\:be\:95\:98 BOOTPROTO='dhcp'MTU=''REMOTE_IPADDR=''STARTMODE='onboot'UNIQUE='Ddhb.sWQdX4kVaYC'_nm_name='bus-pci-0000:05:00.0'5,再在/etc/init.d/network的start段的后面加上网关(SP03的补丁系统大约在462行):route add default gw **.*.*.*(网关IP)6,重启,使网卡配置生效。
本文主要讲三种网卡绑定:Linux(Suse Linux为例),windows 2003的intel网卡和Broadcom网卡绑定。
首先简单说说什么是网卡绑定,也称作网卡捆绑。
就是将两个或者更多的物理网卡绑定成一个虚拟网卡,以提供负载均衡或者冗余,增加带宽的作用。
当一个网卡坏掉时,不会影响业务。
一.Linux下的网卡捆绑将/etc/sysconfig/network下的ifcfg-eth*文件删除,最好是重命名。
mv ifcfg-eth-00:18:82:c5:bb:20 ifcfg-eth-00:18:82:c5:bb:20.bak然后vi创建ifcfg-bond1文件,如下面这么写BOOTPROTO='static'IPADDR='192.168.1.29' #虚拟网卡IPNETMASK='255.255.255.128' #掩码STARTMODE='onboot'BONDING_MASTER='yes'BONDING_MODULE_OPTS='mode=1 miimon=200'BONDING_SLAVE0='eth3' #物理网卡eth3BONDING_SLAVE1='eth4' #物理网卡eth4保存,退出:wq然后重启网卡:rcnetwork restart二.windows服务器的intel网卡绑定下载Intel Proset程序.或者到Intel官方网站下载对应的驱动:/scripts-df-external/detail_desc.aspx?agr=&ProductID=999&DwnldID=4275&strOss=& OSFullName=&lang=eng运行后, 如图:点击install.点击"Done".点击Finish.就会看到右下角有一个这样的图标:中间如网卡状的即是。
SUSE 11双网卡绑定测试SOPSUSE 11配置Bonding,这里使用两张网卡eth2 eth3进行,配置的方法跟Renhat区别很大。
1:首先安装网卡驱动,安装完后重启系统2:配置虚拟网络接口bond0:#cd /etc/sysconfig/network/#vi ifcfg-bond0 查看虚拟网口:bond0然后输入如下内容并保存退出:①:mode=0表示负载均衡方式,两块网卡都工作。
Mode=1表示冗余方式,网卡只有一个工作,一个出问题后才启用另外的网卡。
②:miimon是链路检测的时间间隔,miimon=100意识是每100毫秒检测网卡和交换机之间是否连通,如不通则使用另外的链路。
2:配置eth2和eth3#viIfcfg-eth2DEVICE='eth2'USERCTL=NOONBOOT=yesMASTER=bond0SLAVE=yesBOOTPROTO='static'STARTMODE='onboot保存该文件并退出。
'创建ifcfg-eth3配置文件:#viifcfg-eth3DEVICE='eth3'USERCTL=NOONBOOT=yesMASTER=bond0SLAVE=yesBOOTPROTO='static'STARTMODE='onboot'保存并退出该文件3:重启网络服务,使配置生效:输入命令:rcnetwork restart绑定成功后,eth2和eth3显示的ID会跟bond0一样4:验证配置:#cat /proc/net/bonding/bond0负载均衡模式成功,用另外一台电脑ping双网卡绑定主机时,不管拔掉哪跟网线,另外一网口还会继续工作。
网络性能测试软件为iperf,测试接收率和发送率,低于1G的算不正常.期望值:1. 网络性能测试过程中没有中断及报错并能保证测试完成2. 查看system log: vim /var/log/message 里面没有报错并能查看关于网卡的信息,例如“Network Adapter Link Down”表明网卡绑定测试时主网卡断开,次网卡变为主网卡的信息。
SUSE 11图形界面操作双网卡绑定1.输入yast2登入图形界面,选择Network Settings点击进去
2.选择Overview中Add,进去选择Bond,并进行网卡命名后进行下一步
3.在静态地址中输入你所需要指定的IP,选择Bond Slaves
4.将两块网卡选择为绑定网卡,并选择参数。
(下面会将每个参数作解释,根据实际需求选择)
balance-rr (mode=0)
轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。
本模式提供负载均衡和容错的能力。
active-backup(mode=1)
活动-备份(主备)策略:在绑定中,只有一个slave被激活。
当且仅当活动的slave接口失败时才会激活其他slave。
为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见。
在bongding的2.6.2及其以后的版本中,主备模式下发生一次故障迁移时,bonding将在新激活的slave上会送一个或者多个gratuitous ARP.bonding的主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,只要这些接口上配置了至少一个IP地址。
VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。
本模式提供容错能力,primary option,documented below会影响本模式的行为。
balance-xor(mode=2)
XOR策略:基于所选择的传送hash策略。
本模式提供负载均衡和容错的能力。
broadcast(mode=3)
广播策略:在所有的slave接口上传送所有的报文。
本模式提供容错能力。
802.3ad(mode=4)
IEEE 802.3ad 动态链路聚合。
创建共享相同的速率和双工模式的聚合组。
能根据802.3ad 规范利用所有的slave来建立聚合链路。
Salve的出站选择取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项加以改变。
需要注意的是:不是所有的传输策略都与802.3ad兼容,尤其是802.3ad标准的43.2.4章节中关于packet mis-ordering要求的地方。
不同个体的实现往往出现很大的不兼容。
先决条件:
1. 每个slave的基本驱动支持Ehtool获取速率和双工状态。
2.交换机支持IEEE 802.3ad动态链路聚合。
大多数的交换机都需要使用某种配置方式来启用802.3ad模式。
balance-tlb(mode=5)
自适应传输负载均衡:信道绑定不需要特殊的交换机支持。
出口流量的分布取决于当前每个slave的负载(计算相对速度)。
进口流量从当前的slave的接收。
如果接收salve出错,其他的slave接管失败的slave的MAC地址继续接收。
先决条件:
每个slave的基本驱动支持Ehtool获取速率状态。
balance-alb(mode=6)
自适应负载均衡:包括balance-tlb(模式5)以及用于IPV4流量的接收负载均衡,并且不需要特殊的交换机支持。
接收负载均衡通过ARP协商实现。
bonding的驱动拦截本机发出的ARP Replies(ARP回应报文),并且用bond的某一个slave的硬件地址改写ARP 报文的源地址,使得本服务器对不同的设备使用不同的硬件地址。
本服务器建立的连接的接收流量也是负载均衡的。
当本机发送ARP Request时,bonding驱动通过ARP报文复制并保存节点的IP信息。
当从其他节点接收到ARP Reply,bonding驱动获取节点的硬件地址并且会回应一个包含绑定好的slave的硬件地址的ARP Reply给发送的节点。
用ARP协商的负载均衡的有一个问题是每次用bond的硬件地址广播ARP报文,那么其他节点发送的数据全部集中在一个slave上,处理ARP更新给其他所有节点的时候,每个节点会重新学习硬件地址,导致流量重新分配。
当新加入一个slave或者一个非激活的slave重新激活的时候也会导致接收流量重新分配。
接收流量负载是串行(轮转)的分配在bond的一组速率最高的slave上。
当一个链路重连或者一个新的slave加入的时候,bond会重新初始化ARP Replies给所有的客户端。
updelay参数的值必须等于或者大于交换机的forwarding delay,以免ARP Replies被交换机阻塞。