当前位置:文档之家› 蹭网卡卡王卡皇教程之8187L软AP设置

蹭网卡卡王卡皇教程之8187L软AP设置

蹭网卡卡王卡皇教程之8187L软AP设置
蹭网卡卡王卡皇教程之8187L软AP设置

蹭网卡卡王卡皇教程之8187L软AP设置

一、准备工作

1.下载最新驱动及管理程序:https://www.doczj.com/doc/c013499240.html,/download.htm

2.解压卡王ZIP文件,解压后的文件如下:

3. 将卡王插入电脑USB接口中。

二、安装驱动程序及管理程序

双击Setup 文件,选择“简体中文”

下一步

下一步点击安装

重新启动

三、软AP 设置

1. 双击桌面管理程序图标

2. 打开无线网络管理程序

3. 点击“模式”,选择“接入点模式”

下一步

4. 高级用户设置,选择“高级用户”下一步

5. 无线设置

Network Name(SSID):设置无线网络名字,此项可随便设置,网卡通过此名字连接到软AP

卡王。这里设置为:“TEST”,这里SSID 只能为ACSII 码,用户可输入英文或数字,请勿使用中文。

Channel Selection:信道选择,中国信道设置为1-11,用户可随意选择。

Authentication:认证类型选择,其中认证类型包含如下几种:1)Open System 开放系统;2)Shared Key 共享密钥;3)WPA-PSK;4)WPA2-PSK

为了保证用户信息的安全性,建议使用“WPA2-PSK”。

Encryption 加密类型选择:其中加密类型为1)AES;2)TKIP,这里我们选择AES 下一步

使用8-63 位密码,这里设置为“12345678”

下一步

选择接入到互联网的网卡,我这里是使用PPPOE 拨号上网,故选择此项下一步,点击“完成”

此时,互联网宽带连接将会断开,需要重新拨号。

四、客户端的连接

1. 搜寻无线信号,找到Test

2. 双击建立设定档

3. 设置与软AP 配置相同的参数

4. 连接到网络

多块网卡的负载平衡设置

多网卡负载均衡 NICExpress软件下载地址: https://www.doczj.com/doc/c013499240.html,/soft/36156.htm 注册码: 名称:https://www.doczj.com/doc/c013499240.html, 序列号: 381567 =============================================== 前言:市面上现在天生支持绑定功能的网卡不多,而且多是出身名门的高档服务器网卡,身价不菲,设置过程也比较专业,使用和维护都不简便。难道我等平头百姓,攥着几十元的廉价8139的兄弟们就无缘领略双网卡绑定的快感了吗?非也,今天我就教大家一招,只需一款小小的软件,就可以用普通的8139之类的网卡体验一把双网卡绑定的愉悦,这个软件就叫做“NICExpress”,可能行家们已经捂着嘴乐了,呵呵,笔者的出发点是给菜鸟兄弟们排难解惑,穷办法自娱自乐,说得过火的地方,大家不要见笑,DIY的乐趣就在于此啊。 朋友或许会问了,为什么要用双网卡呢?用双网卡有什么好处?所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM 服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡。 广告:d_text 多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。 OK,现在就手把手的教大家如何用50元来打造出双网卡的效果! 先下载软件(点击这里下载NIC Express Enterprise),这是最新版本4.0,只有2.15M,软件的兼容性已经做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市场上常见的各种网卡,百兆和千兆网卡都可以用来绑定,但是千万注意,最好用于绑定的网卡是完全相同的,至少也是基于同一芯片的,这样多块网卡才能合作得比较好。切记不要把10M网卡和100M网卡绑定在一起,那样根本起不到提升作用。 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 我取出“珍藏”的一对市场上随处可见的8139D10M/100M自适应网卡,市场价格25元一个,北京某厂的产品,做工还算精细,总成本50元人民币。

详解双网卡绑定

Linux下的双网卡绑定bond0 em1 em2 一、什么是bonding Linux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余 二、bonding应用方向 1、网络负载均衡 对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是bonding 2、网络冗余 对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。在生产型的系统中,网卡的可靠性就更为重要了。在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。bonding 也能为网卡提供冗余的支持。把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份 三、bonding实验环境及配置 1、实验环境 系统为:CentOS,使用2块网卡(em1、em2 ==> bond0)来实现bonding技术 2、bonding配置 第一步:先查看一下内核是否已经支持bonding 1)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译 modprobe -l bond* 或者modinfo bonding modprobe bonding lsmod | grep 'bonding' echo 'modprobe bonding &> /dev/null' >> /etc/rc.local(开机自动加载bonding模块到内核) which ifenslave 注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译 2)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核 (1)编译bonding tar -jxvf kernel-XXX.tar.gz cd kernel-XXX

服务器多网卡捆绑

服务器多网卡捆绑 1、Linux系统 1-1、 RHEL5下双网卡绑定。 1-1-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。 1-1-2、修改物理网卡配置

1-1-3、设置虚拟网卡模块 说明:miimon是用来进行链路监测的。比如:miimon=500,那么系统每500ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0-6 七种模式,常用的为0,1两种。 ?mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 ?mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。 例子中使用mode=0的配置来做负载均衡提高系统性能,增大并发带宽。

1-1-4、加载模块(重启系统后就不用手动再加载了) 1-1-5确认模块是否加载成功: 1-1-6、重启网络: 用外部同一网段的一台机器做ping试验,双网卡机器上手工拔掉其中任意一条网络线(或者使用ifup eth0|ifdown eth1),ping机器的终端应该没有中断信息,或者有一个”timeout”后很快恢复,则证明试验成功。 1-2、 RHEL6下双网卡绑定 1-2-1、新增网卡 这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

提高服务器高可用性的双网卡绑定聚合技术的应用

提高服务器可用性的多网卡绑定聚合技术的应用 王和平 摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。 关键词:网卡聚合;服务器;高可用性 一、引言 现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。 二、网卡聚合绑定的特点 网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。网卡是计算机和外部联系的主要通道。个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。在服务器和交换机之间建立主连接和备用连接。通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。 在服务器中部署多块网卡聚合绑定后,将具备如下特点: 1.增加带宽。假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。 2.均衡负载。多块网卡聚合绑定,可以形成网卡冗余阵列、分担负载。多块网卡被聚合绑定成“一块网卡”之后,网卡之间同步工作,对服务器的访问流量被均衡分配到不同网卡上,从而减轻每块网卡的网络负载,增强服务器的并发访问能力,服务器性能。 3.故障自动切换。如果服务器中的任一网卡出现故障,那么其他网卡将自动接管全部负载,过程是无缝的,数据传输不会中断。服务器中的系统服务或者应用不会中断,增强服务器的可用性。 三、网卡绑定聚合的原则 在服务器中部署多块网卡绑定聚合应该遵循以下原则: 1.聚合绑定的网卡型号应该相同、性能指标要一致,否则运行过程中不稳定,容易出错甚至蓝屏。 2.最大网卡数量原则。绑定的网卡越多,总带宽的增加效果似乎就越明显;但其实还应该考虑到网卡绑定聚合后在运行过程中会过多占用服务器资源,反过来会在一定程度影响服务器的运行速度。所以,管理员可以参考计算机配置和管理软件所支持的最大网卡数量。 3.所有的网卡建议连接到同一台交换机上。 四、部署过程 下面以NICExpress软件实际部署为例,说明多网卡的绑定聚合过程。

dell服务器双网卡绑定与端口聚合

Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

网卡绑定教程

intel、博康、Marvell、NF网卡的动态负载均衡设置 部分内容由网上摘抄修改 Marvell网卡绑定教程 控制台及驱动下载:https://www.doczj.com/doc/c013499240.html,/product.aspx?P_ID=4zanuPTONhbnijk4 https://www.doczj.com/doc/c013499240.html,/pub/ASUS/mb/socket775/P5BV-C/DRIVER/CPA_Win32_56423.zip 控制台和驱动的安装就不说了,一直下一步就可以了! 现在打开控制台软件:

单击“add team”按钮,弹出下面窗口: 注:"teaming mode"选择"static"

OK分组"BOOT"创建完毕: 最后将网卡添加进刚刚建立的BOOT分组即可:

4网卡汇聚最终图:

NF网卡绑定教程 https://www.doczj.com/doc/c013499240.html,/Windows/nForce/9.28/9.28_nforce_winserv2003_32bit_international_whql.exe 下载解压,网卡驱动在Ethernet目录,网卡绑定软件在\Ethernet\NAM目录。 安装好之后,运行开始菜单的NVIDIA Corporation\NVIDIA Control Panel\networking项 显示如下界面,单击“Adjust teaming configuration”项

可以选择“use default teaming configuration”自动按默认设置组。 也可以选择“use custom teaming configuration”,弹出引导设置窗口。 选择自动负载均衡及容错“Load Balance and Failover”模式,点击下一步

常用操作系统双网卡绑定方法

常用操作系统双网卡绑定方法 目录 一、RHEL 5.7 LINUX 下网卡绑定设置 (1) 二、RHEL6 LINUX 下网卡绑定设置 (3) 三、SUSE 10 下网卡绑定设置 (11) 四、SUSE 11 下网卡绑定设置 (16) 五、Windows 下网卡绑定设置 (22) 一、RHEL 5.7 LINUX 下网卡绑定设置 [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-bond0 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=bond0 BOOTPROTO=static ONBOOT=yes IPADDR=10.96.19.207 NETMASK=255.255.255.0 GATEWAY=10.96.19.1 TYPE=Ethernet [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-eth0 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=eth0 BOOTPROTO=none HWADDR=34:40:B5:BD:24:18 ONBOOT=yes MASTER=bond0 SLAVE=yes TYPE=Ethernet [root@Linux5 ~]# more /etc/sysconfig/network-scripts/ifcfg-eth1 # Broadcom Corporation NetXtreme II BCM5709S Gigabit Ethernet DEVICE=eth1 BOOTPROTO=none HWADDR=34:40:B5:BD:24:1A ONBOOT=yes MASTER=bond0

SUSE-11图形界面操作双网卡绑定

SUSE 11图形界面操作双网卡绑定1.输入yast2登入图形界面,选择Network Settings点击进去 2.选择Overview中Add,进去选择Bond,并进行网卡命名后进行下一步

3.在静态地址中输入你所需要指定的IP,选择Bond Slaves

4.将两块网卡选择为绑定网卡,并选择参数。(下面会将每个参数作解释,根据实际需求选择)

balance-rr (mode=0) 轮转(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。本模式提供负载均衡和容错的能力。 active-backup(mode=1) 活动-备份(主备)策略:在绑定中,只有一个slave被激活。当且仅当活动的slave接口失败时才会激活其他slave。为了避免交换机发生混乱此时绑定的MAC地址只有一个外部端口上可见。在bongding的2.6.2及其以后的版本中,主备模式下发生一次故障迁移时,bonding将在新激活的slave上会送一个或者多个gratuitous ARP.bonding的主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,只要这些接口上配置了至少一个IP地址。VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。本模式提供容错能力,primary option,documented below会影响本模式的行为。 balance-xor(mode=2) XOR策略:基于所选择的传送hash策略。 本模式提供负载均衡和容错的能力。 broadcast(mode=3) 广播策略:在所有的slave接口上传送所有的报文。本模式提供容错能力。 802.3ad(mode=4) IEEE 802.3ad 动态链路聚合。创建共享相同的速率和双工模式的聚合组。能根据802.3ad 规范利用所有的slave来建立聚合链路。Salve的出站选择取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项加以改变。需要注意的是:不是所有的传输策略都与802.3ad兼容,尤其是802.3ad标准的43.2.4章节中关于packet mis-ordering要求的地方。不同个体的实现往往出现很大的不兼容。 先决条件: 1. 每个slave的基本驱动支持Ehtool获取速率和双工状态。 2.交换机支持IEEE 802.3ad动态链路聚合。大多数的交换机都需要使用某种配置方式来启用802.3ad模式。

AIX网卡绑定详细图解

1.1配置网卡绑定、IP地址 1.1.1网卡绑定配置 双网卡绑定主、备网卡工作模式etherchannel设置方法: 说明:本系统有4块物理网卡,分别为ent0、ent1、ent2、ent3,绑定ent0与ent1两块网卡,设置ent0为主网卡、ent1为备份网卡,注意两块网卡不能是一对双口卡。 1、增加EtherChannel, #smit etherchannel 2、选择网卡ent0

3、选择备份网卡Backup Adapter “ent1”按F4选着 确认后系统提示生成ent4虚拟网卡

配置IP地址时选择ent4对应的逻辑网卡en4进行配置。 1.1.2IP地址配置 配置ip地址不要使用smit mktcpip,因为使用mktcpip每配置一个IP地址时,都会更改/etc/hosts表增加一条主机名的映射关系。建议使用smit chinet配置ip地址,然后手工修改hosts表。 smit chinet

1.2配置网络路由 1.2.1配置default gateway smit mkroute,如配置缺省网关时指定DESTINATION Address 为0,并输入缺 省网关地址,其它项不填写。

1.2.2配置静态路由 配置静态路由时也使用smit菜单进行配置,以保证系统重新启动后,路由不会丢失。 举例配置带外管理到11.159.0.0网段,走11.159.20.1,子网掩码为255.255.0.0 smit route

1.2.3检查路由配置 1、检查当前路由表 #netstat –rn 2、检查ODM库中的路由表信息 #lsattr –El inet0 1.3设置系统时区及时间 时区设置为Asia/Shanghai smit system→Change / Show Date and Time→Change Time Zone Using System Defined Values

ovirt上主机的网卡绑定

1.BOND模式概述 1.如下bond模式支持虚拟机网络(使用网桥)和非虚拟机网络(无网桥) ●Bond1(主备策略):只有一个设备处于活动状态,当一个宕掉另一个马上由备份转 换为主设备,不需要交换机做配置。 ●Bond2(平衡策略):基于指定的传输HASH策略传输数据包。此模式提供负载平衡 和容错能力,需要交换机配置链路聚合。 ●Bond4(IEEE802.3ad 动态链接聚合):创建一个聚合组,它们共享同样的速率和双 工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。需要交换机配置动态链路聚合。 ●Bond5(适配器传输负载均衡): 在每个slave上根据当前的负载(根据速度计算) 分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的 slave的MAC地址。不需要交换机做配置。 2.如下bond模式只支持非虚拟机网络(无网桥) ●Bond0(平衡抡循环策略):传输数据包顺序是依次传输(即:第1个包走eth0, 下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力 ●Bond3(广播策略):在每个slave接口上传输每个数据包,此模式提供了容错能 力 ●Bond6(适配器适应性负载均衡):该模式包含了balance-tlb模式,同时加上针 对IPV4流量的接收负载均衡(receiveload balance, rlb),而且不需要任何 switch(交换机)的支持

2.BOND配置 2.1Bond0配置 1.在设置主机网络中绑定两个网卡并配置bond模式为自定义,自定义模式为 “mode=0 miimon=100” 2.把逻辑网络附加到bond,并配置IP地址

虚拟化环境网卡绑定模式

虚拟化环境网卡绑定模式 作者:郭国华,新炬网络技术专家 随着云计算的发展,虚拟化技术已普遍应用于各类型企业,同时虚拟化为服务器带来密集的网络吞吐压力已成为影响云计算发展的最大性能瓶颈之一,为了最大化提升主机网络性能,对不同的业务场景主机需配置合理的网卡BOND模式,本项目将在不对交换机做特别设置的KVM虚拟化环境下(交换机采用Trunk模式)对七种双网卡BOND模式进行测试,用数据说话浅析虚拟化环境网卡绑定模式应该如何选择。 一、测试环境方法介绍 (一)网络拓扑图 (二)测试环境及工具: 本项目使用2台服务器(各跑一台虚拟机)、3台交换机KVM虚拟化环境进行测试,测试软硬件环境及工具如下: 1、服务器:2台IBM X3950M2服务器(带2张千兆网卡),2台虚拟机; 2、交换机:1台Cisco Nexus 5548P,2台Cisco Nexus 2248TP,Trunk模式; 3、操作系统:linux redhat6.2,KVM虚拟化、网卡桥接模式(见上图);

4、测试工具:netperf、ping、scp、sar、iostat。 (三)具体测试项 拟定BOND模式的测试项目如下: 1、丢包率测试:通过ping命令测试主机间网络丢包情况; 2、网卡切换效率测试:通过down、up网卡测试切换过程ping与文件传输的中断 情况; 3、网络TCP、UDP吞吐量:通过netperf命令分别测试TCP与UDP的吞吐量; 4、网络速率测试:通过网络传输文件测试网络接收、发送速率。 二、七种网卡绑定模式介绍 网卡绑定7种模式官方说明如下,网上一堆资料在此不再赘述: mode=0 (balance-rr) Round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance. mode=1 (active-backup) Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond's MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode. mode=2 (balance-xor) XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) modulo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance. mode=3 (broadcast) Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance. mode=4 (802.3ad) IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and duplex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification. Pre-requisites: 1. Ethtool support in the base drivers for retrieving the speed and duplex of each slave. 2. A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

dell服务器双网卡绑定与端口聚合

端口聚合(IEEE802.3ad Port Trunking) 可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM 网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡,交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking - IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad - 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

dell服务器双网卡绑定与端口聚合

端口聚合( Port Trunking ) 可将2至8个10/100Base-TX 端口聚合成一条干路,在全双工工作模式下达到的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCO网卡都可以配置为TEAM勺一部分.TEAMING是一种将多块千兆BRODCC网卡绑定作为一个虚拟网卡. 好处就是负载均衡. 通过选择每一个可用的千兆BRODCC网卡并添加它们到负载均衡成员栏来创建TEAM对于用户和应用程序 只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming 包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP 地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare 的一个broadcom 的中介型驱动程 序, 需要先安装对应的broadcom 网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意:一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡, 交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking - 链路聚合( 静态配置), 需要交换机支持 - 通过,每个网卡最多支持64个VLANS只支持braodcom或Alteon网卡 BASP FOR RH Linux 提供以下几种team 的模式: - 智能负载均衡 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking 链路聚合( 静态配置), 需要交换机支持 - VLAN Pachket tagging Smart Load Balancing (SLB) ?

HP windows2012的双网卡绑定

Windows2012网卡绑定 在服务器管理器中,定位到本地服务器,可以看到网卡的状态,其中NIC组合显示为已禁用。点击它。 在NIC组合的适配器和借口窗口中,选择需要绑定的网卡,点击任务,添加到新组。

弹出新建组窗口,勾选需要绑定的网卡,并为新组起名team1。

其它属性——成组模式: a、静态成组(IEEE 802.3ad draft v1):此模式配置交换机和主机之间需要哪种链接组 合形式,由于这是一个静态配置的解决方案有任何附加协议,所以就不会因为交换机或主机因为电缆的插入错误或其它错误而导致组合的形成.此种模式中,网卡可以工作于不同的速度,就是说可以用不通速度的网卡建立组合, 但同样要求交换机完全支持IEEE 802.3ad 标准,一般情况下,服务器级别的交换机通常支持此模式. b、交换机独立:这是配置时的默认值,此模式不要求交换机参与组合配置,由于独 立模式下的交换机不知道网卡是主机上组合一部分,网卡可以连接到不同的交换机. c、LACP动态组合(IEEE 802.1ax, LACP):LACP动态组合是到同一台交换机的链路聚合, 只不过不是静态配置的,而是动态构成(也就是自动协商)的.它是通过一种智能的链路协商协议LACP (Link Aggregation Control Protocol)来实现的.LACP原本用于交换机和交换机之间的链路聚合,启用了LACP协议的2台交换机会相互发送LACP的协商报文,当发现2者之间有多条可用的链路的时候,自动将这些链路组合成一条带宽更大的逻辑链路,从而利用负载均衡来实现加宽交换机间链路带宽的目的.

RHEL6.1配置网卡绑定bond

RedHatlinux6.1配置bond bond介绍 将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈。其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题。因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O)。Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Driver文档, 但是目前发布各个Linux版本内核均已包含了此模块,大多数情况下不需要重新编译内核。Linux 的bonding 驱动提供了绑定/集成(bond)多个网卡为一个虚拟逻辑网口的功能。并请注意绑定的网口(bonded)有多种工作模式; 一般来说,分为热后备(hot standby) 和负载均衡(load balancing). 在Redhat/Fedora和其它类Redhat Linux中是比较容易配置的。 Bond模式 网卡绑定mode共有七种(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6 常用的有三种 mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。 mode=1:自动备援模式,其中一条线若断线,其他线路将会自动备援。 mode=6:平衡负载模式,有自动备援,不必”Switch”支援及设定。 需要说明的是如果想做成mode 0的负载均衡,仅仅设置这里options bond0 miimon=100 mode=0是不够的,与网卡相连的交换机必须做特殊配置(这两个端口应该采取聚合方式),因为做bonding的这两块网卡是使用同一个MAC地址.从原理分析一下(bond运行在mode 0下): mode 0下bond所绑定的网卡的IP都被修改成相同的mac地址,如果这些网卡都被接在同一个交换机,那么交换机的arp表里这个mac地址对应的端口就有多个,那么交换机接受到发往这个mac地址的包应该往哪个端口转发呢?正常情况下mac地址是全球唯一的,一个mac地址对应多个端口肯定使交换机迷惑了。所以 mode0下的bond如果连接到交换机,交换机这几个端口应该采取聚合方式(cisco称为 ethernetchannel,foundry称为portgroup),因为交换机做了聚合后,聚合下的几个端口也被捆绑成一个mac地址.我们的解决办法是,两个网卡接入不同的交换机即可。 mode6模式下无需配置交换机,因为做bonding的这两块网卡是使用不同的MAC地址。 七种bond模式说明: 第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略) 特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐

linux双网卡绑定七种模式

今天分享的是linux操作系统下双网卡绑定有哪七种模式,分别是如何工作的。现在一般的企业都会使用双网卡接入,这样既能添加网络带宽,同时又能做相应的冗余,可以说是好处多多。而一般企业都会使用linux操作系统下自带的网卡绑定模式,当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(windows操作系统没有网卡绑定功能需要第三方支持)。 进入正题,linux有七种网卡绑定模式:0. round ro bin,1.active-backup,2.load balancing (xor), 3.fault-tolerance (broadcast),https://www.doczj.com/doc/c013499240.html,cp, 5.transmit load balancing,6.adaptive load balancing。 第一种:bond0:round robin 标准:round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance. 特点:(1)所有链路处于负载均衡状态,轮询方式往每条链路发送报文,基于per packet方式发送。服务上ping 一个相同地址:1.1.1.1 双网卡的两个网卡都有流量发出。负载到两条链路上,说明是基于per packet方式,进行轮询发送。(2)这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。 实际绑定结果: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: load balancing (round-robin)-----RR的模式 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0

服务器做网卡绑定

目标:Linux下多网卡虚拟一个网卡,使其一网卡坏掉不影响网络使用。步骤: 1、修改eth0、eth1配置文件 ifcfg-eth0 DEVICE=eth0 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes ifcfg-eth1 DEVICE=eth1 BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes 2、配置虚拟网卡 vi /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 BOOTPROTO=none BROADCAST=192.168.1.255 IPADDR=192.168.1.97 NETMASK=255.255.255.0 NETWORK=192.168.1.0 ONBOOT=yes TYPE=Ethernet GATEWAY=192.168.1.1 USERCTL=no 3、编辑modules.conf vi /etc/modules.conf alias bond0 bonding options bond0 miimon=100 mode=1 primary=eth0

4、添加rc.local modprobe bonding miimon=100 mode=1 ifconfig bond0 Link encap:Ethernet HWaddr 00:0C:29:20:C9:4A inet addr:192.168.1.97 Bcast:192.168.1.255 Mask:255.255.255.0 inet6 addr: fe80::20c:29ff:fe20:c94a/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:1065 errors:0 dropped:0 overruns:0 frame:0 TX packets:694 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:102157 (99.7 KiB) TX bytes:104152 (101.7 KiB) eth0 Link encap:Ethernet HWaddr 00:0C:29:20:C9:4A inet6 addr: fe80::20c:29ff:fe20:c94a/64 Scope:Link UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:981 errors:0 dropped:0 overruns:0 frame:0 TX packets:697 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:90816 (88.6 KiB) TX bytes:105086 (102.6 KiB) Interrupt:185 Base address:0x1400 eth1 Link encap:Ethernet HWaddr 00:0C:29:20:C9:4A inet6 addr: fe80::20c:29ff:fe20:c94a/64 Scope:Link UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:89 errors:0 dropped:0 overruns:0 frame:0 TX packets:6 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:11641 (11.3 KiB) TX bytes:468 (468.0 b) Interrupt:169 Base address:0x1480

相关主题
文本预览
相关文档 最新文档