服务器双网卡冗余工作的原理与实现
- 格式:pdf
- 大小:91.80 KB
- 文档页数:3
服务器冗余是指重复配置系统的一些部件,当系统发生故障时,冗余配置的部件介入并承担故障部件的工作,由此减少系统的故障时间。
一、在服务器里,冗余系统配件主要有:1、电源:高端服务器产品中普遍采用双电源系统,这两个电源是负载均衡的,即在系统工作时它们都为系统提供电力,当一个电源出现故障时,另一个电源就承担所有的负载。
有些服务器系统实现了DC的冗余,另一些服务器产品如Micron公司的Net FRAME 9000实现了AC、DC的全冗余。
2、存储子系统:存储子系统是整个服务器系统中最容易发生故障的地方。
以下几种方法可以实现该子系统的冗余。
(1)磁盘镜像:将相同的数据分别写入两个磁盘中。
(2)磁盘双联:为镜像磁盘增加了一个I/O(输入/输出)控制器,就形成了磁盘双联,使总线争用情况得到改善。
3、RAID:廉价冗余磁盘阵列(Redundant array of inexpensive disks)的缩写。
顾名思义,它由几个磁盘组成,通过一个控制器协调运动机制使单个数据流依次写入这几个磁盘中。
RAID3系统由5个磁盘构成,其中4个磁盘存储数据,1个磁盘存储校验信息。
如果一个磁盘发生故障,可以在线更换故障盘,并通过另3个磁盘和校验盘重新创建新盘上的数据。
RAID5将校验信息分布在5个磁盘上,这样可更换任意一个磁盘,其余与RAID3相同。
4、 I/O卡:对服务器来说,主要指网卡和硬盘控制卡的冗余。
网卡冗余是在服务器中插上双网卡。
冗余网卡技术原为大型机及中型机上的技术,现在也逐渐被PC服务器所拥有。
PC服务器如Micron公司的NetFRAME9200最多实现4个网卡的冗余,这4个网卡各承担25%的网络流量。
康柏公司的所有ProSignia/Proliant服务器都具有容错冗余双网卡。
5、 PCI总线:代表Micron公司最高技术水平的产品Net FRAME 9200采用三重对等PCI技术,优化PCI总线的带宽,提升硬盘、网卡等高速设备的数据传输速度。
Linux配置双网卡绑定,以实现冗余及负载均衡1、首先需要彻底关闭NetworlManger 服务,如果有的话,否则会和bond网卡冲突[root@rhel ~]#service NetworlManger stop[root@rhel ~]#chkconfig NetworlManger off2、新建ifcfg-bond0配置文件[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-bond0DEVICE=bond0BOOTPROTO=noneIPADDR=192.168.1.11NETMASK=255.255.255.0ONBOOT=yesUSERCTL=no #用户控制禁止3、修改ifcfg-eth0配置文件,将IP/GW/NW/ID/HW等注释,保留以下信息[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-eth0DEVICE=eth0BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0 #将网卡指向bond0SLAVE=yes #启用双网卡4、修改ifcfg-eth1配置文件[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-eth0DEVICE=eth1BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0 #将网卡指向bond0SLAVE=yes #启用双网卡5、修改rc.local文件,添加以下信息[root@rhel ~]#vi /etc/rc.localifenslave bond0 eth0 eth1 #rhel6以上可以不设,但需要重启。
6、修改内核文件,系统不同有差异需要谨慎查看,查看备注。
Rhel6.3以下添加[root@rhel ~]#vi /etc/modprobe.d/dist.confAlias bond0 bondingOptions bond0 mode=1 miimon=50 #可在ifcfg-bond0中添加用BONDING_OPT=””连接。
本技术涉及一种网络双冗余快速切换的方法,涉及网络通信技术领域。
该方法只在驱动层就可实现网卡切换的动作,不需要更高层的模块协助处理,因此该方法只需要更改网卡的驱动即可实现,而对TCP/IP层的网络协议不做任何的变动,从而可以大大提高网络切换的速度,减少网路切换的时间开销,具体地,切换速度最大可达2倍的任务周期时间,切换时间稳定可调。
该方法在Windows、VxWorks、Linux操作系统中均已实现,满足性能要求。
权利要求书1.一种网络双冗余快速切换的方法,其特征在于,包括以下步骤:步骤S1,系统进行初始化阶段,获取各网卡的硬件资源,并对各网卡做硬件初始化;步骤S2,将第一块网卡注册至系统中;步骤S3,将第一块网卡的注册数据记录到冗余组中的第一个位置;步骤S4,将工作网卡设定为第一块网卡;步骤S5,将第二块网卡注册到系统中;步骤S6,将第二块网卡的IP地址、MAC地址设置为与第一块网卡一致;步骤S7,将第二块网卡加到冗余组中;步骤S8,启动网络监视任务,在此任务中实现网卡连接状态的监视和网卡的切换。
2.如权利要求1所述的方法,其特征在于,步骤S8中在驱动层实现网卡的切换。
3.如权利要求2所述的方法,其特征在于,步骤S8中实现网卡的切换时,在发送时,网络层向驱动层通知从哪个设备指针发送数据,驱动层接到发送命令时,抛弃网络层传递的设备指针,而使用当前工作网卡的设备指针作为物理设备完成数据发送,并返回发送状态;在接收时,网络层向驱动层通知从哪个设备指针接收数据,驱动层接到接收命令时,抛弃网络层传递的设备指针,而使用当前工作网卡的设备指针作为物理设备完成数据接收,并返回发送状态。
4.如权利要求3所述的方法,其特征在于,步骤S8中实现网卡的切换时,在层间的通讯通过返回状态来确认,只要实现网络层接口调用返回值的正确即可实现伪装欺骗。
5.如权利要求4所述的方法,其特征在于,步骤S8中采用定期判断物理状态变化寄存器中网卡的连接状态,实现网卡的切换。
服务器双网卡的冗余备份服务器作为企业信息平台的核心,其稳定性和安全性至关重要,连接服务器的网络链路是尤为重要的一环。
增加热备份冗余链路成为保障服务器链路通畅常用的方法之一,此方式可以强化系统网络链路,减少故障率。
如今,许多企业都搭建了各种信息平台,服务器作为信息平台的硬件载体,其稳定性日趋重要。
其中,网络链路又是尤为重要的一环,显然,如何保障服务器网络链路的持续稳定工作已成为摆在网络管理员、系统管理员面前的重要问题了。
增加热备份冗余链路成为保障服务器链路通畅常用的方法之一,此方式可以强化系统网络链路,减少故障率。
这里提到的冗余备份方式可以应用于企业的重要业务访问,实施后,相应业务在多种冗余技术的支持下,将会更加稳固。
单机环境图1为服务器双网卡接入的基本拓扑图,为保证网络设备热备份,核心设备、服务器接入设备都使用了双机,配置802.1q Trunk模式互联,属同一VTP Domain,并都启用了STP(Spanning Tree Protocol,生成树协议),利用STP实现网络设备、网络链路的切换,将一台Cisco3550设置为STP根(root)交换机。
图1中标block的端口即STP协商后屏蔽的端口,以避免环路,无数据流量可视为中断。
另外将Cisco2950交换机的终端接入端口设置为PortFast,以加快交换机端口启用时间。
1. 软件使用原则服务器接入可以通过使用网卡捆绑软件实现热备冗余,对于服务器双网卡捆绑软件的选择可遵循以下几点原则: 兼容性好,能在不同品牌网卡上使用; 中断恢复快; 能检测深层中断,即能检测到非直连设备的中断。
2. 推荐软件NIC Express 4.0是一款兼容性较好的捆绑软件,它能兼容Broadcom、D-Link等常见网卡,但在Intel网卡上安装会造成大量丢包。
Inter Proset是针对Intel网卡的专用网卡捆绑软件,但Inter Proset只能在Intel网卡上使用,且不支持深层中断的检测。
Linux Bonding一、什么是bondingLinux bonding 驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余二、bonding应用方向1、网络负载均衡对于bonding的网络负载均衡是我们在文件服务器中常用到的,比如把三块网卡,当做一块来用,解决一个IP地址,流量过大,服务器网络压力过大的问题。
对于文件服务器来说,比如NFS或SAMBA文件服务器,没有任何一个管理员会把内部网的文件服务器的IP地址弄很多个来解决网络负载的问题。
如果在内网中,文件服务器为了管理和应用上的方便,大多是用同一个IP地址。
对于一个百M的本地网络来说,文件服务器在多个用户同时使用的情况下,网络压力是极大的,特别是SAMABA和NFS服务器。
为了解决同一个IP地址,突破流量的限制,毕竟网线和网卡对数据的吞吐量是有限制的。
如果在有限的资源的情况下,实现网络负载均衡,最好的办法就是 bonding2、网络冗余对于服务器来说,网络设备的稳定也是比较重要的,特别是网卡。
在生产型的系统中,网卡的可靠性就更为重要了。
在生产型的系统中,大多通过硬件设备的冗余来提供服务器的可靠性和安全性,比如电源。
bonding 也能为网卡提供冗余的支持。
把多块网卡绑定到一个IP地址,当一块网卡发生物理性损坏的情况下,另一块网卡自动启用,并提供正常的服务,即:默认情况下只有一块网卡工作,其它网卡做备份三、bonding实验环境及配置1、实验环境系统为:CentOS,使用4块网卡(eth0、eth1 ==> bond0;eth2、eth3 ==> bond1)来实现bonding技术2、bonding配置第一步:先查看一下内核是否已经支持bonding1)如果内核已经把bonding编译进内核,那么要做的就是加载该模块到当前内核;其次查看ifenslave该工具是否也已经编译modprobe -l bond*或者 modinfo bondingmodprobe bondinglsmod | grep 'bonding'echo 'modprobe bonding &> /dev/null' >> /etc/rc.local(开机自动加载bonding模块到内核)which ifenslave注意:默认内核安装完后就已经支持bonding模块了,无需要自己手动编译2)如果bonding还没有编译进内核,那么要做的就是编译该模块到内核(1)编译bondingtar -jxvf kernel-XXX.tar.gzcd kernel-XXXmake menuconfig选择 " Network device support " -> " Bonding driver support "make bzImagemake modules && make modules_installmake install(2)编译ifenslave工具gcc -Wall -O -I kernel-XXX/include ifenslave.c -o ifenslave第二步:主要有两种可选择(第1种:实现网络负载均衡,第2种:实现网络冗余)例1:实现网络冗余(即:mod=1方式,使用eth0与eth1)(1)编辑虚拟网络接口配置文件(bond0),并指定网卡IPvi /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0ONBOOT=yesBOOTPROTO=staticIPADDR=192.168.0.254BROADCAST=192.168.0.255NETMASK=255.255.255.0NETWORK=192.168.0.0GATEWAY=192.168.0.1USERCTL=noTYPE=Ethernet注意:建议不要指定MAC地址vi /etc/sysconfig/network-scripts/ifcfg-eth0DEVICE=eth0BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0SLAVE=yes注意:建议不要指定MAC地址vi /etc/sysconfig/network-scripts/ifcfg-eth1DEVICE=eth1BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0SLAVE=yes注意:建议不要指定MAC地址(2)编辑模块载入配置文件(/etc/modprobe.conf),开机自动加载bonding模块到内核vi /etc/modprobe.confalias bond0 bondingoptions bond0 miimon=100 mode=1alias net-pf-10 off #关闭ipv6支持说明:miimon是用来进行链路监测的。
冗余网络配置实验报告冗余网络配置实验是网络工程中一种重要的设计和实施手段,旨在提高网络的可靠性和稳定性。
本文将从网络冗余的原理、冗余网络的常见形式、实验过程和结果分析等方面进行详细论述。
一、冗余网络的原理冗余网络是通过在网络中增加冗余路径,以提高网络的可靠性和稳定性。
冗余路径即备用路径,当主路径出现故障时,备用路径能够接替主路径的功能,保证网络的连通性。
冗余网络的基本原理是采用备份路径,将网络流量在不同的路径上进行传输,提高了网络的容错能力,减少网络发生故障时网络中断的可能性。
二、冗余网络的常见形式冗余网络可以采用多种形式来实现,常见的几种形式包括:主备式、主主式、冗余链式和冗余环状式。
1. 主备式:主备式是指在网络中设置主路径和备用路径,当主路径发生故障时,备用路径可以接替主路径的功能。
主备式可以简单实现,但是备用路径的利用率较低,效率较低。
2. 主主式:主主式是指设置多个主路径,当其中一个主路径发生故障时,其他主路径可以继续工作。
主主式可以提高网络的可用性,但是配置和管理复杂度较高。
3. 冗余链式:冗余链式是指设置多个路径形成链式结构,当其中一条路径故障时,链式结构中的其他路径可以继续进行数据传输。
冗余链式相对简单,但是链式中的每条路径都是关键路径,一旦出现故障会导致整个链式中断。
4. 冗余环状式:冗余环状式是指设置多个路径形成环状结构,当环状结构中的一条路径故障时,其他路径可以绕过故障路径继续进行数据传输。
冗余环状式相对复杂,但是具有良好的容错能力和高利用率。
三、冗余网络的实验过程本次实验的目的是验证冗余网络对网络可靠性和稳定性的提升效果,实验过程如下:1. 实验准备:准备实验所需要的网络设备和材料,并确保设备的正常运行状态。
2. 实验拓扑设计:根据实验要求,设计适合的网络拓扑结构。
可以选择主备式、主主式、冗余链式或冗余环状式等形式。
3. 网络配置:根据拓扑结构,配置网络设备的相关参数和路径设置。
Broadcom网卡绑定教程组功能用于将任何可用的网络设备组合在一起,以用作一个组。
组是一种创建虚拟局域网(用作单个设备的一组设备)的方法。
此方法的优点是能够实现负载平衡和故障转移。
组通过 Broadcom Advanced Serve r Program 软件来完成。
有关组软件技术和实施注意事项的综合描述,请参见Broadcom NetXtreme 57XX 用户指南中的“Broadcom Gigabit Ethernet 组服务”一节。
注:∙有关组协议的更多信息,请参见Broadcom NetXtreme 57XX 用户指南中的组。
∙在配置组时,如果您未启用 LiveLink™,则建议您在交换机禁用生成树协议 (STP)。
这在故障转移时将由于确定生成树环的停机时间降到了最少。
LiveLink 可以减轻此类问题的严重程度。
∙仅在服务器安装了一个或多个 Broadcom Ethernet 控制器时 BASP 才可用。
∙只有在组中所有成员均支持并且已配置 LSO 和 Checksum Offload 属性的情况下,系统才会自动启用 Large Send Offload (LSO) 和 Checksum Offload 属性。
∙您必须具有管理员权限才能创建或修改组。
∙组环境(组中成员的连接速度各不相同)中的负载平衡算法会优先计算通过 Gigabit Ethernet 链路连接的成员,然后才会计算使用低速链路(100 Mbps 或 10 Mbps)连接的成员,直至达到阈值。
这是很正常的行为。
您可以创建 4 种类型的负载平衡组:智能负载平衡™和故障转移:在这种类型的组中,如果所有负载平衡成员均出现故障,备用成员将处理通信量(故障转移事件)。
必须是在所有负载平衡成员均出现故障之后,备用成员才会接管通信量。
当一个或多个负载平衡成员恢复(回归)时,恢复的组成员重新开始处理通信量。
只有此类型的组才支持 LiveL ink 功能。
手把手教你实现服务器的双网卡冗余手把手教你实现服务器的双网卡冗余在过去的几篇文章中,我们讨论了一些网卡的理论知识。
接下来,我们就要借助亿时空服务器SX1242平台来实地操作,说明如何实现服务器的双网卡冗余,实现负载均衡。
我们前几天也曾经简单的说到服务器的冗余技术,包括服务器的内存、硬盘、电源、网卡等。
据我所知,服务器里面,除了CPU和主板不能实现冗余外,其余在一定条件下都能做到冗余。
这次我们就一步一步,来实现网卡的冗余功能。
从配置上看,CPU为四核XEON5335,服务器的网卡,也是集成在主板上的,但是不要认为集成的就不好。
网卡好还是不好,主要看采用的芯片,根据亿时空技术人员的说明,亿时空SX1242服务器,采用的是intel 82563EB网络控制器,属于英特尔“Dempsey”平台的组成部分,支持英特尔最新的I/O加速技术,当然,也支持网卡绑定技术了。
详细配置列表其实双网卡冗余技术,并非是高深莫测,只要稍懂一些PC技术就可以搞定,做起来非常容易。
网卡负载均衡,通常就是我们说的网卡冗余,也叫网卡绑定,这一功能即使实现两块或者2块以上(但是有上限的)网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,简单的的说就是这些绑定的网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。
这个过程也就像是磁盘阵列的RAID1的形式。
网卡冗余技术是一种在服务器和交换机之间建立冗余连接的技术,亦即在服务器上安装两块网卡,一块为主网卡,另一块作为备用网卡,然后用两根网线将两块网卡都连到交换机上。
网卡冗余技术(AFT)的基本工作过程是,当在服务器上装配两块网卡后,AFT技术就能把这两块网卡当作一个网卡工作组来对待,一块为主网卡,另一块为备用网卡。
当主网卡工作时,软件通过备用网卡对主网卡及连接状态时刻进行监测,即采用一种发送特殊设计的“试探包”的方法来进行的监测。
若连接失效,“试探包”便无法送达主网卡,智能软件发现此情况后,立即将工作(包括MAC网络地址)移交给备用网卡。