DNS服务器LVS方式负载均衡部署与测试
- 格式:docx
- 大小:225.42 KB
- 文档页数:14
服务器负载均衡的原理和实现方式服务器负载均衡是指在网络服务器集群中,通过某种策略将客户端的请求分发到多台服务器上,以达到均衡服务器负载、提高系统性能和可靠性的目的。
本文将介绍服务器负载均衡的原理和实现方式。
一、负载均衡的原理1.1 负载均衡的作用在网络服务器集群中,随着用户数量和访问量的增加,单台服务器可能无法满足所有用户的请求,容易导致服务器负载过高、性能下降甚至宕机。
负载均衡的作用就是通过将用户请求分发到多台服务器上,使得每台服务器的负载相对均衡,提高系统的整体性能和可靠性。
1.2 负载均衡的原理负载均衡的原理主要包括以下几个方面:(1)请求分发:负载均衡设备接收到用户的请求后,根据预先设定的负载均衡算法,将请求分发到服务器集群中的某一台服务器上处理。
(2)健康检测:负载均衡设备会对服务器集群中的每台服务器进行健康检测,监测服务器的负载情况、性能状态等,以确保只有正常工作的服务器参与请求处理。
(3)负载均衡算法:常见的负载均衡算法包括轮询算法、加权轮询算法、最小连接数算法、最小响应时间算法等,不同的算法适用于不同的场景,可以根据实际需求选择合适的算法。
1.3 负载均衡的优势负载均衡技术能够提供以下几方面的优势:(1)提高系统性能:通过将请求分发到多台服务器上,有效减轻单台服务器的负载压力,提高系统的整体性能。
(2)提高系统可靠性:当某台服务器发生故障时,负载均衡设备可以自动将请求转发到其他正常工作的服务器上,保证系统的可靠性。
(3)扩展系统规模:通过增加服务器数量,可以灵活扩展系统的规模,应对不断增长的用户请求。
二、负载均衡的实现方式2.1 硬件负载均衡硬件负载均衡是通过专门的负载均衡设备(如F5、CISCO等)来实现的,这些设备具有强大的处理能力和丰富的负载均衡算法,能够有效地分发用户请求并监控服务器状态。
硬件负载均衡通常适用于大型网络环境,能够提供高性能和高可靠性的负载均衡服务。
2.2 软件负载均衡软件负载均衡是通过在普通服务器上安装负载均衡软件来实现的,常见的软件负载均衡方案包括Nginx、HAProxy、LVS等。
LVS验证步骤一、概述LVS(Linux Virtual Server)是一种高性能的负载均衡解决方案,用于将网络服务流量分发到多个服务器,以提高整体性能和可用性。
LVS通过运行在服务器和客户端之间的调度器来管理网络连接,并将客户端的请求分发到不同的后端服务器。
要确保LVS正常工作并实现最佳性能,验证步骤至关重要。
本文将介绍LVS验证的基本步骤,以确保您的系统配置正确并正常运行。
二、验证步骤1.确认LVS安装与配置首先,确保您已经正确安装了LVS软件包,并且已经按照您的需求进行了适当的配置。
检查您的配置文件,如/etc/lvs/lvs.conf和/etc/lvs/nat.conf,确保所有的IP地址、端口和其他关键设置都是正确的。
在安装或配置过程中可能出现的任何错误或不一致都会影响LVS的性能和稳定性。
2.检查网络连接性验证所有后端服务器和客户端是否可以相互通信。
可以通过ping命令或使用traceroute命令来测试网络连通性。
如果存在任何通信问题,请检查网络设备(如路由器和交换机)的配置,并确保所有设备都已正确配置并运行正常。
3.检查服务器状态和响应时间使用如curl或wget之类的工具,测试每个后端服务器的响应时间和服务状态。
这将确保服务器可以正常响应请求,并且不会对LVS的性能产生负面影响。
如果发现任何服务器响应缓慢或无法访问,请检查服务器的状态和日志,以确定并解决问题。
4.测试LVS调度算法LVS支持多种调度算法,包括轮询(Round Robin)、加权轮询(Weighted Round Robin)和最小连接数(Least Connections)等。
确保您选择的算法符合您的业务需求,并测试算法的性能。
您可以使用如ipvsadm或lvsadmin之类的工具来查看LVS的当前状态和调度算法的统计数据。
根据需要调整权重或算法设置,以确保最佳性能。
5.测试负载均衡器健康状况负载均衡器是LVS架构中的关键组件,负责接收客户端请求并将其转发到后端服务器。
服务器负载均衡实验报告
在进行服务器负载均衡实验时,我们首先需要明确什么是服务器负
载均衡。
服务器负载均衡是一种通过将工作负载分配到多台服务器上,以提高网站性能和可靠性的技术。
通过实验,我们可以验证负载均衡
器的工作原理、性能以及对系统整体的影响。
首先,我们需要搭建一个包含多台服务器和负载均衡器的实验环境。
在实验环境中,我们可以使用虚拟化技术来模拟多台服务器,并选择
合适的负载均衡算法来分配流量。
常见的负载均衡算法包括轮询、最
少连接、最快响应等。
其次,我们可以通过模拟不同的负载情况来测试负载均衡器的性能。
例如,可以模拟多个用户同时访问网站、突发流量增加等情况,观察
负载均衡器的负载分配是否均衡,是否能够有效地应对突发流量。
另外,我们还可以测试负载均衡器的高可用性。
通过模拟某台服务
器宕机或者网络故障的情况,观察负载均衡器是否能够及时发现故障
节点并将流量自动重定向到其他正常节点,以保证系统的可用性和稳
定性。
除了性能和可靠性方面的测试,我们还可以对负载均衡器的安全性
进行评估。
通过模拟网络攻击、DDoS攻击等情况,观察负载均衡器对
恶意流量的过滤和防护能力,保证系统的安全性。
通过以上实验,我们可以全面评估负载均衡器的性能、可靠性、安
全性等方面的表现,为实际生产环境中的负载均衡器的选择和部署提
供参考。
同时,及时发现和解决问题,提高系统的性能和稳定性,确保系统能够稳定、高效地运行。
负载均衡配置方法在现代的计算机系统中,负载均衡是保证高性能和可靠性的重要因素之一。
通过合理的负载均衡配置,可以最大程度地利用系统资源,提高系统响应速度和可扩展性。
本文将介绍一些常见的负载均衡配置方法,帮助您更好地理解和应用负载均衡技术。
一、负载均衡概述负载均衡是一种通过在多个服务器之间分配工作负载,以达到提高系统性能和可用性的技术。
它可以确保每台服务器都能够平均分担任务,避免单个服务器过载,从而提高系统的整体性能。
二、硬件负载均衡配置方法硬件负载均衡通常通过专门的硬件设备来实现,如负载均衡器。
以下是一些常用的硬件负载均衡配置方法:1. 服务器冗余:在配置硬件负载均衡之前,建议先将系统中的服务器设置为冗余模式。
这意味着将每个功能模块配置为备份模式,以确保在故障发生时可以无缝切换到备份服务器。
2. 负载均衡器选择:根据实际需求选择适当的负载均衡器。
常见的负载均衡器有硬件负载均衡器和软件负载均衡器。
硬件负载均衡器通常具有更高的性能和可靠性,但价格较高。
软件负载均衡器则更加灵活和经济实惠。
3. 负载均衡算法选择:负载均衡器通常使用一些算法来决定如何将任务分配给服务器。
常见的算法有轮询、最小连接和最少响应时间等。
根据应用场景的特点选择合适的负载均衡算法,以确保任务能够平均分配给服务器,并提高整体性能。
4. 健康检查和故障恢复:负载均衡器通常会周期性地检查服务器的健康状态,以便及时发现故障和性能问题。
一旦发现故障,负载均衡器将自动将任务重新分配给其他正常工作的服务器,并通过故障恢复机制尽快恢复故障服务器的功能。
三、软件负载均衡配置方法除了硬件负载均衡器,还可以使用软件来实现负载均衡。
以下是一些常用的软件负载均衡配置方法:1. 反向代理:通过将负载均衡器配置为反向代理服务器,可以将客户端的请求分发给多个后端服务器。
反向代理服务器可以根据不同的策略选择请求目标服务器,并将响应返回给客户端。
2. DNS负载均衡:通过在DNS服务器中配置多个IP地址,可以将客户端的请求平均分配给这些IP地址,并最终分发到不同的服务器。
服务器负载均衡方案第1篇服务器负载均衡方案一、背景随着互联网的迅速发展,业务量不断攀升,服务器承受的压力越来越大。
为保障业务连续性和用户体验,提高服务器资源利用率,降低单点故障风险,有必要引入服务器负载均衡技术。
本方案旨在制定一套合法合规的服务器负载均衡方案,确保业务稳定、高效运行。
二、目标1. 提高服务器资源利用率,降低硬件投资成本。
2. 确保业务连续性,提高系统可用性。
3. 提升用户体验,降低访问延迟。
4. 合法合规,确保数据安全。
三、方案设计1. 负载均衡器选型根据业务需求,选择合适的负载均衡器。
本方案推荐使用硬件负载均衡器,如F5、深信服等品牌。
硬件负载均衡器具有高性能、高可靠性、易于管理等优点,适用于大型企业及重要业务场景。
2. 负载均衡策略(1)轮询(Round Robin)将客户端请求按顺序分配到后端服务器,适用于服务器性能相近的场景。
(2)最小连接数(Least Connections)将客户端请求分配给当前连接数最少的服务器,适用于服务器性能不均的场景。
(3)源地址哈希(Source Hash)根据客户端IP地址进行哈希计算,将请求分配到固定的服务器,适用于有状态业务场景。
(4)权重(Weight)为每台服务器分配不同的权重,根据权重比例分配请求,适用于服务器性能差异较大的场景。
3. 健康检查负载均衡器定期对后端服务器进行健康检查,确保服务器正常运行。
检查方式包括:TCP连接、HTTP请求等。
当检测到服务器故障时,自动将其从负载均衡列表中剔除,待服务器恢复正常后,重新加入负载均衡列表。
4. 会话保持为保持用户会话状态,负载均衡器支持会话保持功能。
可根据业务需求选择以下方式:(1)源地址保持:根据客户端IP地址保持会话。
(2)Cookie保持:根据客户端Cookie信息保持会话。
5. 安全防护(1)负载均衡器支持SSL加密,确保数据传输安全。
(2)负载均衡器支持防火墙功能,对非法请求进行过滤,防止恶意攻击。
网络负载均衡性能测试说明网络负载均衡性能测试说明一、引言网络负载均衡是一种通过在多个服务器之间分发网络请求,从而均衡服务器负载的技术。
在现代互联网应用中,负载均衡是非常重要的,因为它可以提高应用的可用性、可扩展性和性能。
为了保证网络负载均衡的有效性和稳定性,需要进行性能测试来验证负载均衡器的性能指标。
本文将详细介绍网络负载均衡性能测试的过程和要点。
二、性能测试目标网络负载均衡性能测试的主要目标是评估负载均衡器在不同负载条件下的性能。
具体包括以下几个方面:1. 吞吐量:即单位时间内处理的请求数量,用来评估负载均衡器的处理能力。
2. 响应时间:即请求发送到接收到响应的时间间隔,用来评估负载均衡器的响应效率。
3. 负载均衡算法的有效性:通过检查负载均衡器是否能够实现请求的分发和均衡,评估其负载均衡算法的有效性。
三、测试环境准备在进行网络负载均衡性能测试之前,需要准备一个模拟的测试环境,包括以下几个方面:1. 负载均衡器:选择一款成熟的负载均衡器作为被测对象。
可以选择开源的负载均衡器,如Nginx、HAProxy等,也可以选择商业的负载均衡器,如F5、Citrix等。
2. 后端服务器:至少需要两台具有相同配置的服务器,用于模拟负载均衡器的负载分发。
3. 网络环境:搭建一个稳定的内网环境,确保负载均衡器与后端服务器之间的网络连接畅通。
四、性能测试方法网络负载均衡性能测试可以使用开源的工具来进行,如Apache JMeter、wrk等。
测试步骤如下:1. 配置测试场景:在性能测试工具中配置测试场景,包括请求的URL、请求的并发数、请求的数量等。
可以根据实际情况选择不同的测试场景。
2. 启动性能测试工具:启动性能测试工具开始测试,并记录测试过程中的性能指标,如吞吐量、响应时间等。
3. 监控负载均衡器和后端服务器:使用性能监控工具监控负载均衡器和后端服务器的各项指标,如CPU使用率、内存使用率、网络流量等。
可以通过监控指标来评估负载均衡器和后端服务器的负载情况。
负载均衡测试方案负载均衡是在计算机网络中常用的技术,它的作用是分摊网络服务器的工作负载,确保每台服务器都能得到合理的负载,从而提高系统的性能和可靠性。
为了保证负载均衡的有效运行,测试方案是必不可少的一环。
本文将介绍一种负载均衡测试方案,包含测试目标、测试环境、测试用例和测试工具等内容。
一、测试目标负载均衡测试的目标是验证负载均衡系统是否能够实现预期的功能和性能要求。
具体而言,测试目标包括以下几个方面:1. 功能测试:验证负载均衡系统是否能够正确地将请求分发给后端服务器,并能够根据服务器的负载情况动态调整请求的分发策略。
2. 性能测试:测试负载均衡系统在不同负载条件下的性能表现,包括请求响应时间、吞吐量和并发连接数等。
3. 可靠性测试:测试负载均衡系统在大并发情况下的稳定性和可靠性,包括故障转移、容错能力和负载均衡策略的正确性等。
二、测试环境搭建一个逼近真实生产环境的测试环境是负载均衡测试的基础。
测试环境需要包括多个相同配置的后端服务器、一个负载均衡设备和一个用于模拟用户请求的测试工具。
同时,还需要一个用于监测服务器负载情况的性能监控工具。
三、测试用例测试用例是负载均衡测试的核心内容,它们描述了测试过程中需要执行的操作和预期结果。
测试用例应该覆盖各个方面的功能和性能要求,包括但不限于以下几个方面:1. 正常请求分发:测试负载均衡系统是否能够正确地将请求分发给后端服务器,并确保每个服务器获得的请求数大致相等。
2. 异常请求分发:测试负载均衡系统在后端服务器故障或不可用时的请求处理策略,包括故障转移和容错机制。
3. 负载均衡策略测试:测试不同负载均衡策略在不同负载条件下的表现,比较它们的性能和效果。
4. 性能测试:测试负载均衡系统在不同负载条件下的性能表现,包括请求响应时间、吞吐量和并发连接数等。
四、测试工具选择合适的测试工具对负载均衡系统进行压力测试和性能测试是非常重要的。
以下是一些常用的测试工具:1. Apache JMeter:一个功能强大的开源性能测试工具,可用于模拟大规模用户请求并监测系统的性能。
负载均衡器的部署与配置教程一、引言在当今互联网时代,许多企业和网站面临着大量用户访问的压力。
为了提高系统的可靠性和性能,负载均衡器成为了不可或缺的一环。
本文将介绍负载均衡器的部署与配置教程,以帮助读者更好地理解和应用负载均衡技术。
二、什么是负载均衡器负载均衡器是一种用于平衡网络流量的设备或软件。
它将传入的用户请求分摊到多个服务器上,以保证各个服务器的负载均衡。
负载均衡器通过使用各种算法,如轮询、加权轮询、最小连接数等,将请求分发到可用服务器上,从而提高系统的可用性和性能。
三、负载均衡器的部署1. 设定负载均衡器的网络拓扑在部署负载均衡器之前,需要确定网络拓扑结构。
一般来说,负载均衡器位于前端,用户访问负载均衡器,然后负载均衡器再将请求分发给后端的多个服务器。
2. 选择适合的负载均衡器软件或设备根据业务需求和预算,可以选择自建负载均衡器软件或购买商用的负载均衡器设备。
常见的负载均衡器软件包括Nginx、HAProxy等;常见的负载均衡器设备包括F5、Citrix等。
3. 部署并配置负载均衡器根据所选择的负载均衡器软件或设备的文档,进行相应的部署和配置。
通常的步骤包括安装软件或设备、设置监听端口、配置后端服务器和负载均衡算法等。
四、负载均衡器的配置1. 设置监听端口负载均衡器监听指定的端口,将用户请求分发给后端服务器。
可以根据实际需要设置监听端口,如HTTP协议的80端口、HTTPS协议的443端口等。
2. 配置后端服务器将后端服务器添加到负载均衡器的服务器池中。
可以手动添加服务器的IP地址和端口,也可以通过域名解析自动发现服务器。
在配置后端服务器时,可以为每个服务器设置权重,以便更灵活地控制流量的分发。
3. 选择负载均衡算法负载均衡器根据负载均衡算法将请求分发到后端服务器。
常见的负载均衡算法有轮询、加权轮询、最小连接数等。
根据实际业务需求选择合适的负载均衡算法。
4. 设置健康检查负载均衡器通过健康检查来确定后端服务器的可用性。
LVS测试小结1.测试目标 (1)2.测试结果 (1)3.测试过程 (3)3.1 DR流量测试 (3)3.2 NAT流量测试 (6)3.3 TUN流量测试 (7)1.测试目标LVS中有三种负载均衡模式,本次测试的侧重点如下:1)DR/TUN模式下客户端和服务器端(包含Director、Realserver)之间是否存在路由设置,即网络是否可达?2)三种模式下文件传输时的流量?3)哪种模式适合iCAS架构?4)小结2.测试结果通过对LVS三种模式(DR、NAT、TUN)的流量测试,得出以下结果:1)DR模式下,Director转发所有的Client请求到集群内的节点(Realserver),集群节点直接向客户端计算机发回应答(应答不再经过Director)。
所以,客户端和服务器端(包含Director、Realserver)之间是存在路由设置的。
TUN模式与DR的区别是在请求时采用了IP Tunneling技术做了IP封装,响应时是Realserver直接(或通过路由器)将报文发送到客户端,所以客户端和服务器端(包含Director、Realserver)之间也是存在路由设置的。
2)流量测试结果如下:DR模式下平均流量值:传输方式Director(In)Director(Out) Realserver(In) Realserver(Out) Client->Realserver(上传) 0.16M/S 0.16M/S 0.16M/S --Client<-Realserver(下载)0.16M/S 0.16M/S 0.16M/S 8.5M/S Client->Director(上传)11.5M/S 0.16M/S -- --NAT模式下平均流量值:传输方式Director(In)Director(Out) Realserver(In) Realserver(Out) Client->Realserver(上传) 0.16M/S 0.16M/S 0.16M/S --Client<-Realserver(下载) 6.8M/S 6.8M/S -- 6.8M/S Client->Director(上传)11.5M/S 0.16M/S -- --TUN模式下平均流量值与DR基本相同。
DNS服务器LVS方式负载均衡部署与测试测试环境:本测试方案采用LVS(DR)+Keepalived部署高可用的DNS服务集群。
主机IP划分:Master-LB:192.168.100.70Backup-LB:192.168.100.30RS1:192.168.100.40RS2:192.168.100.60Clinet:192.168.100.200拓扑图:LB-2:192.168.100.30Backup LB-1:192.168.100.70Master DNS-RS1:192.168.100.40DNS-RS2:192.168.100.601、配置Maste-LB 服务器:1、 安装ipvsadm ;yum install ipvsadm* -y2、 安装keepalivedyum install keepalived -y3、 配置配置keepalived#cat /etc/keepalived/keepalived.conf! Configuration File for keepalivedglobal_defs {notification_email {****************}**************************************************** smtp_server 127.0.0.1smtp_connect_timeout 30router_id LVS_1}vrrp_instance VI_1 {state MASTERinterface eth1virtual_router_id 50priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.100.100}}virtual_server 192.168.100.100 53 {delay_loop 1lb_algo rrlb_kind DRnat_mask 255.255.255.255!persistence_timeout 50protocol UDPreal_server 192.168.100.40 53 {weight 1MISC_CHECK {misc_path "/usr/bin/dig -************************************.100.40+time=1+tries=5+fail>/dev/null"misc_timeout 6}}real_server 192.168.100.60 53 {weight 1MISC_CHECK {misc_path "/usr/bin/dig -************************************.100.60+time=1+tries=5+fail>/dev/null"misc_timeout 6}}}vrrp_instance VI_2 {state MASTERinterface eth1virtual_router_id 52priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.100.100}}virtual_server 192.168.100.100 53 { delay_loop 1lb_algo rrlb_kind DRnat_mask 255.255.255.255!persistence_timeout 50protocol TCPreal_server 192.168.100.40 53 {weight 1TCP_CHECK {connect_timeout 5nb_get_retry 3connect_port 53}}real_server 192.168.100.60 53 {weight 1TCP_CHECK {connect_timeout 5nb_get_retry 3connect_port 53}}}4、启动keepalived的服务service keepalived restart5、查看配置是否生效# ipvsadm –Ln[root@localhost ~]# ipvsadm -LnIP Virtual Server version 1.2.1 (size=4096)Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 0-> 192.168.100.60:53 Route 1 0 0UDP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 0 -> 192.168.100.60:53 Route 1 0 02、配置Backup-LB服务器:1、安装ipvsadm;yum install ipvsadm* -y2、安装keepalivedyum install keepalived -y3、配置配置keepalived#cat /etc/keepalived/keepalived.conf! Configuration File for keepalivedglobal_defs {notification_email {****************}****************************************************smtp_server 127.0.0.1smtp_connect_timeout 30router_id LVS_2}vrrp_instance VI_1 {state BACKUPinterface eth1virtual_router_id 50priority 90advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.100.100}}virtual_server 192.168.100.100 53 {delay_loop 1lb_algo rrlb_kind DRnat_mask 255.255.255.255!persistence_timeout 50protocol UDPreal_server 192.168.100.40 53 {weight 1MISC_CHECK {misc_path "/usr/bin/dig -************************************.100.40+time=1+tries=5+fail>/dev/null"misc_timeout 6}}real_server 192.168.100.60 53 {weight 1MISC_CHECK {misc_path "/usr/bin/dig -************************************.100.60+time=1+tries=5+fail>/dev/null"misc_timeout 6}}}vrrp_instance VI_2 {state BACKUPinterface eth1virtual_router_id 52priority 90advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {192.168.100.100}}virtual_server 192.168.100.100 53 { delay_loop 1lb_algo rrlb_kind DRnat_mask 255.255.255.255!persistence_timeout 50protocol TCPreal_server 192.168.100.40 53 {weight 1TCP_CHECK {connect_timeout 5nb_get_retry 3connect_port 53}}real_server 192.168.100.60 53 {weight 1TCP_CHECK {connect_timeout 5nb_get_retry 3connect_port 53}}}4、启动keepalived的服务service keepalived restart5、查看配置是否生效# ipvsadm –Ln[root@localhost ~]# ipvsadm -LnIP Virtual Server version 1.2.1 (size=4096)Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port Forward Weight ActiveConn InActConnTCP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 0-> 192.168.100.60:53 Route 1 0 0UDP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 0-> 192.168.100.60:53 Route 1 0 0 3、配置DNS-RS1与DNS-RS2:1、配置安装并配置DNS服务,并确保DNS服务能正常工作;2、在每一台REALSERVER上执行如下脚本#!/bin/bash#description : Start Real ServerVIP=192.168.100.100. /etc/rc.d/init.d/functionscase "$1" instart)echo " Start LVS of Real Server"/sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 upecho "1" >/proc/sys/net/ipv4/conf/lo/arp_ignoreecho "2" >/proc/sys/net/ipv4/conf/lo/arp_announceecho "1" >/proc/sys/net/ipv4/conf/all/arp_ignoreecho "2" >/proc/sys/net/ipv4/conf/all/arp_announce;;stop)/sbin/ifconfig lo:0 downecho "close LVS Director server"echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignoreecho "0" >/proc/sys/net/ipv4/conf/lo/arp_announceecho "0" >/proc/sys/net/ipv4/conf/all/arp_ignoreecho "0" >/proc/sys/net/ipv4/conf/all/arp_announce;;*)echo "Usage: $0 {start|stop}"exit 1esac4、测试结果:[root@localhost ~]# ipvsadm -LnIP Virtual Server version 1.2.1 (size=4096)Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port Forward Weight ActiveConn InActConnTCP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 34-> 192.168.100.60:53 Route 1 0 35UDP 192.168.100.100:53 rr-> 192.168.100.40:53 Route 1 0 6-> 192.168.100.60:53 Route 1 0 6故障转移:Aug 13 22:55:52 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Transition to MASTER STATEAug 13 22:55:52 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Transition to MASTER STATEAug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Entering MASTER STATEAug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) setting protocol VIPs.Aug 13 22:55:53 centos6 Keepalived_healthcheckers[52500]: Netlink reflector reports IP 192.168.100.100 addedAug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Sending gratuitous ARPs on eth1 for 192.168.100.100 Aug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Entering MASTER STATEAug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) setting protocol VIPs.Aug 13 22:55:53 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1 for 192.168.100.100 Aug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Received higher prio advertAug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Entering BACKUP STATEAug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) removing protocol VIPs.Aug 13 22:55:56 centos6 Keepalived_healthcheckers[52500]: Netlink reflector reports IP 192.168.100.100 removedAug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Received higher prio advertAug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Entering BACKUP STATEAug 13 22:55:56 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) removing protocol VIPs.Aug 13 22:55:56 centos6 Keepalived_vrrp[52501]: Netlink: error: Cannot assign requested address, type=(21), seq=1407932349, pid=0 Aug 13 22:56:00 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Transition to MASTER STATEAug 13 22:56:00 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Transition to MASTER STATEAug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Entering MASTER STATEAug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) setting protocol VIPs.Aug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Sending gratuitous ARPs on eth1 for 192.168.100.100Aug 13 22:56:01 centos6 Keepalived_healthcheckers[52500]: Netlink reflector reports IP 192.168.100.100 addedAug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Entering MASTER STATEAug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) setting protocol VIPs.Aug 13 22:56:01 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1 for 192.168.100.100Aug 13 22:56:06 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_2) Sending gratuitous ARPs on eth1 for 192.168.100.100Aug 13 22:56:06 centos6 Keepalived_vrrp[52501]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1 for 192.168.10。