当前位置:文档之家› 一种用LVS技术实现Linux服务器负载均衡的方案(1)

一种用LVS技术实现Linux服务器负载均衡的方案(1)

一种用LVS技术实现Linux服务器负载均衡的方案(1)
一种用LVS技术实现Linux服务器负载均衡的方案(1)

一种用LVS技术实现Linux服务器负载均衡的方案

【内容提要】设计一个基于Linux的集群系统,打破在校园网中以单机为主的传统服务器方式,本文以一种利用LVS技术实现Linux服务器负载均衡为基石,构成一个高可扩展、高可用的操作平台。该系统能够提供负载平衡的功能,根据某种算法合理的把用户请求分配到集群中的每一台服务器上执行上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求,并以解决校园网服务器面临的大量并发访问造成的CPU或I/O的高负载问题。

【关键字】linux集群 lvs 负载均衡服务器集群

随着网络技术的发展和网络应用的进一步深入.校园网承担了越来越多的来自教学、科研以及管理方面的任务。校园网原有的单台服务器的并发处理能力及负载能力越来越无法满足需求,提高服务器性能已迫在眉睫。虽然重新购买新的性能更高的服务器是一种解决方法。但首先成本太高.其次是许多原有服务器仍然较新。各方面的性能指标良好.废弃不用将造成极大的资源浪费。运用Linux集群技术设计的方案可以有效地解决这一问题。

一、linux集群(Linux Cluster)

所谓集群是指一组独立的计算机系统构成的一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。

集群有以下特点:

(1)高可靠性(HA)。利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。

(2)高性能计算(HPC)。即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析、化学分析等。

(3)负载平衡(LB)。即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。网络的负载均衡是一种动态均衡技术,通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理均衡地分配出去。这种技术基于现有网络结构,提供了一种扩展服务器带宽和增加服务器吞吐量的廉价有效的方法,加强了网络数据处理能力,提高了网络的灵活性和可用性。

二、LVS系统结构与特点

(1) Linux Virtual Server:简称LVS。是由中国一个Linux程序员章文嵩博士发起和领导的,基于Linux系统的服务器集群解决方案,其实现目标是创建一个具有良好的扩展性、高可靠性、高性能和高可用性的体系。许多商业的集群产品,比如RedHat 的Piranha、 Turbo Linux公司的Turbo Cluster等,都是基于LVS的核心代码的。

(2)体系结构:使用LVS架设的服务器集群系统从体系结构上看是透明的,最终用户只感觉到一个虚拟服务器。物理服务器之间可以通过高速的 LAN或分布在各地的WAN相连。最前端是负载均衡器,它负责将各种服务请求分发给后面的物理服务器,让整个集群表现得像一个服务于同一IP地址的虚拟服务器。

(3)LVS的三种模式工作原理和优缺点:Linux Virtual Server主要是在负载

均衡器上实现的,负载均衡器是一台加了 LVS Patch内核的Linux系统。LVS Patch可以通过重新编译内核的方法加入内核,也可以当作一个动态的模块插入现在的内核中。

四、LVS负载均衡器可以运行在以下三种模式下:

(1) Virtual Server via NAT(VS-NAT):用地址翻译实现虚拟服务器。地址转换器有能被外界访问到的合法IP地址,它修改来自专有网络的流出包的地址。外界看起来包是来自地址转换器本身,当外界包送到转换器时,它能判断出应该将包送到内部网的哪个节点。优点是节省IP 地址,能对内部进行伪装;缺点是效率低,因为返回给请求方的流量经过转换器。

(2) Virtual Server via IP Tunneling (VS-TUN):用IP隧道技术实现虚拟服务器。这种方式是在集群的节点不在同一个网段时可用的转发机制,是将IP包封装在其他网络流量中的方法。为了安全的考虑,应该使用隧道技术中的VPN,也可使用租用专线。集群所能提供的服务是基于TCP/IP的Web服务、Mail服务、News服务、DNS 服务、Proxy服务器等等.

(3) Virtual Server via Direct Routing(VS-DR):用直接路由技术实现虚拟服务器。当参与集群的计算机和作为控制管理的计算机在同一个网段时可以用此法,控制管理的计算机接收到请求包时直接送到参与集群的节点。优点是返回给客户的流量不经过控制主机,速度快开销少。

五、LVS的负载调度算法

LVS集群通过IP负载均衡软件IPVS在内核中实现各种连接调度算法。针对请求的服务时间变化很大,给出一个动态反馈负载均衡算法,它结合内核中的加权连接调度算法,根据动态反馈回来的负载信息来调整服务器的权值,来进一步避免服务器间的负载不平衡。在内核中的连接调度算法上,IPVS已实现了以下八种调度算法:(1)轮叫调度(Round-Robin Scheduling)

轮叫调度(Round Robin Scheduling,简称RR)算法就是以轮叫的方式依次将请求调度不同的服务器,即每次调度执行i = (i + 1) mod n,并选出第i台服务器。算法的优点是其简洁性,它无需记录当前所有连接的状态,所以它是一种无状态调度。

(2)加权轮叫调度(Weighted Round-Robin Scheduling)

加权轮叫调度(Weighted Round-Robin Scheduling,简称WRR)算法可以解决服务器间性能不一的情况,它用相应的权值表示服务器的处理性能,服务器的缺省权值为1。假设服务器A的权值为1,B的权值为2,则表示服务器B的处理性能是A的两倍。加权轮叫调度算法是按权值的高低和轮叫方式分配请求到各服务器。权值高的服务器先收到的连接,权值高的服务器比权值低的服务器处理更多的连接,相同权值的服务器处理相同数目的连接数。

(3)最小连接调度(Least-Connection Scheduling)

最小连接调度(Least-Connection Scheduling,简称LC)算法是把新的连接请求分配到当前连接数最小的服务器。最小连接调度是一种动态调度算法,它通过服务器当前所活跃的连接数来估计服务器的负载情况。调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加1;当连接中止或超时,其连接数减一。

(4)加权最小连接调度(Weighted Least-Connection Scheduling)

加权最小连接调度(Weighted Least-Connection Scheduling,简称WLC)算法是最小连接调度的超集,各个服务器用相应的权值表示其处理性能。服务器的缺省权值为

1,系统管理员可以动态地设置服务器的权值。加权最小连接调度在调度新连接时尽可能使服务器的已建立连接数和其权值成比例。

(5)基于局部性的最少链接(Locality-Based Least Connections Scheduling)基于局部性的最少链接调度(Locality-Based Least Connections Scheduling,简称LBLC)算法是针对请求报文的目标IP地址的负载均衡调度,目前主要用于Cache 集群系统,因为在Cache集群中客户请求报文的目标IP地址是变化的。这里假设任何后端服务器都可以处理任一请求,算法的设计目标是在服务器的负载基本平衡情况下,将相同目标IP地址的请求调度到同一台服务器,来提高各台服务器的访问局部性和主存Cache命中率,从而整个集群系统的处理能力。LBLC调度算法先根据请求的目标IP 地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于其一半的工作负载,则用“最少链接”的原则选出一个可用的服务器,将请求发送到该服务器。

(6)带复制的基于局部性最少链接(Locality-Based Least Connections with Replication Scheduling)

带复制的基于局部性最少链接调度(Locality-Based Least Connections with Replication Scheduling,简称LBLCR)算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。对于一个“热门”站点的服务请求,一台Cache 服务器可能会忙不过来处理这些请求。这时,LBLC 调度算法会从所有的Cache服务器中按“最小连接”原则选出一台Cache服务器,映射该“热门”站点到这台Cache服务器,很快这台Cache服务器也会超载,就会重复上述过程选出新的Cache服务器。这样,可能会导致该“热门”站点的映像会出现在所有的Cache服务器上,降低了Cache服务器的使用效率。LBLCR调度算法将“热门”站点映射到一组Cache服务器(服务器集合),当该“热门”站点的请求负载增加时,会增加集合里的Cache服务器,来处理不断增长的负载;当该“热门”站点的请求负载降低时,会减少集合里的Cache服务器数目。这样,该“热门”站点的映像不太可能出现在所有的Cache服务器上,从而提供Cache集群系统的使用效率。LBLCR算法先根据请求的目标IP地址找出该目标IP地址对应的服务器组;按“最小连接”原则从该服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器;若服务器超载;则按“最小连接”原则从整个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。

(7)目标地址散列调度(Destination Hashing Scheduling)

目标地址散列调度(Destination Hashing Scheduling,简称DH)算法也是针对目标IP地址的负载均衡,但它是一种静态映射算法,通过一个散列(Hash)函数将一个目标IP地址映射到一台服务器。目标地址散列调度算法先根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

(8)源地址散列调度(Source Hashing Scheduling)

源地址散列调度(Source Hashing Scheduling,简称SH)算法正好与目标地址散列调度算法相反,它根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。它采用的散列函数与目标地址散列调度算法的相同。它的算法流程与目标地址散列调度算法的基本相似,除了将请求的目标IP地址换成请求的源IP地址,所以这里

不一一叙述。在实际应用中,源地址散列调度和目标地址散列调度可以结合使用在防火墙集群中,它们可以保证整个系统的唯一出入口。

六、利用LVS技术对linux服务器负载均衡配置实例

三台计算机,一台Load Balancer安装Linux作负载均衡器,另两台Real Server 提供Web服务器为例,配置成负载均衡集群。Load Balancer真实地址:172.16.96.196,VIP地址(Virstual IP,也就是你的URL需要解析到的地址, 或者说是提供对外http 服务的IP)172.16.96.190 ,Realserver1:172.16.96.191 ,Realserver2:172.16.96.192 。

图1 基于LVS/DR方式的负载均衡集群

配置过程如下:

(1)安装Linux

Linux的发行版也有数多种,在这里,我们采用 CentOS 这个 Linux 发行版。CentOS (Community ENTerprise Operating System)是Linux发行版之一,它是来自于Red Hat Enterprise Linux依照开放源代码规定释出的源代码所编译而成。由于出自同样的源代码,因此有些要求高度稳定性的服务器以CentOS替代商业版的Red Hat Enterprise Linux使用。两者的不同,在于CentOS并不包含封闭源代码软件。本例用的Linux版本是CentOS-4.7-i386,并且使用中国科学技术大学centos镜像站点https://www.doczj.com/doc/c110710185.html,/centos 做yum升级源,按图1所示在每个服务器设置IP 地址。

VS/DR方式是通过改写请求报文中的MAC地址部分来实现的。Load Balancer和RealServer必需在物理上有一个网卡通过不间断的局域网相连。 RealServer上绑定的VIP配置在各自Non-ARP的网络设备上(如lo), Load Balancer的VIP地址对外可见,而 RealServer的VIP对外是不可见的。RealServer的地址即可以是内部地址,也可以是真实地址。

LB设置VIP:ifconfig eth0:0 172.16.96.190 255.255.255.0 up

RS1设置VIP:ifconfig lo:0 172.16.96.190 255.255.255.0 up

RS2设置VIP:ifconfig lo:0 172.16.96.190 255.255.255.0 up

(2)安装IPVS管理软件

LVS的配置是通过安装IP虚拟服务器软件ipvsadm来实现的。ipvsadm与LVS的关系类似于iptables和NetFilter的关系,前者只是一个建立和修改规则的工具,这些命令的作用在系统重新启动后就消失了,所以应该将这些命令写到一个脚本里,然后让它在系统启动后自动执行。在Load Banlancer上运行“yum install ipvsadm”进行安装。完成后运行“ipvsadm --help”如果看到帮助信息就表示安装成功。

(3)配置IPVS Table脚本

编写sh脚本如下:

VIP=172.16.96.190 #Vritual IP地址

RIP1=172.16.96.191 #Real Server 1 IP

RIP2=172.16.96.192 #Real Server 2 IP

GW=172.16.96.254 #Real Server 网关IP

#清除IPVS Table

ipvsadm -C

#设置IPVS Table

ipvsadm -A -t $VIP:443 -s wlc

ipvsadm -a -t $VIP:443 -r $RIP1:443 -g -w 1

ipvsadm -a -t $VIP:443 -r $RIP2:443 -g -w 1

#将IPVS Table保存到/etc/sysconfig/ipvsadm

/etc/rc.d/init.d/ipvsadm save

#启动IPVS

service ipvsadm start #启动ipvsadm服务

#显示IPVS状态

ipvsadm -l

#脚本结束----------------------------

该脚本配置IPVS Table,并将配置保存到/etc/sysconfig/ipvsadm文件中,以后修改IPVS TABLE可直接修改该脚本。配置完毕后执行service ipvsadm start启动IPVS,就完成了负载均衡器IPVS的配置。

(4) 安装并配置LDirectord

LDirectord进程定时检测各Real Server运行状态,当检测到某台Real Server 故障时,则将该Server从负载均衡调度列表删除,当恢复正常时再加入。ldirectord 需要你在真实服务器内启用apache服务器,并在每台真实服务器web服务器的根目录下建立你在配置文件所指定的文件与内容,然后ldirectord 通过循环检查此文件来确定

真实服务器是否存活,如果不存活,则自动将其权重设为0,以确保后面客户的连接不会再导向失效的真实服务器,如果真实服务修复上线后,则其又将它的权重设为以使它能够继续为客端连接提供服务。

运行“yum install heartdeat-ldirectord”进行安装。

ldirectord主要是通过调用ipvsadm来创建ipvs虚拟服务器heartbeat/ldirectord目录下有个ldirectord.cf文件。该文件是ldirectord的配置范例。

在/etc/ha.d/目录下新建一个ldirectord.cf文件,按配置范例格式进行配置,主要配置项如下:

checktimeout=3 #检测超时3s

checkinterval=1 #检测间隔1s

fallback=127.0.0.1:443 #所有服务器都故障时访问该服务器

autoreload=yes #配置文件改变时自动加载

logfile="/var/log/ldirectord.log" #日志文件

quiescent=yes

virtual=172.16.96.190:443 #虚拟IP

real=172.16.96.191:443 gate

real=172.16.96.192:443 gate

fallback=127.0.0.1:443 #所有服务器都故障时访问该服务器

service=none

scheduler=wlc

persistent=600

protocol=tcp

checktype=on

配置完成后,运行“/etc/rc.d/init.d ldirectord start”启动ldirectord。

(5) 测试

在RS1的Web主页加入标志文字:Welcome to RealServer 172.16.96.191

在RS2的Web主页加入标志文字:Welcome to RealServer 172.16.96.192

此时在客户端的浏览器中输入群集服务器的VIP 地址:http://172.16.96.190就会显示相应的页面,因为在两台 Real Server 上设置了不同的WEB 页面,这样在客户端刷页面就会看到不同的页面,证明客户端的请求是在两台不同的服务器进行轮询。

七、总结

随着计算机网络的快速发展,要求服务器不但处理速度高、I/O吞吐量大、容错性能好,而且要可靠性高、稳定性强。Linux集群技术由多台服务器共同承担一些繁重的计算或I/0任务。从而以较低成本消除网络瓶颈。提高网络的灵活性和可靠性。实践证明该方案是在不增加费用的基础上真正实现高可用性的,为给校园网充分利用现有的甚至过时的机器设备进行高效地管理提供了可行的方法之一。

【参考文献】

[1]黄旭东,林鸯.基于Linux集群的并行环境简单架设Ⅱ.计算机应用

研究,2004,(11)

[2]屈钢,邓健青,韩云路.Linux集群技术研究Ⅱ.计算机应用研究,

2005,(05)

[3]姚耀文,茹建斌,缪炯烨.基于Linux的服务器群集方案Ⅱ.计算机工

程,2001,(04)

[4]余海发.用LVS构架负载均衡的Linux集群系统Ⅱ.开放系统世界,2003,(11)

业绩报告

内容与A3纸审批表的专业技术特长和业绩一要一致,工作时间和工作岗位也要与所填表的资料一致。

weblogic集群负载均衡部署文档(支持win7+linux6.5)

Weblogic集群和负载分发的部署(支持win7+linux6.5 64位)

目录 1.集群目的 (3) 2.部署环境 (3) 3.注意问题 (3) 4.安装weblogic过程 (3) 5.weblogic集群部署过程 (9) 5.1创建weblogic域 (9) 5.2 weblogic集群化配置 (15) 5.3 weblogic简单负载均衡配置 (28) 5.4 weblogic集群复杂均衡测试 (32)

1.集群目的 项目成功部署后,可能会出现运行过程中服务器挂掉不能正常使用。为了防止这种情况,采用weblogic 集群方式部署,以消除客户的担心。 2.部署环境 3.注意问题 因为时间仓促和作者水平有限有些待解决问题需要说明 1.请不要登陆后在地址栏按回车键重新访问地址来验证session复制。 2.如果按F5刷新页面则会跳到选择模块界面,无法说明session复制失败。 3.服务器地址默认用127.0.0.1 ,如果用ip地址(如:192.169.1.169),则把配置过程所有地方的127.0.0.1改成你的实际ip地址,记住创建时候ip地址要统一。 4.安装weblogic过程 1)首先登陆 https://www.doczj.com/doc/c110710185.html,/technetwork/cn/middleware/ias/downloads/wls-main-091116-z hs.html 去下载一个windows版的weblogic 我下载的是1036版本

2)双击打开后3)初始化完成后 4)点击下一步

把“我希望通过这个。。。。。。”勾选取消。

LVS keepalived负载均衡高可用 配置安装大全

LVS+Keepalived实现高可用集群 一、基础介绍 (2) 二、搭建配置LVS-NA T模式 (2) 三、搭建配置LVS-DR模式 (4) 四、另外一种脚本方式实现上面LVS-DR模式 (6) 五、keepalived + LVS(DR模式) 高可用 (8) 六、Keepalived 配置文件详细介绍 (11)

一、基础介绍 (一)根据业务目标分成三类: High Availability 高可用 Load Balancing 负载均衡 High Performance 高性能 (二)实现集群产品: HA类: rhcs、heartbeat、keepalived LB类: haproxy、lvs、nginx、f5、piranha HPC类: https://www.doczj.com/doc/c110710185.html,/index/downfile/infor_id/42 (三)LVS 负载均衡有三种模式: LVS-DR模式(direct router)直接路由模式 进必须经过分发器,出就直接出 LVS-NAT模式(network address translation) 进出必须都经过分发器 LVS-TUN模式(ip tunneling)IP隧道模式 服务器可以放到全国各地 二、搭建配置LVS-NAT模式 1 、服务器IP规划: DR服务器添加一张网卡eth1,一个网卡做DIP,一个网口做VIP。 设置DIP、VIP IP地址: DIP的eth1和所有RIP相连同一个网段 CIP和DIP的eth0(Vip)相连同一个网段 Vip eth0 192.168.50.200 Dip eth1 192.168.58.4 客户机IP: Cip 192.168.50.3

Linux负载均衡的设置步骤

Linux负载均衡的设置步骤 本文主要介绍了Linux负载均衡的设置步骤。包括ipvsadm的安装,设置IPVS,Load Balancer,LDirectord等方面的具体介绍,希望大家通过本文的学习能对这方面有所了解。 Linux作为一个具有代表性的开源系统,受到广大的用户所喜爱。那么如何在LVS下进行负载均衡的使用呢?现在我们就来详细地为大家介绍一下,主要是使用ipvsadm来实现负载均衡。那么按照一贯的程序,首先是安装程序,然后是配置。 Linux Virtua Server负载均衡ipvsadm使用方法 1.安装ipvsadm 下载ipvsadm,下载时需注意对应自己的内核版本? ipvsadm下载网址:http://www.Linux https://www.doczj.com/doc/c110710185.html,/software/ 本文使用的是FC8系统,内核版本2.6.23.1,对应ipvsadm版本1.24? 安装时需要Linux内核源码,如果安装系统时没有安装源码,需要再下载内核源码?本文使用的内核是Linux-2.6.23.1.tar.bz2?把内核解压到/usr/src/Linux-2.6.23.1?下面开始编译安装: 建立内核快捷方式:ln-s/usr/src/Linux-2.6.23.1/usr/src/Linux 解压ipvsadm:tar zxvf ipvsadm-1.24.tar.gz 安装ipvsadm: cd ipvsadm-1.24 make make install 安装完成后,下一步我们开始配置IPVS,本文主要介绍Direct Routing方式的配置? 2.配置IPVS(Direct Routing)

负载均衡--LVS+Keepalived

利用LVS+Keepalived 实现高性能高可用负载均衡 作者:NetSeek 网站: https://www.doczj.com/doc/c110710185.html, 背景: 随着你的网站业务量的增长你网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如F5又太贵,你们又是创业型互联公司如何有效节约成本,节省不必要的浪费?同时实现商业硬件一样的高性能高可用的功能?有什么好的负载均衡可伸张可扩展的方案吗?答案是肯定的!有!我们利用LVS+Keepalived基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器。 一.L VS+Keepalived 介绍 1.LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。目前有三种IP负载均衡技术(VS/NA T、VS/TUN和VS/DR); 八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。 2.Keepalvied Keepalived在这里主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现 二. 网站负载均衡拓朴图 . IP信息列表: 名称IP LVS-DR-Master 61.164.122.6 LVS-DR-BACKUP 61.164.122.7 LVS-DR-VIP 61.164.122.8 WEB1-Realserver 61.164.122.9 WEB2-Realserver 61.164.122.10 GateWay 61.164.122.1

利用LVS+Keepalived 实现高性能高可用负载均衡服务器

LVS+Keepalived 介绍 LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR); 十种调度算法(rrr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq)。 Keepalvied Keepalived在这里主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP 主机之间failover的实现 二. 网站负载均衡拓朴图 IP信息列表: 名称 IP LVS-DR-Master 61.164.122.6 ? LVS-DR-BACKUP 61.164.122.7 ? LVS-DR-VIP 61.164.122.8 ? WEB1-Realserver 61.164.122.9 ? WEB2-Realserver 61.164.122.10 ? GateWay 61.164.122.1 复制代码 三. 安装LVS和Keepalvied软件包 1. 下载相关软件包 #mkdir /usr/local/src/lvs ? #cd /usr/local/src/lvs ? #wget https://www.doczj.com/doc/c110710185.html,/software/kernel-2.6/ipvsadm-1.24.tar.gz ? #wget https://www.doczj.com/doc/c110710185.html,/software/keepalived-1.1.15.tar.gz 复制代码 2. 安装LVS和Keepalived #lsmod |grep ip_vs ? #uname -r ? 2.6.18-53.el5PAE ? #ln -s /usr/src/kernels/2.6.18-53.el5PAE-i686/ /usr/src/linux ? ? #tar zxvf ipvsadm-1.24.tar.gz ? #cd ipvsadm-1.24 ? #make && make install ? #find / -name ipvsadm # 查看ipvsadm的位置 ? ? #tar zxvf keepalived-1.1.15.tar.gz ? #cd keepalived-1.1.15 ? #./configure && make && make install

F5负载均衡双机热备实施方案

F5双机热备实施说明 2012/12/4

一、项目拓扑图及说明 两台F5负载均衡设备采用旁挂的方式连接至交换机,设备地址和虚拟地址在服务器的内网地址段中划分;使用F5为认证应用服务器进行流量负载均衡。 二、设备信息及IP分配表 F5:型号BIG-IP LTM 1600 软件版本:V10.2.4 对外地址对外端口内网地址内网端口协议设备名备注 192.168.100.21 https://www.doczj.com/doc/c110710185.html, F5-1IP地址 192.168.100.22 https://www.doczj.com/doc/c110710185.html, F5-2IP地址 192.168.100.23 F5浮动地址 10.168.100.21 F5-1数据同步 10.168.100.22 F5-2数据同步 192.168.100.150 80 192.168.100.4 80 TCP 认证服务器1 192.168.100.5 80 TCP 认证服务器2 三、实施步骤及时间

3.1、F5设备加电测试 3.2、配置F5及F5双机,需2.5小时 3.3、测试F5双机切换,需0.5小时,这部分作为割接准备工作。3.4、先添加认证服务器单节点到F5设备192.168.100.150的虚拟服务中,在内网测试应用,需0.5小时 3.5、将应用服务器从双机模式更改为集群模式,将认证服务器两个节点添加到F5设备,这个时间取决于服务器模式更改的时间。 3.6、在防火墙上更改认证服务器的映射地址,将原来的地址更改为F5设备上的虚拟服务IP地址192.168.100.150 ,TCP 协议80端口。 四、回退方法 在外部网络不能访问认证服务时,回退的方法是在防火墙上把F5设备虚拟服务器192.168.100.150地址映射,更改为原单台认证服务器IP地址,将认证服务器集群模式退回双机模式。 五、F5设备配置步骤 5.1、设置负载均衡器管理网口地址 F5 BIG-IP 1600 设备的面板结构: BIG-IP 1600应用交换机具备四个10/100/1000M自适应的网络接口及二个光纤接口. 10/100/1000 interface — 4个10/100/1000 M 自适应的网络接口 Gigabit fiber interface — 2个1000M 多模光纤接口

负载均衡集群系统解决方案

Linux负载均衡集群系统解决方案 行业: 跨行业 功能:Linux,负载均衡集群 供应商: 中国软件股份集团 方案正文: Linux虚拟服务器简介 基于中软Linux的虚拟服务器(Linux Virtual Server,即LVS)是一个具有高可用性特点的负载均衡集群系统。该系统可以提供与服务器节点的数量、性能成正比的负载能力,有效提高服务的吞吐量、可靠性、冗余度、适应性,性能价格比高。同时,LVS也是利用低端设备实现高端服务器性能的有效途径。 中软Linux虚拟服务器(Linux Virtual Server,即LVS)是建立在一个主控服务器(director)及若干真实服务器(real-server)所组成的集群之上。real-server负责实际提供服务,主控服务器根据指定的调度算法对real-server进行控制。而集群的结构对于用户来说是透明的,客户端只与单个的IP(集群系统的虚拟IP)进行通信,也就是说从客户端的视角来看,这里只存在单个服务器。 Real-server可以提供众多服务,如ftp, http, dns, telnet, nntp, smtp 等。主控服务器负责对Real-Server进行控制。客户端在向LVS发出服务请求时,Director会通过特定的调度算法来指定由某个Real-Server来应答请求,而客户端只与Load Balancer的IP(即虚拟IP,VIP)进行通信。 二、优点 *提高吞吐量:为获得更高的吞吐量,在LVS中增加real-servers,其开销只是线性增长;而如果我们选择更换一台更高性能的服务器来获得相当的吞吐量,其开销要大得多,而且被替换掉的旧服务器会造成资源的浪费。 *冗余:如果LVS中某real-server由于需要升级或其它原因而停止服务,其退出以及恢复工作,并不会造成整个LVS对客户端服务的中断。 *适应性:不管是需要吞吐量逐渐地变化(因日常事务量变化),还是快速地变化(因突发事务量变化),服务器数量的增减对于客户端都是透明的。 三、结构图

LINUX下双网卡绑定技术实现负载均衡和失效保护

保持服务器的高可用性是企业级 IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。 我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel 技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。 说了半天理论,其实配置很简单,一共四个步骤: 实验的操作系统是Redhat Linux Enterprise 3.0 绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片 双网卡邦定的拓朴图(见下图) 1. 1.编辑虚拟网络接口配置文件,指定网卡IP 2.vi /etc/sysconfig/ network-scripts/ ifcfg-bond0 3.[root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 4. 2 #vi ifcfg-bond0 5.将第一行改成 DEVICE=bond0 6.# cat ifcfg-bond0 7.DEVICE=bond0 8.BOOTPROTO=static 9.IPADDR=172.31.0.13 https://www.doczj.com/doc/c110710185.html,MASK=255.255.252.0 11.BROADCAST=172.31.3.254 12.ONBOOT=yes 13.TYPE=Ethernet 14.这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 15.[root@rhas-13 network-scripts]# cat ifcfg-eth0 16.DEVICE=eth0 17.ONBOOT=yes 18.BOOTPROTO=dhcp 19.[root@rhas-13 network-scripts]# cat ifcfg-eth1 20.DEVICE=eth0 21.ONBOOT=yes 22.BOOTPROTO=dhcp 复制代码 3 # vi /etc/modules.conf “自己实验结果:centos文件为:/etc/modprobe.conf“ 1.编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0 2.

Radware负载均衡解决实施方案

Radware负载均衡解决实施方案

————————————————————————————————作者:————————————————————————————————日期:

Radware WSD 服务器负载均衡解决方案

1.1 WSD ―服务器负载均衡 1.1.1Radware 网络应用系统负载均衡的基本工作原理 Radware的WSD通过对于数据包的4-7层信息的检查来进行负载均衡的判断,服务器负载均衡是最普遍的一种4-7层交换的例子,下面我们就以服务器负载均衡的整个流程来介绍Radware WSD的工作原理: 1.1.1.1 会话“session”。 请看下面会话的例子: 为了识别会话,客户机和服务器都使用TCP“埠”。客户机和服务器之间的TCP会话由四个参数定义:客户机IP地址、客户机TCP端口、服务器IP地址和服务器TCP端口。所以,如果IP地址为199.1.1.1的客户机使用TCP端口1234与IP地址为145.145.100.100的服务器(TCP埠80)建立会话,则该会话定义如下: (clntIP,clntPORT,srvrIP,crvrPORT )= (199.1.1.1,1234,145.145.100.100,80) 1.1.1.2 服务器负载均衡 假设图1中所示的样例,客户机通过访问服务器负载均衡设备WSD的虚拟地址145.1.1.1 进行HTTP应用的访问。再假设选择服务器145.145.100.100响应此客户机,则客户表的记录如下所示:

如果启用此记录,WSD 会执行以下两个任务: 1. 所有从客户机199.1.1.1发送到服务器群145.145.1.1且目标TCP 端口为80的数据包将被发送到服务器145.145.100.100。 2. 所有从服务器145.145.100.100发送到客户机199.1.1.1且源TCP 端口为80的数据包将被改为源地址145.145.1.1发送出去。 即:对于用户199.1.1.1 来说,145.145.1.1 是他要访问的服务器IP 地址,当WSD(145.145.1.1),收到用户请求后,会根据后面2台服务器的“健康状况”和负载均衡算法将用户的请求转发到某一台服务器145.145.100.100 1.1.1.3 健康检查 由于负载均衡设备同应用的关系比较紧密,所以需要对负载均衡的元素进行“健康”检查,如果负载均衡设备不能在应用进行健康检查,就无法做到对应用的高可靠性的保障。 Radware 的高级健康检查模块,可以准确的做到应用层的健康检查。这种新的模块与流量复位向模块紧密相连, 可以提前检验所有应用和网络部件的可用

通过LVS+Keepalived搭建高可用的负载均衡集群系统

1、安装LVS软件 (1)安装前准备 操作系统:统一采用Centos5.3版本,地址规划如下: 更详细的信息如下图所示: 图中的VIP指的是虚拟IP地址,还可以叫做LVS集群的服务IP,在DR、TUN模式中,数据包是直接返回给用户的,所以,在Director Server上以及集群的每个节点上都需要设置这个地址。此IP在Real Server上一般绑定在回环地址上,例如lo:0,同样,在Director Server 上,虚拟IP绑定在真实的网络接口设备上,例如eth0:0。 各个Real Server可以是在同一个网段内,也可以是相互独立的网段,还可以是分布在internet上的多个服务器.

(2)安装操作系统需要注意的事项 Centos5.3版本的Linux,内核默认支持LVS功能,为了方便编译安装IPVS管理软件,在安装操作系统时,建议选择如下这些安装包:l 桌面环境:xwindows system、GNOME desktop environment。 l 开发工具:development tools、x software development、gnome software、development、kde software development。 系统安装完毕,可以通过如下命令检查kernel是否已经支持LVS的ipvs模块: [root@localhost ~]#modprobe -l |grep ipvs /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs.ko /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs_dh.ko 如果有类似上面的输出,表明系统内核已经默认支持了IPVS模块。接着就可以安装IPVS管理软件了。

LVS+keepalived负载均衡(FULLNAT模式)

LVS FULLNAT 模式安装 By 清风徐来 605612253@https://www.doczj.com/doc/c110710185.html,
1 部署规划
依照淘宝开源的 FULLNAT 模式 LVS,规划使用版本信息: Linux 内核:2.6.32-220.23.1.el6 LVS 版本:version 1.2.1 Keepalived 版本:v1.2.2 序号 主机 IP 域名 作用 备注 1 10.142.67.121 TEST-DEV-121 Master 编译内核+LVS+keepalived 2 10.142.67.122 TEST-DEV-122 Backup 编译内核+LVS+keepalived 3 10.142.78.74 TEST-BDD-074 Hiveserver2 编译内核+hiveserver2 4 10.142.78.76 TEST-BDD-076 Hiveserver2 编译内核+hiveserver2
2 LVS 安装
2.1 内核编译
内核编译需要在 master 和 backup 节点都执行,以下以 master 节点为例 安装脚本:
compilekerna-LVSmaster.sh
由于不能上外网,所以提前把对应的安装包下好 下载的暂时放在家目录 [op@TEST-DEV-121 ~]$ ls compilekerna-LVSmaster.sh kernel-2.6.32-220.23.1.el6.src.rpm Lvs-fullnat-synproxy.tar.gz 安装 此处由于是编译内核,使用 root 用户来执行,以免遇到各种权限问题 [op@TEST-DEV-121 ~]$ sudo chmod +x compilekerna-LVSmaster.sh

在linux(redhat)下双网卡负载均衡(lacp)

(一)linux配置 #cat /boot/config-kernel-version |grep -i bonding CONFIG_BONDING=m 返回CONFIG_BONDING=m表示支持,否则需要编译内核使它支持bonding 也可以用:查看一下内核是否已经支持bonding:modinfo bonding 第一步:创建一个ifcfg-bondX # touch /etc/sysconfig/network-scripts/ifcfg-bond0 新建一个bond0配置文件 # cat /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 BOOTPROTO=static IPADDR=1.1.1.2 NETMASK=255.255.255.0 BROADCAST=1.1.1.255 NETWORK=1.1.1.0 GATEWAY=1.1.1.1 ONBOOT=yes TYPE=Ethernet 编辑ifcfg-bond0如上 第二步:修改/etc/sysconfig/network-scripts/ifcfg-ethX 这个实验中把网卡1和2绑定,修改/etc/sysconfig/network-scripts/ifcfg-ethX相应网卡配置如下: # cat /etc/sysconfig/network-scripts/ifcfg-eth1 TYPE=Ethernet DEVICE=eth1 HWADDR=00:d0:f8:40:f1:a0 网卡1mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes # cat /etc/sysconfig/network-scripts/ifcfg-eth2 TYPE=Ethernet DEVICE=eth2 HWADDR=00:d0:f8:00:0c:0c 网卡2mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes

高可用Lvs集群搭建和测试报告

高可用Lvs集群搭建和测试报告 Lvs(Linux Virtual Server)是Linux下的负载均衡器,支持LVS-NA T、 LVS-DR、LVS-TUNL三种不同的方式,NA T用的不是很多,主要用的是DR、TUNL方式。DR方式适合所有的RealServer在同一网段下,即接在同一个交换机上。TUNL方式不限制RealServer 的位置,完全可以跨地域、空间,只要系统支持Tunnel就可以。 运行Lvs的前端调度器,目前只能为Linux,针对FreeBSD刚刚出来,性能不是很好。可以针对Web、MySQL、Ftp等服务做load balances。后端的RealServer则可以为各类系统,Linux、Solaris、Aix、BSD、Windows都可。 下面主要针对DR方式下的Web、MySQL负载均衡,以及Lvs + HA做功能性的验证和性能方面的测试。 1.集群系统拓扑

2.环境搭建说明 1.前端Load Balancer、Backup为虚拟机Linux系统,后端两台Real Server为纯Linux系 统。 2.192.168.6.229为前端负载均衡调度器,虚拟IP为192.168.6.111,安装并配置了ipvsadm (负载均衡)、ldirectord(健康监控)服务。 3.192.168.6.230为调度器的备份,采用heartbeat实现。 4.192.168.6.240、192.168.6.241为两台提供服务的真实Server。 3.功能性验证 首先在Load Balancer上安装ipvsadm、ldirectord、heartbeat服务,备机上也相同,可以用YUM进行安装,安装完成后需要将ha.cf、haresources、authkeys、ldirectord.cf文件拷贝到/etc/ha.d/ 目录下。 3.1. 验证Apache负载均衡。 3.1.1.配置 1.配置Load Balancer的ipvsadm,脚本内容如下:

DM7集群部署方案之数据共享集群Linux(2节点)

DM7集群部署方案之数据共享集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 前期准备工作 (1) 1.1硬件准备 (1) 1.2网络架构 (1) 1.3硬件环境建议 (1) 1.4硬件环境环境验证 (2) 1.5集群规划 (2) 1.6修改主机名 (2) 1.7关闭防火墙 (3) 1.8网卡自启 (3) 1.9修改系统参数 (3) 2 创建目录并安装数据库 (3) 2.1A机器 (3) 2.2B机器 (4) 3 存储准备 (4) 3.1划存储 (4) 3.2挂存储方法1:直接挂 (4) 3.3挂存储方法2:多路径绑定 (5) 4 搭建DSC (6) 4.1配置DMDCR_CFG.INI (6) 4.2初始化磁盘组 (7) 4.3配置DMASVRMAL.INI (7) 4.4配置DMDCR.INI (7) 4.5启动CSS、ASM服务 (8) 4.6创建DMASM磁盘组 (9) 4.7配置DMINIT.INI (9) 4.8初始化数据库 (9) 4.9配置DMARCH.INI (10)

4.10启动DMSERVER服务 (10) 4.11设置后台启动脚本 (11) 4.12启停集群 (12) 5 配置监视器 (13) 5.1配置DMCSSM.INI (13) 5.2启动监视器 (13) 6配置DM_SVC.CONF文件 (13) 6.1 DM_SVC.CONF配置内容 (13) 6.2应用连接 (14) 7附加操作 (14) 7.1操作系统/数据库调优 (14) 7.2数据库备份 (14) 7.3项目管理维护 (14)

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

几种负载均衡策略比较~

PS:Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下。 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了;如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的;大型网站或重要的服务,且服务器比较多时,可以考虑用LVS。一种是通过硬件来进行进行,常见的硬件有比较昂贵的F5和Array等商用的负载均衡器,它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;另外一种就是类似于Nginx/LVS/HAProxy的基于Linux的开源免费的负载均衡软件,这些都是通过软件级别来实现,所以费用非常低廉。 目前关于网站架构一般比较合理流行的架构方案:Web前端采用 Nginx/HAProxy+Keepalived作负载均衡器;后端采用MySQL数据库一主多从和读写分离,采用LVS+Keepalived的架构。当然要根据项目具体需求制定方案。 下面说说各自的特点和适用场合。 一、Nginx Nginx的优点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,Nginx单凭这点可利用的场合就远多于LVS了。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一;相反LVS对网络稳定性依赖比较大,这点本人深有体会; 3、Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。 3、可以承担高负载压力且稳定,在硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS相对小些。 4、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而不满。 5、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP也是近几年非常流行的web架构,在高流量的环境中稳定性也很好。 6、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,可以考虑用其作为反向代理加速器。 7、Nginx可作为中层反向代理使用,这一层面Nginx基本上无对手,唯一可以对比

Linux1 DNS服务器 配置DNS负载均衡功能

Linux1 DNS服务器配置DNS负载均衡功能 随着网络的规模越来越大,用户数量急剧增加,网络服务器的负担也变得越来越重,一台服务器要同时应付成千上万用户的并发访问,必然会导致服务器过度繁忙,响应时间过长的结果。 为了解决这个问题,可以在DNS服务器上配置负载均衡功能,DNS负载均衡是在DNS服务器中为同一个域名配置多个IP地址(为一个主机名设置多条A资源记录),在应答DNS查询时,DNS服务器对每个查询将以DNS文件中主机记录的IP地址按顺序返回不同的解析结果,将客户端的访问引导到不同的计算机上去,从而达到负载均衡的目的。下面是一个实现邮件服务器负载均衡的配置片段(在区域数据文件中),如图6-45所示。 图6-45 负载均衡 在以上配置中,mail、mail1和mail2均是“https://www.doczj.com/doc/c110710185.html,.”域中的邮件服务器,而且优先级都是10。当客户端(通常是SMTP软件)查询邮件服务器IP地址时,Bind 将根据“rrset-order”语句定义的次序把配置中设定的3条A记录都发送给客户端,客户端可以使用自己规定的算法从3条记录中挑选一条。“rrset-order”语句是主配置文件中“options”主语句的一条子语句,可以定义固定、随机和轮询的次序。下面的配置是另一种实现邮件服务器负载平衡的方法,如图6-46所示。 图6-46 负载均衡 在以上配置中,“https://www.doczj.com/doc/c110710185.html,”对应了3个IP地址,此时,具体选择哪一条A 记录,也是由“rrset-order”语句决定。另外,在反向解析文件中,这3个IP都要对应mail主机,以免有些邮件服务器为了反垃圾邮件进行反向查询时出现问题。 除了邮件服务器以下,其他的服务也可以采用类似的配置实现负载均衡。例如,

双机热备+负载均衡 线上方案

双机热备+负载均衡线上方案 (Heartbeat+DRBD+NFS+Keepalived+Lnmp) gotop 对于网站服务器来说,可靠性之重要不用我多说,但要想做到可靠性一般需要昂贵的设备,这里最主要是就是数据同步用的共享磁盘了,磁盘柜+磁盘一共下来是20多万,这对于追求最高性价比的双机负载热备方案来说是极其不靠谱的,尤其是中小型企业,私有企业,一般经理是不会考虑这么高的成本的。我们通常做都是四台服务器+一个磁盘柜子+千兆交换机,那么这个成本下来将近30万了,而且这个方案有个弊端就是存储依然存在单点故障,除非使用双控制+双电源+双主板设计的磁盘柜,但这种成本实在太高。那是否有更为廉价的双机方案呢,很明显开源软件帮我们解决了成本问题!!! 用Heartbeat+DRBD+NFS+Keepalived+Lnmp等开源软件实现双机负载热备架构只需要两台服务器+一台全千兆交换机,这个成本是极其低廉的,我们做运维了就是要用技术来压榨硬件性能,用最低的成本实现最高的效能,不然天天谈论的性能优化有何用?堆叠硬件不是更好?那不是我们的目的,下面我们来看看这两台服务器的双机热备+负载均衡是如何实现并且稳定运行的。 这个方案是我给一个论坛做的,论坛15分钟在线8000人,以前放在IIS里面,并发连接6000-7000左右,我给设计的双机热备方案如下图:

图一 注意:第三台服务器可要可不要,我这里他由于成本问题,并没有采用第三台服务器,而是一共只有两台 系统环境配置 一,硬件配置: 节点一(centosa):做主负载点,和主数据库压力负载点,必须高性能高稳定高I/O

配置如下: CPU:双CPU( 4核+4核) 5405级别 内存:8G 组三通道DDR3 ECC内存 硬盘:1块1TB普通硬盘+2块300G SAS15K(15000转)硬盘 网卡:2块千兆网卡 节点二(centosb):做分担负载和备服务器,稳定第一 CPU:双CPU( 4核+4核) 5405 内存:8G 组三通道DDR3 ECC内存 硬盘:1块1TB普通硬盘+3块300G SAS15K(15000转)硬盘 网卡:2块千兆网卡 注意:网卡极力建议用四块,这个架构对网络I/O要求极高,我这里只有两块,没办法,机房做不到,如果你是百兆交换机,拜托,你一定要用四块网卡 二,操作系统配置

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群 + Tomcat负载均衡集群配置手册

在这个配置手册中,使用的操作系统和软件清单如下: 操作系统: RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装) 软件: jdk-1_5_0_15-linux-amd64.bin Tomcat5.5.26 httpd-2.0.63.tar.gz jakarta-tomcat-connectors-jk2-src-current.tar.gz ipvsadm-1.24.tar.gz libnet.tar.gz heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。 jdk-1_5_0_15-linux-amd64.bin JAVA环境包使用的是64位1.5版 Tomcat版本为公司指定的5.5版本 Apache为2.0.63版 jakarta-tomcat-connectors-jk2-src-current.tar.gz 是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载 ipvsadm-1.24.tar.gz libnet.tar.gz 这两个是用于2台Apache服务器虚拟一个IP地址使用 heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 这3个软件是用于2台Apache服务器之间的心跳检测

简单的负载均衡站点方案

简单的负载均衡站点配置 资料从网上收集的,但是有实测。给新手用的,老手可以参考并完善一下。 一、实现目标:负载均衡,数据热备 二、网络top图 Server1 192.168.94.236 Server2 192.168.94.237 Server3 192.168.94.238 三、S erver2 Server3基本安装(Server1 不需要安装LNMP包) 1、操作系统安装CentOS 5.5 32位操作系统。 2、磁盘分区/boot 100M /swat 4G /home 20G /usr/local 60G /web 3、安装后注意事项 A、建立一个普通权限的用户 因为root用户对系统具有全权的操作权限,为了避免一些失误的操作,在一般情况下,以一般用户登录系统,必要的时候需要root操作权限时,再通过“su -”命令来登录为root用户进行操作。 useradd anniuser passwd anniuser usermod -G wheel anniuser 修改pam配置,使非wheel组用户不能使用su命令登录为root: vi /etc/pam.d/su 找到 #auth required /lib/security/$ISA/pam_wheel.so use_uid 将行首的# 去掉。 然后 vi /etc/login.defs 在文件末尾加上 SU_WHEEL_ONLY yes B、root邮件的转送 Vi /etc/aliases

C、停止不必要的服务 [root@ ~]# /etc/rc.d/init.d/cups stop← 停止打印服务 Stopping cups: [ OK ]← 停止服务成功,出现“OK” [root@ ~]# chkconfig cups off← 禁止打印服务自动启动 [root@ ~]# chkconfig --list cups← 确认打印服务自启动设置状态 cups 0:off 1:off 2:off 3:off 4:off 5:off 6:off← 0-6都为off的状态就OK(当前打印服务自启动被禁止中) 除了以下服务以外,其他服务默认的都可以采用刚才的方法关闭,根据需要自己选择: atd crond irqbalance lvm2-monitor microcode_ctl network sendmail sshd syslog D、关闭SELinux vi /etc/selinux/config 将其中的 SELINUX=enforcing 改为 SELINUX=disabled E、安装sudo工具 yum install sudo -y 安装好了以后,修改sudo的配置 vi /etc/sudousers 将 # %wheel ALL=(ALL) NOPASSWORD:ALL 去掉前面的# ,然后保存文件。 这样修改了以后,只有所有属于wheel组的用户能执行sudo命令,并且执行sudo命令时只需要输入自己的密码即可。 F、修改SSH配置 vi /etc/ssh/sshd_config Port 22 #修改默认端口 #ServerKeyBits 768改为ServerKeyBits 1024#增加ServerKey的强度找到 #PermitRootLogin Yes改为PermitRootLogin no #不允许root用户直接登录 #PermitEmptyPasswords no #禁止空密码登录去掉前面的# 全部修改完了以后,重启服务器 G、定义yum非官方库(使用网易163的yum库更新) 先关闭fastestmirror “vi /etc/yum/pluginconf.d/fastestmirror.conf”and set “enable=0″ cd /etc/yum.repos.d/ wget https://www.doczj.com/doc/c110710185.html,/.help/CentOS-Base-163.repo yum makecache //生成缓存 yum –y update H、定时校对时间 crontab –e 00 00 * * * ntpdate 210.72.154.44 #每日24点校准时间,频率自己设置

相关主题
文本预览
相关文档 最新文档