当前位置:文档之家› RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册

RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册

RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册
RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册

RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册(初稿)

目录

RH 6.4 x64 Corosync+Pacemaker高可用集群配置手册 (1)

一、安装支持环境 (1)

1、安装集群支持包,具体如截图 (1)

2、各节点服务器基本配置 (2)

3、Corosync配置 (2)

4、pacemaker (5)

5、功能验证 (7)

一、安装支持环境

1、安装集群支持包,具体如截图

使用以下命令安装上述安装包

yum localinstall *.rpm –nogpgcheck

通过上述安装,就已将corosync+pacemaker+heartbeat+crm安装完成。上述rpm包我会提供。注:安装中可能会提示报错,注意看一下提示,缺少哪个文件可以进stable里面找一下,如果没有,就要到镜像rpm包里面找一下。

2、各节点服务器基本配置

1)将需要加入集群的主机地址添加到系统hosts中

vim /etc/hosts

ha1:实际地址

ha2:实际地址

vip:实际地址

示例:

2)修改主机名:

vim /etc/sysconfig/network

示例

3)网卡配置

这里不赘述,根据实际情况配置

4)配置时钟同步

这里需要注意,节点两台设备一定要时钟同步

可以参考ntp或者有时钟同步设备(局方)也可以。无论何种方法。只要确保时钟同步即可。

示例:[root@ha2 corosync]# ntpdate 210.72.145.44(这个为时钟同步地址,可根据实际是同步服务器地址进行配置。)

5)重启网络

service network restart

3、Corosync配置

1)节点之间SSH互通

节点一:

ssh-keygen -t rsa -f ~/.ssh/id_rsa -P ''

cd ~/.ssh/

ssh-copy-id -i id_rsa.pub root@实际节点二的hostdomain

示例:

[root@ha1 cluster]# ssh-keygen -t rsa -f ~/.ssh/id_rsa -P '' [root@ha1 .ssh]# ssh-copy-id -i id_rsa.pub root@https://www.doczj.com/doc/c810855156.html,

[root@ha2 .ssh]# ssh-keygen -t rsa -f ~/.ssh/id_rsa -P ''

[root@ha2 .ssh]# ssh-copy-id -i id_rsa.pub root@https://www.doczj.com/doc/c810855156.html,

2)生成密钥文件

[root@ha2 corosync]# mv /dev/{random,random.bak}

[root@ha2 corosync]# ln -s /dev/urandom /dev/random

[root@ha2 corosync]# corosync-keygen

3)查看并复制密钥文件至另一节点

cd /etc/corosync/

scp -p authkey corosync.conf ha1:/etc/corosync/

4)配置corosync.conf

cd /etc/corosync/

ll

vim /etc/corosync/corosync.conf.example

修改如下:

[root@ha2 etc]# cat /etc/corosync/corosync.conf

# Please read the corosync.conf.5 manual page

compatibility: whitetank

totem {

version: 2

secauth: on

threads: 0

interface {

ringnumber: 0

bindnetaddr: 192.168.1.0 //实际地址段

mcastaddr: 226.94.1.1

mcastport: 5405

ttl: 1

}

}

logging {

fileline: off

to_stderr: no

to_logfile: yes

to_syslog: yes

logfile: /var/log/cluster/corosync.log

debug: off

timestamp: on

logger_subsys {

subsys: AMF

debug: off

}

}

amf {

mode: disabled

}

//以下为新增加内容

service{

ver:0

name:pacemaker

}

aisexec{

user:root

group:root

}

5)启动Corosync

[root@ha1 etc]#ssh ha2 "service corosync start"

[root@ha1 etc]#service corosync start

6)验证Corosync

●验证启动:

grep -i -e "corosync cluster engine" -e "configuration file" /var/log/cluster/corosync.log

如上信息,代表正常,反之,查找问题,解决问题。

●验证节点通信是否正常:

grep -i totem /var/log/cluster/corosync.log

如上信息,代表正常,反之,查找问题,解决问题。

●验证启动是否报错:

grep ERROR: /var/log/cluster/corosync.log

上述报错请无视。

其他报错,需重视并解决。

●验证pacemaker是否启动:

grep pcmk_startup /var/log/cluster/corosync.log

如上信息,代表正常,反之,查找问题,解决问题。

●查看HA状态:

输入crm_mon

必须是包含有两个节点,否则就是失败,如失败,请检查防火墙、网络端口是否占用、配置文件是否准确。

7)关闭Corosync并重启服务器

Service corosync stop

Reboot

4、pacemaker

1)进入crm shell

[root@ha1 ~]# crm

crm(live)# configure

2)查看配置确认双节点是否已检测到

crm(live)configure# show

此处的attributes standby=on以及primitive tomcat6 lsb:tomcat6可以忽略,该策略为后续配置。请继续进行以下操作即可。

3)关闭STONITH设备资源

crm(live)configure#property stonith-enabled=false

crm(live)configure#commit

4)关闭票数统计(双机HA必须关闭)

crm(live)configure#property no-quorum-policy=ignore

crm(live)configure#commit

5)添加VIP

crm(live)configure# primitive vip ocf:heartbeat:IPaddr params ip=192.168.1.232 nic=eth2 cidr_netmask=24

crm(live)configure#commit

6)添加tomcat6资源

crm(live)configure# primitive tomcat6 lsb:tomcat6

crm(live)configure# commit

7)定义组资源

crm(live)configure# group webservice vip tomcat6

crm(live)configure#commit

8)查看配置

[root@ha1 ~]# crm

crm(live)#status

crm configure primitive tomcat ocf:heartbeat:tomcat params configfile=/$home/conf/ op m onit

注:资源方面可以通过以下方式查找

查看当前集群系统所支持的类型

crm(live)# ra

crm(live)ra# classes

lsb

ocf / heartbeat pacemaker redhat

service

stonith

crm(live)ra#

使用如下命令查看lsb类型的tomcat6资源的语法格式:

5、功能验证

1)通过浏览器输入VIP地址:http://192.168.1.232:8080 (该地址为测试地址) 如图显示,目前VIP地址在ha1上

2)验证集群功能,通过以下命令,判断是否自动转移至ha2

3)通过浏览器输入VIP地址:http://192.168.1.232:8080 (该地址为测试地址) 如图显示,目前VIP地址在ha2上

至此,功能验证完成。

双机热备、集群及高可用性入门

双机热备、集群及高可用性入门

什么是双机热备? 双机热备这一概念包括了广义与狭义两种意义。 从广义上讲,就是对于重要的服务,使用两台服务器,互相备份,共同执行同一服务。当一台服务器出现故障时,可以由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续提供服务。(相关文章:为什么需要双机热备?) 双机热备由备用的服务器解决了在主服务器故障时服务不中断的问题。但在实际应用中,可能会出现多台服务器的情况,即服务器集群。(相关文章:双机软件与集群软件的异同) 双机热备一般情况下需要有共享的存储设备。但某些情况下也可以使用两台独立的服务器。(相关文章:双机热备的实现模式) 实现双机热备,需要通过专业的集群软件或双机软件。(相关文章:双机与集群软件的选择) 从狭义上讲,双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。(相关文章:双机热备、双机互备与双机双工的区别) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。从实际经验上看,除非是简单地重启服务器(可能隐患仍然存在),否则往往需要几个小时以上。而如果技术人员不在现场,则恢复服务的时间就更长了。 而对于一些重要系统而言,用户是很难忍受这样长时间的服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 决定是否使用双机热备,正确的方法是要分析一下系统的重要性以及对服务中断的容忍程度,以此决定是否使用双机热备。即,你的用户能容忍多长时间恢复服务,如果服务不能恢复会造成多大的影响。 在考虑双机热备时,需要注意,一般意义上的双机热备都会有一个切换过程,这个切换过程可能是一分钟左右。在切换过程中,服务是有可能短时间中断的。

LVS keepalived负载均衡高可用 配置安装大全

LVS+Keepalived实现高可用集群 一、基础介绍 (2) 二、搭建配置LVS-NA T模式 (2) 三、搭建配置LVS-DR模式 (4) 四、另外一种脚本方式实现上面LVS-DR模式 (6) 五、keepalived + LVS(DR模式) 高可用 (8) 六、Keepalived 配置文件详细介绍 (11)

一、基础介绍 (一)根据业务目标分成三类: High Availability 高可用 Load Balancing 负载均衡 High Performance 高性能 (二)实现集群产品: HA类: rhcs、heartbeat、keepalived LB类: haproxy、lvs、nginx、f5、piranha HPC类: https://www.doczj.com/doc/c810855156.html,/index/downfile/infor_id/42 (三)LVS 负载均衡有三种模式: LVS-DR模式(direct router)直接路由模式 进必须经过分发器,出就直接出 LVS-NAT模式(network address translation) 进出必须都经过分发器 LVS-TUN模式(ip tunneling)IP隧道模式 服务器可以放到全国各地 二、搭建配置LVS-NAT模式 1 、服务器IP规划: DR服务器添加一张网卡eth1,一个网卡做DIP,一个网口做VIP。 设置DIP、VIP IP地址: DIP的eth1和所有RIP相连同一个网段 CIP和DIP的eth0(Vip)相连同一个网段 Vip eth0 192.168.50.200 Dip eth1 192.168.58.4 客户机IP: Cip 192.168.50.3

高可用性集群系统的实现

高可用性集群系统的实现 《Linux企业应用案例精解》第8章主要介绍一下虚拟化技术应用。本节为大家介绍高可用性集群系统的实现。 8.3.5 高可用性集群系统的实现(1) VMware Infrastructure 的体系结构和典型配置 资源动态分配和高可用性的实现为构建高可用性集群系统提供了有力的保障,采用VMwae构建铁路企业高可用性集群,不需要为系统中的每台服务器分别添置备用服务器,就可以有效地降低系统成本,在基于VMware的我企业高可用性集群中,备用服务器安装了VMware ESX Server,与数据库服务器、Web服务器、OA服务器和文件服务器等构成高可用性集群,同时采用数据库备份服务器实现差额计划备份。 使用VMware提供的虚拟基础架构解决方案,服务器不再需要随着业务增加而添加,整个IT基础架构能得到有效控制并可充分发挥效能。只有当整体资源出现不足的时候,才需要增加服务器。而且对系统资源的

添加也非常简单,不再需要做繁琐的硬件维护以及业务迁移,只需要简单地将新服务器安装VMWARE? INFRASTRUCTURE 3软件,并添加到已有的VMWARE? INFRASTRUCTURE 3架构中即可,新增资源将自动分配到各个最需要的业务环境中。 在HA和DRS功能的共同支撑下,虚拟机的稳定、不间断运行得到了保证,而且,在没有搭建Cluster环境的情况下,迁移、升级依旧能不中断服务。哪怕是硬件升级、添加,正常停机维护等情况,也能够保证所有的业务正常运行,客户端访问服务器不产生业务中断现象。新的服务器虚拟化架构中另一个重点是VMware HA 的部署,它是整个服务器系统安全、可靠运行的一道防线。传统的热备机方式最大的问题就是容易造成资源的大量闲置;在正常运行状态下,所有备机服务器都处于闲置状态,不仅造成计算资源的空耗,而且还浪费大量的电力和散热资源,投资回报率非常低。 如何应对Linux系统软件包的依赖性问题 不管是初步跨入Linux殿堂的新手还是,具有多年经验的专家,在安装或编译软件包的过程中或多或少的都会遇到包的依赖问题从而导致安装过程无法继续,比如管理员在安装php软件包需要libgd.so文件,而这个文件属于gb软件包。但是在安装gb软件包时,可能这个软件包跟其他软件包又具有依赖关系,又需要安装其他软件包才行。这时有的管理员便失去耐心。在遇到这种Linux软件包依赖关系问题,该如何解决呢?在谈这个具体的措施之前,先跟大家聊聊Linux系统里的软件爱你依赖性问题。 我们把处理rpm依赖性故障的策略可以分成两类解决依赖性故障的自动方法和手工方法。但当安装不属于发行一部分的软件包时自动方法是不可用的。在描述如何手工解决依赖性故障后,将简要描述如何使用自动方法之一(YUM),但首先需要了解它们是什么及rpm如何强制实施它们。 一、什么是依赖性 程序依赖于程序代码的共享库,以便它们可以发出系统调用将输出发送到设备或打开文件等(共享库存在于许多方面,而不只局限于系统调用)。没有共享库,每次程序员开发一个新的程序,每个程序员都需要从头开始重写这些基本的系统操作。当编译程序时,程序员将他的代码链接到这些库。如果链接是静态的,编译后的共享库对象代码就添加到程序执行文件中;如果是动态的,编译后的共享库对象代码只在运行时需要它时由程序员加载。动态可执行文件依赖于正确的共享库或共享对象来进行操作。RPM依赖性尝试在安装时强制实施动态可执行文件的共享对象需求,以便在以后--当程序运行时--不会有与动态链接过程有关的任何问题。

高可用性集群解决方案设计HA

1.业务连续 1.1.共享存储集群 业务系统运营时,服务器、网络、应用等故障将导致业务系统无常对外提供业务,造成业务中断,将会给企业带来无法估量的损失。针对业务系统面临的运营风险,Rose提供了基于共享存储的高可用解决方案,当服务器、网络、应用发生故障时,Rose可以自动快速将业务系统切换到集群备机运行,保证整个业务系统的对外正常服务,为业务系统提供7x24连续运营的强大保障。 1.1.1.适用场景 基于共享磁盘阵列的高可用集群,以保障业务系统连续运营 硬件结构:2台主机、1台磁盘阵列

主机 备机心跳 磁盘阵列 局域网 1.1. 2.案例分析 某证券公司案例 客户需求分析 某证券公司在全国100多个城市和地区共设有40多个分公司、100多个营业部。经营围涵盖:证券经纪,证券投资咨询,与证券交易、证券投资活动有关的财务顾问,证券承销与保荐,证券自营,证券资产管理,融资融券,证券投资基金代销,金融产品代销,为期货公司提供中间介绍业务,证券投资基金托管,股票期权做市。 该证券公司的系统承担着企业的部沟通、关键信息的传达等重要角色,随着企业的业务发展,系统的压力越来越重。由于服务器为单机运行,如果发生意外宕机,将会给企业的日常工作带来不便,甚至

给企业带来重大损失。因此,急需对服务器实现高可用保护,保障服务器的7×24小时连续运营。 解决方案 经过实际的需求调研,结合客户实际应用环境,推荐采用共享存储的热备集群方案。部署热备集群前的单机环境:业务系统,后台数据库为MySQL,操作系统为RedHat6,数据存储于磁盘阵列。 在单机单柜的基础上,增加1台备用主机,即可构建基于共享存储的热备集群。增加1台物理服务器作为服务器的备机,并在备机部署系统,通过Rose共享存储热备集群产品,实现对应用的高可用保护。如主机上运行的系统出现异常故障导致宕机,比如应用服务异常、硬件设备故障,Rose将实时监测该故障,并自动将系统切换至备用主机,以保障系统的连续运营。

利用LVS+Keepalived 实现高性能高可用负载均衡服务器

LVS+Keepalived 介绍 LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR); 十种调度算法(rrr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq)。 Keepalvied Keepalived在这里主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP 主机之间failover的实现 二. 网站负载均衡拓朴图 IP信息列表: 名称 IP LVS-DR-Master 61.164.122.6 ? LVS-DR-BACKUP 61.164.122.7 ? LVS-DR-VIP 61.164.122.8 ? WEB1-Realserver 61.164.122.9 ? WEB2-Realserver 61.164.122.10 ? GateWay 61.164.122.1 复制代码 三. 安装LVS和Keepalvied软件包 1. 下载相关软件包 #mkdir /usr/local/src/lvs ? #cd /usr/local/src/lvs ? #wget https://www.doczj.com/doc/c810855156.html,/software/kernel-2.6/ipvsadm-1.24.tar.gz ? #wget https://www.doczj.com/doc/c810855156.html,/software/keepalived-1.1.15.tar.gz 复制代码 2. 安装LVS和Keepalived #lsmod |grep ip_vs ? #uname -r ? 2.6.18-53.el5PAE ? #ln -s /usr/src/kernels/2.6.18-53.el5PAE-i686/ /usr/src/linux ? ? #tar zxvf ipvsadm-1.24.tar.gz ? #cd ipvsadm-1.24 ? #make && make install ? #find / -name ipvsadm # 查看ipvsadm的位置 ? ? #tar zxvf keepalived-1.1.15.tar.gz ? #cd keepalived-1.1.15 ? #./configure && make && make install

数据库负载均衡解决方案

双节点数据库负载均衡解决方案 问题的提出? 在SQL Server数据库平台上,企业的数据库系统存在的形式主要有单机模式和集群模式(为了保证数据库的可用性或实现备份)如:失败转移集群(MSCS)、镜像(Mirror)、第三方的高可用(HA)集群或备份软件等。伴随着企业的发展,企业的数据量和访问量也会迅猛增加,此时数据库就会面临很大的负载和压力,意味着数据库会成为整个信息系统的瓶颈。这些“集群”技术能解决这类问题吗?SQL Server数据库上传统的集群技术 Microsoft Cluster Server(MSCS) 相对于单点来说Microsoft Cluster Server(MSCS)是一个可以提升可用性的技术,属于高可用集群,Microsoft称之为失败转移集群。 MSCS 从硬件连接上看,很像Oracle的RAC,两个节点,通过网络连接,共享磁盘;事实上SQL Server 数据库只运行在一个节点上,当出现故障时,另一个节点只是作为这个节点的备份; 因为始终只有一个节点在运行,在性能上也得不到提升,系统也就不具备扩展的能力。当现有的服务器不能满足应用的负载时只能更换更高配置的服务器。 Mirror 镜像是SQL Server 2005中的一个主要特点,目的是为了提高可用性,和MSCS相比,用户实现数据库的高可用更容易了,不需要共享磁盘柜,也不受地域的限制。共设了三个服务器,第一是工作数据库(Principal Datebase),第二个是镜像数据库(Mirror),第三个是监视服务器(Witness Server,在可用性方面有了一些保证,但仍然是单服务器工作;在扩展和性能的提升上依旧没有什么帮助。

多节点集群多机互备解决方案

https://www.doczj.com/doc/c810855156.html,nderSoft(LVGUI-ch.DOC) Normal **项目 多机互备集群解决方案 销售:王晓强 作者:市场部 上海联鼎软件股份有限公司 https://www.doczj.com/doc/c810855156.html, 版权所有 目录 第一章引言2 1.1公司介绍2 1.2背景3 1.3方案设计总原则5 第二章需求描述6 2.1需求概述6 2.2现状说明和存在问题6 2.3总体需求说明7 第三章方案设计7 3.1项目风险分析8 3.2需解决的问题8

3.3设计原则9 第四章方案描述10 4.1总体方案概述10 4.2集群系统方案概述11 4.3工作流程简单描述11 4.4L ANDER C LUSTER软件的优势:12 第五章方案优势13 第六章技术规格19 第一章引言 1.1公司介绍 联鼎软件(Landersoft)是领先的核心业务及数据安全系统解决方案供应商,致力于通过保障用户关键应用及核心电子化数据,确保企业在全球信息化持续发展进程中无间断的竞争力及信心。产品面向应用高可用性,以及全球范围内的核心系统容灾及数据保护。在中国已有超过5000个用户,9500例安装,市场占有率达到前三位,覆盖金融、电信、医疗、政府、交通、电力、教育、制造业、基础资源等行业,已被证明适用于各种应用、服务器、存储硬件和相关设备并实现互操作。 联鼎软件拥有先进的多平台测试开发系统及前瞻性的用户体验中心。公司大中华区总部设在上海,南亚总部设在新加坡,在中国大型城市设有分支机构,形成具有强大优势的销售管理体系和技术支持体系,能够更好、更及时的响应用户需求。 联鼎认为,未来十年,随着IT技术的加速发展,社会对IT环境及服务将高度依赖,保障企业

计算机集群技术的解释

【赛迪网独家特稿】集群技术是使用特定的连接方式,将相对于超级计算机便宜许多的计算机设备结合起来,提供与超级计算机性能相当的并行处理技术。早在七十年代就有人提出可以使用这种集群技术完成并行处理,但是由于受到当时网络交换技术的限制,集群系统在性能上与其他并行处理系统相距甚远,直到网络技术逐渐成熟的今天,它才具备了与超级计算机相匹敌的能力。 什么是集群 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。 计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。在大多数模式下,集群中所有的节点拥有一个共同的名称,集群内的任一节点上运行的服务都可被所有的网络客户所使用。 集群的特点 1.提供强大处理能力的高性能计算机系统:计算机集群可以通过负载均衡、并行处理、时间片处理等多种形式,将多台计算机形成高性能计算机集群。对用户端(Client)而言,计算机集群则是一个单一的系统,可以为用户提供高性能的计算机系统,而用户不用关心有多少计算机承担了系统实现的任务,而只需要关注系统的整体处理能力。因此,计算机集群可以用多台普通性能的计算机组成具有高性能的计算机系统,承担只有超级计算机才能胜任的工作。 2.提供高可用性的计算机系统:通过计算机集群技术组成的系统,可以确保数据和应用程序对最终用户的高可用性,而不管故障属于什么类型。即当计算机集群中的节点计算机出现软硬件故障的时候,高可用性集群提供了对软件和硬件失败后的接替。它将服务器镜像到备用系统或节点中,当主节点上的系统崩溃时,冗余节点就从替补角色转换到正式角色,并自动投入应用,从而保证了系统运行的不间断。

数据库集群技术指标

1.DBTwin技术指标 A.非入侵部署 与所有的系统服务一样,DBTwin也是通过唯一的入口-一对(IP,port)来向外提供数据服务。因此,应用程序及其数据库接口不需作任何修改。支持所有的数据库接口:https://www.doczj.com/doc/c810855156.html,、ADO、RDO、DAO、OLE DB、ODBC、DB-LIBRARY等。 B.支持数据库 Microsoft SQL Server2005/2008的标准版和企业版。 C.事务处理同步复制 通过常用的宽带网络,快速的事务处理同步复制 D.高系统可用性 自动的错误恢复,真正把意料之内和意料之外的停机时间缩至最短。网关在错误恢复期间的停止服务间隙达到小于10秒。 E.零单点错误源 从DBTwin网关这一部件开始,整个数据库系统是完全、彻底地物理冗余。 F.数据“零”丢失 DBTwin使得系统同时拥有多个实时一致的数据集,这样从理论上讲,就真正消除了数据丢失的任何可能性。数据库可靠性达到目5个9,即99.999%。 G.动态负载均衡 DBTwin对只读数据库查询操作可以进行自动的判别和动态负载均衡,这是当前唯一实现的针对数据库的动态负载均衡技术,此技术可以大大改善整个数据库系统的性能。性能提升在30%~300%之间,具体提升比例取决于应用系统及网络结构和软硬的配置。 H.可伸缩性 可伸缩的数据库性能(负载均衡+非入侵式的数据库阵列扩展),使得数据库具有可伸缩性。需要更多的数据库性能的时候,只要增加数据库服务器就可以了。 I.容灾能力 具备即时的灾难恢复能力。 J.DBTwin自身的双机容错

DBTwin支持自身的双机主备容错切换,也可以采用第三方的HA方案解决DBTwin 自身的容错问题。 DBTwin备份(复制)软件镜像1专为数据库设计是否否 2支持数据库集群是部分支持部分支持 3支持并发数据库操作是否否 4支持动态负载均衡是部分支持部分支持 5工作方式并行串行串行 6支持多份数据集是是是 7支持多份一致数据集是否否 7单点错误源无有有 8支持业务连续性程度高低中 9数据丢失可能性零高高 10错误恢复自动化程度高低中 2.DBTwin与备份/复制软件,及数据库镜像的功能、特点比较

Linux下高可用集群方案

Linux下高可用集群方案很多,本文介绍的是性价比比较高的一种: 使用Heartbeat 2.0配置Linux高可用性集群。 一、准备工作 你首先需要两台电脑,这两台电脑并不需要有相同的硬件(或者内存大小等),但如果相同的话,当某个部件出现故障时会容易处理得多。接下来您需要决定如何部署。你的集群是通过Heartbeat 软件产生在两台电脑之间心跳信号来建立的。为了传输心跳信号,需要在节点之间存在一条或多条介质通路(串口线通过modem电线,以太网通过交叉线,等等)。现在可以开始配置硬件了。既然想要获得高可用性(HA),那么您很可能希望避免单点失效。在本例中,可能是您的null modem线/串口,或者网卡(NIC)/ 交叉线。因此便需要决定是否希望为每个节点添加第二条串口null modem连线或者第二条NIC/交叉线连接。我使用一个串口和一块额外的网卡来作为heartbeat的通路,这是因为我只有一条null modem线和一块多余的网卡,并且认为有两种介质类型传输heartbeat信号比较好。硬件配置完成之后,便需要安装操作系统以及配置网络(我在本文中使用的是RedHat)。假设您有两块网卡,那么有一块应该配置用于常规网络用途,另一块作为集群节点之间的专用网络连接(通过交叉线)。例如,假设集群节点有如表-1下的IP地址: 表-1集群节点的IP地址 输入如下命令检查您的配置: ifconfig 这将显示您的网卡及其配置。也可以使用命令“netstat –nr”来获得网络路由信息。如果一切正常,接下来要确定可以来两个节点之间通过所有接口ping通对方。如果使用了串口,便需要检测其连接情况。把一个节点作为接收者,输入命令: cat

深度高可用集群软件产品手册

深度高可用集群软件产品手册 版本1.0 文档编号密级 适用范围 制定审核 发布日期更新日期

1.1.总体实现方案 (1) 1.1.1.适用场景 (1) 1.1.2.方案概述 (1) 1.1.3.方案设计 (2) 1.2.产品功能说明 (4) 1.2.1.双机热备功能 (4) 1.2.2.多机集群功能 (5) 1.2.3.多机双柜功能 (6) 1.3.产品性能说明 (7) 1.3.1.双机热备性能指标 (7) 1.3.2.多机集群性能指标 (9) 1.3.3.多机双柜性能指标 (11)

1.1.总体实现方案 1.1.1.适用场景 在生产环境中,当一台业务服务器发生故障时,能通过各种策略确保及时切换另一台服务器提供相应的业务访问,从而确保客户业务访问的连续性和稳定性。客户对高可用集群的基本需求包括: ?业务系统的运行可靠性要求高,需要尽量避免业务中断; ?业务系统对数据的可靠性、完整性要求高,需要进行实时备份; ?针对多应用系统,要求业务服务器运行多项应用系统。 高可用集群应用通过在服务器设备之间连接“心跳线”的冗余机制,实时监视彼此的运行状态;而数据被存放于共享存储设备上。采用心跳技术,确保在网络故障时对数据的全面保护。当工作主机发生故障,备机将及时侦测到故障信息并接管主机上运行的业务。 1.1. 2.方案概述 深度高可用集群应用解决方案是深度科技开发的智能、多层次高可用软件产品。基于深度服务器的深度高可用集群应用方案,进一步提升了软硬件系统及应用的稳定性和可靠性,更有效的保障虚拟化服务与数据备份安全可靠,支持双机互备、多机保护,磁盘心跳、智能切换保护等功能。 针对不同客户需求和应用场景,深度高可用集群应用方案支持多种部署方式,包括: ?双机热备 ?双机互备 ?级联等多种模式。

DBTwin数据库集群技术白皮书

DBTwin数据库集群系统 技 术 白 皮 书 无锡浙潮科技有限公司 2010年1月

目录 1.当前数据库用户面临的问题 (3) 2.当前市场上存在的针对数据库的解决方案 (4) 3.DBTWIN数据库集群 (8) 4.DBTWIN的实现原理 (9) 5.DBTWIN的特性 (10) 6.DBTWIN技术指标 (11) 7.DBTWIN与备份/复制软件,及数据库镜像的功能、特点比较 (12) 8.DBTWIN支持的系统环境 (12)

1.当前数据库用户面临的问题 随着信息时代的发展,公司和企业的运作越来越依赖于计算机系统。大量有关企业生产、销售的数据维系着企业的生存,是企业珍贵的无形资产。这些数据一旦因为存储系统遭受到失窃、断电或不可避免的自然灾害,造成大量丢失,将会给企业带来重大的经济损失。 根据Gartner的调查数据,在经历大型灾难事件而导致系统停运的公司中,有五分之二左右的公司再也没有恢复运营,剩下的公司中也有接近三分之一在两年内破产了。而由于数据库的故障导致的重大事故确是时有发生的,让我们来看几个实例: 实例1:2005年12月5日,国内某著名网络游戏公司的数据库服务器出现严重宕机事故,造成众多玩家数据丢失并蒙受经济损失 实例2:2005年6月9日某证券公司股票交易系统的数据库出现故障,股票无法正常买卖,迫使股民望“红”兴叹。 实例3:2002年7月23日国内某机场数据库系统宕机,导致6000名旅客长时间滞留机场。实例4:2000年国内某银行的支付系统突然死机,给广大用户造成极大的损失和不便。 以上发生的这些事件都是与企业数据库系统相关的故障。 另外,几乎每个数据库客户都或多或少地存在数据库性能问题,当然数据库性能问题涉及很多方面,其中,能否采用“集群”的方法来提高性能,我们公司研究的重点。 概括来讲,当前数据库系统已经成为了企业信息系统的瓶颈,究其原因,各厂家的解决方案无外乎在下列三大方面无法取得同步的进展: 1)数据库数据可靠性 2)数据库系统性能 3)系统服务的可用性 当前几乎所有的数据库系统解决方案,都无法的象真正的集群系统那样,在上述三方面同时具有良好的可伸缩性,具体来讲,当前数据库系统存在下列各种各样的问题:

高可用集群模块

https://www.doczj.com/doc/c810855156.html,nderSoft Normal 联鼎软件 高可用集群模块介绍 作者:市场部 上海联鼎软件股份有限公司 https://www.doczj.com/doc/c810855156.html, 版权所有

目录 第一节概述 (2) 第二节产品优势 (2) 2.1全新体系架构 (2) 2.2智慧系统健康与可用性评价体系 (2) 2.3深度应用侦测代理 (3) 2.4强大的故障分级处理 (4) 2.5增强的跨平台集群系统集中管理 (4) 2.6支持虚拟化环境 (5) 2.7集群按业务分组,单组集群支持多达64个节点及64个任务 (5) 2.8首创智能预警体系 (6) 2.9丰富的集群备援模式 (6) 2.10更高级别的监测准确度,更快速的切换速度 (6) 第三节产品关键功能 (6)

第一节概述 全新的高可用集群模块是landerVault体系中负责保护关键业务应用免遭软、硬件故障影响的应用软件。应用创造性的“故障分级”概念,融入“智能感知”系统,彻底颠覆传统高可用集群系统简单的二元化故障判断方式,将传统高可用系统仅对“故障”所引起的结果(如宕机)做出反应提升为对“故障”的成因(系统健康指标)进行监控与分析,配合独特的“故障预警”机制,在核心系统即将发生严重影响业务持续运作情况前及时发出“预警”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,将故障事后处理提升为故障事前预知,充分保障用户核心应用7×24小时持续可靠运作,可支持多达64个节点的应用,并为局域网(LAN)或广域网(WAN)上的客户机提供高可用性的服务。 第二节产品优势 2.1全新体系架构 创新的LanderCluster的体系结构,以面向“对象”为核心,对象包括:IPAddress,Alias,Volume,Process,Service,CPU,Memory,Network等,每个对象都有自己的属性、方法、事件。集群容器(Container)是一个大的接口池,集群负责管理这些对象的生命周期,为每一个对象提供接口服务。 2.2智慧系统健康与可用性评价体系 高可用集群模块在业界首次提出了创造性的“系统健康评价体系”并加以应用,我们认为对系统的可用性判断必须是持续的,大量的情况证明系统从“可用”转向“不可用”并非是瞬

几种负载均衡策略比较~

PS:Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下。 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了;如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的;大型网站或重要的服务,且服务器比较多时,可以考虑用LVS。一种是通过硬件来进行进行,常见的硬件有比较昂贵的F5和Array等商用的负载均衡器,它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;另外一种就是类似于Nginx/LVS/HAProxy的基于Linux的开源免费的负载均衡软件,这些都是通过软件级别来实现,所以费用非常低廉。 目前关于网站架构一般比较合理流行的架构方案:Web前端采用 Nginx/HAProxy+Keepalived作负载均衡器;后端采用MySQL数据库一主多从和读写分离,采用LVS+Keepalived的架构。当然要根据项目具体需求制定方案。 下面说说各自的特点和适用场合。 一、Nginx Nginx的优点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,Nginx单凭这点可利用的场合就远多于LVS了。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一;相反LVS对网络稳定性依赖比较大,这点本人深有体会; 3、Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。 3、可以承担高负载压力且稳定,在硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS相对小些。 4、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而不满。 5、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP也是近几年非常流行的web架构,在高流量的环境中稳定性也很好。 6、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,可以考虑用其作为反向代理加速器。 7、Nginx可作为中层反向代理使用,这一层面Nginx基本上无对手,唯一可以对比

技术方案-应用高可用解决方案(两地三中心)

英方软件数据库系统高可用解决方案 英方软件(上海)有限公司

目录 1. 概述 (1) 2. 需求分析 (2) 3.1主机配置 (3) 3.2方案拓扑图: (3) 3.3 I2高可用方案功能介绍 (4) 3.4管理控制台 (7) 5. I2的主要优势 (10) 6. 典型案例 (12) 7.公司简介 (13)

1. 概述 现代大型企业大多拥有为数众多的服务器,提供Internet与Intranet使用者各种不同的服务。如数据库系统、影像系统、录音系统、Email系统等。保持业务的持续性是当今企业用户进行数据存储需要考虑的一个重要方面。系统故障的出现,可能导致生产停顿,客户满意度降低,甚至失去客户,企业的竞争力也大打折扣。因此,保持业务的持续性是用户在选择计算机系统的重要指标。究其根本,保护业务持续性的重要手段就是提高计算机系统的高可靠性同时将数据的损失降至最低限度。 关键数据和数据库的备份操作已经成为日常运行处理的一个组成部分,以确保出现问题时及时恢复重要数据。传统的解决方案,类似于磁带机备份存在较大的缺点. 通常数据采用磁带离线备份,当数据量较大或突发灾难发生时,备份磁带无法真正及时快速恢复数据及业务。 提供有效的数据保护和高可用性服务,又在合理预算范围之内,并且能够基于你现有环境当中,获得实时数据保护,并无距离限制,为确保你重要数据的保护----包含数据库和邮件系统。I2为您提供了完美的解决方案。 I2 采用先进的异步实时数据复制技术(Asychronous Real-Time Data Replication),立即将所有服务器上对于磁盘系统的变更透过网络传输至备援服务器,而非整个档案或磁盘的镜设(Mirror),因此对于服务器的效能与网络带宽的影响都能降至最低,并能将成本降至最低,做到真正的实时数据保护. 业务数据是用户最宝贵的资产之一,数据的损失就是企业资产利润的损失,所以保护业务数据是企业计算系统的主要功能之一。实施I2的备份方案可以将用户数据的损失降至最低甚至为零。

nginx负载均衡高可用

n g i n x负载均衡高可用 This model paper was revised by the Standardization Office on December 10, 2020

1nginx负载均衡高可用 1.1什么是负载均衡高可用 nginx作为负载均衡器,所有请求都到了nginx,可见nginx处于非常重点的位置,如果nginx服务器宕机后端web服务将无法提供服务,影响严重。 为了屏蔽负载均衡服务器的宕机,需要建立一个备份机。主服务器和备份机上都运行高可用(High Availability)监控程序,通过传送诸如“I am alive”这样的信息来监控对方的运行状况。当备份机不能在一定的时间内收到这样的信息时,它就接管主服务器的服务IP并继续提供负载均衡服务;当备份管理器又从主管理器收到“I am alive”这样的信息时,它就释放服务IP地址,这样的主服务器就开始再次提供负载均衡服务。 1.2keepalived+nginx实现主备 1.2.1什么是keepalived keepalived是集群管理中保证集群高可用的一个服务软件,用来防止单点故障。 Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器。 1.2.2keepalived工作原理 keepalived是以VRRP协议为实现基础的,VRRP全称Virtual Router Redundancy Protocol,即虚拟路由冗余协议。

服务器集群技术方案

服务器集群技术方案 集群(Cluster )技术是发展高性能计算机的一项技术。它是一组相互独立的计算机,利用高速通信网络组成一个单一的计算机系统,并以单一系统的模式加以管理。其出发点是提供高可靠性、可扩充性和抗灾难性。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一台服务器发生故障时,它所运行的应用程序将由其它服务器自动接管。在大多数模式 下,集群中所有的计算机拥有一个共同的名称,集群内的任一系统上运行的服务 都可被所有的网络客户使用。采用集群系统通常是为了提高系统的稳定性和网络中心的数据处理能力及服务能力。 当前主流的集群方式包括以下几种: 1. 服务器主备集群方式 服务器主-备方式由一台服务器在正常运行状态提供对外服务,其它集群节点作为备份机,备份机在正常状态下不接受外部的应用请求,实时对生产机进行检测,当生产机停机时才会接管应用服务,因此设备利用率最高可达50%主备 方式集群如下图所示,节点2为正常提供服务的服务器,运行多个应用 (pkgA,pkgB..),节点1平时只监控节点2的状态,不对外提供服务,当节点2 出现故障时,节点1将把两个应用接管过来,并对外提供服务。 图表错误!文档中没有指定样式的文字。-1主备方式集群 2. 服务器互备份集群方式 多台服务器组成集群,每台服务器运行独立的应用,同时作为其它服务器的 备份机,当主应用中断,服务将被其它集群节点所接管,接管服务的节点将运行自身应用和

故障服务器的应用,这种方式各集群节点的硬件资源均可被应用于对外服务。互备方式集群如下图所示,节点1和节点2分别运行1个或多个不同的应用,但只对外提供本地的主应用,两个节点之间互相进行监控,集群中任何一个节点出现故障后,另一个节点把故障节点的主应用接管过来,所有应用服务由一台服务器完成。 图表错误!文档中没有指定样式的文字。-2互备份方式集群 这种方式的主要缺点在于: 由于需要重新启动数据库核心进程,无法保证数据库系统连续不间断地运行 在系统切换的过程中,客户端与服务器之间的数据库连接会中断,需要重新进行数 据库的连接和登录工作 由于数据库系统只能在一台服务器上运行,另一台服务器无法分担系统的负载,实 际上造成了客户投资的浪费。在有些系统中,为了解决双机负载分担的问题,将应 用系统人为分割为两个数据库系统,分别在两台服务器上运行。这种方式在一定程 度上解决了负载分担的问题,但给系统管理、统计分析等业务处理带来了很多额外 的复杂性 3. 服务器并行集群方式 集群有多台服务器构成,同时提供相同的应用,可以实现多台服务器之间的负载均衡, 提供大访问量的应用需求,如Web访问及数据库等应用,服务器并行集群方式一般由应用系 统自身(如OracleRAC中间件负载均衡等)或外部专用服务器负载均衡设备实现。 jL# R?i uat Hiti.iEMXff DLM珀心XM4子耳 vVLH Ctid TW

虚拟化群集中的网络负载平衡和高可用性

什么是群集?简单的说,群集(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是群集的节点(node)。一个理想的群集是,用户从来不会意识到群集系统底层的节点,在用户看来,群集是一个完整系统,而非多个计算机系统。并且群集系统的管理员可以随意增加和删改群集系统的节点。 服务器群集 如上图,由2台服务器(Server1,Server2)组成的群集方式,其中每台服务器的地位是平等的。都可以为客户端提供服务并且不用其它服务器的辅助。上图中Server3是服务器群集虚拟出来的主机,客户端所能看到的群集只是一台Server3主机。群集中的主机将均衡处理客户端发来的应用请求,以此来实现负载均衡(NLB);如果某一台服务器出现宕机,客户端发来的应用请求将被分配给另外一台服务器,通过这种方式来保障业务应用的高可用性(HA)。

虽然,根据群集系统的不同特征可以有多种分类方法,但是一般把群集系统分为两类:高可用(High Availability)群集,简称HA群集;性能计算(High Perfermance Computing)群集,简称HPC群集,也称为科学计算群集。在本文中我们只介绍前者。 HA群集,不难理解,这类群集致力于提供高度可靠的服务。就是利用群集系统的容错性对外提供7*24小时不间断的服务,如高可用的文件服务器、数据库服务等关键应用。HA群集和负载均衡(NLB)群集之间的界限有时非常模糊,负载均衡群集使任务可以在群集中尽可能平均地分摊到不同的计算机中进行处理,充分利用群集的处理能力,提高对任务的处理效率。在实际应用中,这几种群集类型可能会混合使用,以提供更加高效稳定的服务。如在一个使用的网络流量负载均衡群集中,就会包含高可用的网络文件系统、高可用的网络服务。 服务器群集技术常见的有Linux中的LVS和Windows中的NLB。NLB即Network Load Balancing,也就是网络负载平衡。Microsoft在所有的Windows Server操作系统上提供这一负载平衡技术。NLB的用途很广,将多台应用服务器通过NLB的方式捆绑在一起,这样以来NLB可以根据实际的访问流量均分开来减少各服务器的网络占用及资源占用,所以NLB 被广泛用于终端服务、Web服务、FTP服务等,用来解决大量并发访问服务问题,帮助用户使用较少的投资获得接近于大型主机的性能。同时,由于实际处理应用请求的服务器变为多台,高可用性也得到了有效的保证。 大致概括一下群集技术的主要优点,主要包括以下4个方面: (1)高可扩展性:群集系统的管理员可以随意增加和删改群集系统的节点。

mysql数据库集群解决方案

MYSQL数据库集群 解 决 方 案

目录 1、环境准备 (1) 2、具体的实验步骤 (4) 2.1、修改群集中各节点的网络参数 (4) 2.2、同步群集中各节点的时间 (6) 2.3、在各个节点上面产生密钥实现无密码的通讯 (7) 2.4、在各个节点上面配置好yum客户端 (8) 2.5、将下载好的rpm包上传到linux上的各个节点 (11) 2.6、在各节点上面安装所有的rpm包 (15) 2.7、在各节点上增加一个drbd设备(sdb1) (16) 2.8、配置drbd (19) 2.9、mysql的安装和配置 (26) 2.10、corosync+pacemaker的安装和配置 (32) 2.11、对各个节点进行相应的配置 (33) 2.12、配置群集的工作属性 (40) 2.13、定义集群服务及资源(node1) (41)

1、环境准备 实验环境:redhat enterprise 5.4 内核版本号:2.6.18-164.el5 1:Yum 服务器的构建 2:各个节点之间的时间的一致性(hwclock –s 或者搭建ntp服务器) 3:被定义为群集的资源都不可以在本地主机上进行启动,他们要被crm来进行管理。 4:由于dbrd,corosync,pacemaker等各群集的服务都需要通过主机名来进行解析,所以我们的主机的名字一定要能够被正确的解析。(hosts文件)

5:本实验要用到的软件包。 //*************由于drbd内核模块代码只在linux内核2.6.3.33以后的版本中才有,所以我们要同时安装内核模块和管理工具 *********// drbd83-8.3.8-1.el5.centos.i386.rpm drbd的管理包 kmod-drbd83-8.3.8-1.el5.centos.i686.rpm drbd的内核模块 //*************由于drbd内核模块代码只在linux内核2.6.3.33以后的版本中才有,所以我们要同时安装内核模块和管理工具 *********// cluster-glue-1.0.6-1.6.el5.i386.rpm 为了在群集中增加对更多节点的支持 cluster-glue-libs-1.0.6-1.6.el5.i386.rpm corosync-1.2.7-1.1.el5.i386.rpm corosync的主配置文件corosynclib-1.2.7-1.1.el5.i386.rpm corosync的库文件heartbeat-3.0.3-2.3.el5.i386.rpm 我们的heartbeat在这里是做四层的资源代理用的 heartbeat-libs-3.0.3-2.3.el5.i386.rpm heartbeat的库文件ldirectord-1.0.1-1.el5.i386.rpm 在高可用性群集中实验对后面realserver的探测 libesmtp-1.0.4-5.el5.i386.rpm openais-1.1.3-1.6.el5.i386.rpm做丰富pacemake的内容使用openaislib-1.1.3-1.6.el5.i386.rpm openais 的库文件

相关主题
相关文档 最新文档