当前位置:文档之家› linux双机配置

linux双机配置

linux双机配置
linux双机配置

1.1.1 培训的整体场景说明培训规划示意图IP地址规划Testdb testapp 19

2.168.139.4/24 192.168.139.3/24 心跳IP (eth1)192.168.139.6/24 192.168.139.5/24 管理IP (eth0)资源组IP Ora_pkg:192.168.139.7/24 Test_pkg:

192.168.139.8/24 虚拟机部署规划(教材中

和自己一起操作)数据库:Oracle 10.2.0.4

软件安装目录:Oracle 软件目录:/opt/oracle

Oracle 数据目录:/oradata Ceshi-TEST目录:/ceshitest 用户与密码(注意区分操作系统与数据库):

操作系统:oracle/oracle 数据库:

sys/oracle、system/oracle 1.1.2 虚拟机环境介绍

操作系统:RHEL 5.4 (32位)系统用户名/密码:root/root 主机名:testapp、testdb 数据库Oracle 10g软件已安装在目录:/opt/oracle 由于数据库已经部署好,本文档的3.3、5.1.1、5.1.2和5.1.3章节在实际操作的过程中忽略。验证Oracle程序#su –oracle #sqlplus / as sysdba Java 1.5已安装在目录:/usr/java/jdk1.5.0_10 由于java已经部署好,本文档的6.1.1

章节不需要在实际操作的过程中忽略,但要检查一下Java 环境#java -version Ceshi-TEST软件做了tar 包

ceshitest.tar.gz,放在虚拟机的testapp的/ceshitest-media目录。CESHI-test 做了一个tar包,本文档的6.1.2到 6.1.6章节不需要在实际操作的过程中忽略,直接用下面的方式解压即可。mount 设备到/ceshitest 查看是否已经挂载

移动包ceshitest.tar.gz到/ceshitest,到/ceshitest目录下解压缩。 1.1.3 自己需要准备的操作修改自已本机网卡(VMware Network Adapter VMnet8)IP地址为192.168.139.1,并启动提供的两台虚拟机,保证登录正常。

2 RHCS(Redhat Cluster)软件包安装软件包的检查和安装,在两个节点上要分别执行,下面是db服务器上的执行过程,app服务器的软件安装过程同db服务器。 2.1 配置YUM(Linux软件管理器)YUM是linux特有的软件管理器,从YUM 源安装软件包的时候可以把与软件包有依赖关系软件包一起装好,不用再分别去安装。 2.1.1 编辑YUM源配置文件编辑YUM 配置文件 2.1.2 添加YUM源添加三个YUM源分别对应操作系统安装介质中的

Cluster、ClusterStorage和Server目录

注:添加内容如下 [rhel-Cluster] name=Red Hat Enterprise Linux $releasever - $basearch - Debug baseurl=file:///mnt/Cluster enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release [rhel-ClusterStorage] name=Red Hat Enterprise Linux $releasever - $basearch - Debug baseurl=file:///mnt/ClusterStorage enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release [rhel-Server] name=Red Hat Enterprise Linux $releasever - $basearch - Debug baseurl=file:///mnt/Server enabled=1 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

2.2 RHCS软件包安装 2.2.1 检查软件包安装情况检查软件是否安装,如果未安装,按下面步骤进行安装。[root@db /]# rpm –q cman rgmanager system-config-cluster luci ricci 2.2.2 加载操作系统安装介质将操作系统安装介质放入光驱并mount到/mnt [root@db /]# mount /dev/cdrom /mnt 2.2.3 安装软件输入如下命令安装软件包[root@db /]# yum install cman rgmanager system-config-cluster luci ricci

2.2.4 确认软件包安装的情况输入如下命令检查软件包是否已经全部安装 2.3 安装Oracle10g需要的操作系

统软件包 2.3.1 检查软件包安装情况所安装的系统软件包列表请参考Oracle for linux安装文档;

[root@db /]# rpm -q binutils compat-db control-center libXp gcc gcc-c++ glibc glibc-common libstdc++ libstdc++-devel make pdksh sysstat setarch 2.3.2 安装软件包输入如下命令安装软件包 [root@db /]# yum install binutils compat-db control-center gcc gcc-c++ glibc glibc-common libstdc++ libstdc++-devel make pdksh sysstat setarch libXp 显示需要安装软件包的个数和所有包的大小,并输入“y”继续,直到完成。

2.3.3 验证软件包安装情况输入如下命令去验证软件包是否已经装好。[root@db /]# rpm -q binutils compat-db control-center gcc gcc-c++ glibc glibc-common libstdc++ libstdc++-devel make pdksh sysstat setarch libXp

3 配置cluster 3.1 配置主机名 3.1.1 修改数据主机名 3.1.2 修改TEST服务器主机名 3.2 配置网络

3.2.1 配置testdb服务器网络修改eth0的ip地址信息

修改eth1的ip地址信息修改

/etc/hosts 文件

3.2.2 配置testapp服务器修改eth0的ip地址

信息修改eth1的ip地址信息修改/etc/hosts 文件

3.3 配置共享存储注:以下步骤仅需要在testdb 上执行即可。 3.3.1 查看系统内硬盘 3.3.2 创建pv [root@testdb /]# pvcreate /dev/sdc /dev/sdd 备注:删除使用命令pvremove,查看使用命令pvdisplay

3.3.3 创建vg [root@testdb /] vgcreate vg_data /dev/sdc [root@testdb /] vgcreate vg_test /dev/sdd 备注:删除vg 使用命令vgremove,查看使用vgdisplay 3.3.4 创建lv [root@testdb /]# lvcreate –L 4096m –n lv_data vg_data [root@testdb /]# lvcreate –L 4096m –n lv_test vg_test 备注:删除lv 使用lvremove ,查看使用 lvdisplay

3.3.5 格式化lv [root@testdb /]# mkfs.ext3 /dev/vg_data/lv_data

[root@testdb /] # lvcreate –L 4096m –n lv_test vg_test 3.3.6 创建lv挂载点 [root@testdb /] # mkdir –p /ceshitest /oradata 挂载lv 测试验证是否mount 上了 umount 设备

3.4 配置cluster 3.

4.1 配置Xmanager 图形窗口3.4.1.1 打开Xmanager Passive工具, 3.4.1.2 在状态栏中会有一个passive的图标 3.4.1.3 定义图形界面输出到的机器设置图形输出到你本地(192.168.139.1 为你本机的IP地址),

并用xclock检测是否成功。

3.4.2 配置rhcs 服务 3.4.2.1 启动cluster管理器启动rhcs 图形配置工具system-config-cluster,创建一个新的cluster配置

输入cluster的名字(cluster_test),点击确定。

点击增加cluster 节点为cluster_test添加节点。

3.4.2.2 添加节点增加第一个节点testdb(此处的节点名在/etc/hosts 中与心跳地址对应)

增加第二个节点testapp

3.4.2.3 添加fence 设备添加fence 设备(每个节点一个对应的fence设备)

添加第一个fence设备(由于是模拟环境,我们采用手动fence设备)

添加第二个fence设备

3.4.2.4 为节点绑定fence 设备为每个节点添加fence设备

3.4.2.5 保存配置文件

3.4.2.6 同步cluster 配置文件在testapp上执行如下命令,把cluster配置文件copy

到testapp上 3.4.2.7 启动cluster 服务在testdb

和testapp上分别启动cman服务

查看cluster两个节点的状态如果状态如

上图所示,表示双机服务配置成功

4 配置Oracle 把oracle添加到资源组,实现双机容灾。4.1 Oracle安装4.1.1 Oracle安装准备在testdb和testapp主机上

分别执行如下操作 4.1.1.1 建oracle组和用户

在testdb和testapp上分别执行如下操作来

创建用户组和用户,并修改oracle用户的密

码来激活oracle用户[root@testdb ~]# groupadd oinstall [root@testdb ~]# groupadd dba [root@testdb ~]# useradd -g oinstall -G dba oracle 4.1.1.2 修改环境变量在testdb和testapp上分别执行如下操作,修改oracle用

户的环境变量修改内容如下:

ORACLE_BASE=/opt/oracle/product/10.2.0 ORACLE_HOME=$ORACLE_BASE/db_1 ORACLE_SID=testdb

PATH=$PATH:$HOME/bin:$ORACLE_HOME/bin export PATH ORACLE_BASE ORACLE_HOME ORACLE_SID 使环境变量生效4.1.1.3 修改内核参数在testdb和testapp上分别

执行如下操作来修改系统内核参数,并使参

数生效在sysctl最后加入如下参数#Oracle settings kernel.shmall = 2097152 kernel.shmmax = 2147483648

kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 65536 net.ipv4.ip_local_port_range = 1024 65000 net.core.rmem_default = 1048576 net.core.rmem_max = 1048576 net.core.wmem_default = 262144 net.core.wmem_max = 262144

做如下操作使参数生效 4.1.1.4 设置Oracle

用户的限制信息[root@testdb ~]# vi

/etc/security/limits.conf

#Oracle settings oracle soft nproc 2047 oracle hard nproc 16384 oracle soft nofile 1024 oracle hard nofile 65536 修改/etc/pam.d/login [root@testdb ~]# vi /etc/pam.d/login #Oracle settings session required /lib/security/pam_limits.so session required pam_limits.so 修改/etc/profile [root@testdb ~]# vi

/etc/profile

if [ $USER = "oracle" ]; then if [ $SHELL = "/bin/ksh" ]; then ulimit -p 16384 ulimit -n 65536

else ulimit -u 16384 -n 65536 fi fi 4.1.1.5 上传Oracle安装包和升级包把数据库的安装程序上传到testdb上并解压

4.1.1.6 修改oracle相关路径的属主加载 /oradata 修改/opt/oracle 、/oradata、/tmp/database、/tmp/Disk1 属主

4.1.2 Oracle 软件安装 4.1.2.1 设置DISPLAY环境变量,开始安装用oracle用户设置DISPLAY环境变量,并执行安装文件 4.1.2.2 安装选项设置选择基本安装,设置Oracle的安装目录、版本、dba用户组并且不创建数据库实例 4.1.2.3 设置inventory目录设置inventory目录所在的位置,并选择特殊的操作系统用户

4.1.2.4 安装条件检查里面有两个警告,手动确认即可

RoseMirrorHA双机热备软件的安装及配置手册

双机热备软件的安装与配置指导手册 系统版本:A1 文档编号:CHI-PT-NJBL-SJRB-A0

内容简介 《双机热备软件的安装与配置指导手册》主要针对目前公司人员定位系统服务器双机热备软件的安装和配置进行了详细说明,指导现场工程师对双机热备软件进行安装及配置。 本手册共分四章节,分别为: 第一章:概述 第二章:软件的安装 第三章:服务的安装及配置 第四章:注意事项 第五章:常见故障处理 本文档的读者范围: 公司内部员工 版权声明 本文档属南京北路科技有限公司版权所有,侵权必究。 本文文件专供用户、本公司职员以及经本公司许可的人员使用,未经公司书面 同意,任何单位或个人不得以任何方式复制、翻印、改编、摘编、转载、翻 译、注释、整理、出版或传播手册的全部或部分内容。

南京北路自动化系统有限责任公司位于南京江宁经济技术开发区,是南京市高新技术企业,现有高级工程师、工程师及其他专业技术人员100余名。是专业从事煤矿通信、自动化、信息化产品的研发、生产、销售及服务的高科技公司。 公司拥有ISO9001:2000质量管理体系认证,坚持“质量第一、用户至上、至诚服务、持续改进”的质量方针,得到了广大客户的信赖和支持。目前公司产品覆盖全国10多个省、自治区,并在多个煤炭主产区设有售后服务机构。 公司以满足客户需求为己任,不断生产高性价比的产品,为客户创造价值。 南京北路自动化系统有限责任公司 联系地址:南京市江宁开发区菲尼克斯路99号 邮政编码:211106 电话号码:(025)52187543 传真:(025)52185703 邮件地址:njbestway@https://www.doczj.com/doc/635391539.html, 客户服务电话:400-611-5166 客户支持网站:https://www.doczj.com/doc/635391539.html,

在linux下做双机热备步骤(精)

在linux下做双机热备步骤 Red hat 9 linux的双机热备安装比较简单,需要的安装文件有以下几个: heartbeat-1.0.4-2.rh.9.um.1.i386.rpm heartbeat-pils-1.0.4-2.rh.9.um.1.i386.rpm heartbeat-stonith-1.0.4-2.rh.9.um.1.i386.rpm net-snmp-5.0.6-17.i386.rpm 按顺序依次安装: 1、heartbeat-pils-1.0.4-2.rh.9.um.1.i386.rpm 2、net-snmp-5.0.6-17.i386.rpm 3、heartbeat-stonith-1.0.4-2.rh.9.um.1.i386.rpm 4、heartbeat-1.0.4-2.rh.9.um.1.i386.rpm #rpm -ivh heartbeat-pils-1.0.4-2.rh.9.um.1.i386.rpm #rpm -ivh net-snmp-5.0.6-17.i386.rpm #rpm -ivh heartbeat-stonith-1.0.4-2.rh.9.um.1.i386.rpm #rpm -ivh heartbeat-1.0.4-2.rh.9.um.1.i386.rpm 安装完成之后,开始配置主服务器。配置文件位于/etc/ha.d下,用rpm安装之后不会产生配置文件,需要从/usr/share/doc/heartbeat-1.0.4下,把ha.cf,,,,authkeys,,,,,,,,haresources,,,,三个文件cp到/etc/ha.d下面。 文件在ha.cf是主要heartbeat的配置文件,authkeys是heartbeat的安全配置文件,haresource 文件是heartbeat的资源文件 其文件说明如下: ha.cf ############################################################################### ############## # # There are lots of options in this file. All you have to have is a set # of nodes listed {"node ...} # and one of {serial, bcast, mcast, or ucast} # # ATTENTION: As the configuration file is read line by line, # THE ORDER OF DIRECTIVE MA TTERS! # # In particular, make sure that the timings and udpport # et al are set before the heartbeat media are defined! # All will be fine if you keep them ordered as in this

PLC常用双机热备系统介绍与比较

PLC常用双机热备系统介绍与比较 (由txt文件修改) 对热备系统的简单分类(基于热备切换方式的分法): 一.硬件级双机热备产品: A.单机架双机热备: 同一块机架上插双电源,双CPU,有1套热备单元(欧姆龙为1个而三菱为2个),一般还可以插双通讯模块(如双以太网单元),CPU的数据交换通过机架底板电路,一般不是RIO式的分布式结构,切换速度快,一般在50ms以下。 1.Omron CVM1D和CS1D 2.Mitsubishi Q4AR 注意: Siemens使用UR2机架的S7-400H不是此类,该产品虽然插在同一块机架上,但该机架在电气上完全独立的,即把2个机架作成一体式。 B.双机架硬件级热备产品: 主、从两个机架,两套完整独立的系统,两套机架上的热备单元一般通过光纤通讯,切换速度飞快。施耐德Quantum切换速度在48ms以下。西门子的S7-400H不太清楚,请咨询技术支持。GE S90-70的切换速度看资料,在25-50ms。 1.Schneider Quantum 2.Siemens S7-400H 3.GE S90-70 4.AB ControlLogix 5000 二.总线级双机热备产品: 我不知道把此类划到硬件级热备好还是软件级热备好,还是另外拉出来单独说吧。基于总线级的通讯传输速率,总线通讯单元兼有热备切换功能。当主CPU故障时,从CPU接管I/O的控制,夺取I/O总线的控制权。切换速度其实还可以,在150-300ms内。 典型代表: 1.AB SLC500,由1747-BSN 实现RIO结构的热备。 2.Mitsubishi小Q,由CC-Link单元实现RIO结构的热备。 其实三菱的大Q和A也可以,但三菱技术支持建议用小Q。 三.软件级双机热备产品:

如何实现的双机热备

如何实现的双机热备 2009-01-05 12:19:58 一.介绍 作为服务器,需要提供一定的24X7的安全保证,这样可以防止关键节点的宕机引起系统的全面崩溃。春笛公司在长期的邮件系统方案实施过程 中,利用OpenSource开源软件,结合金笛邮件系统,成功地为多家单位实施了大容量邮件系统的高可靠双机热备方案。 基于linux的 HA软件可靠稳定,比使用商业版本的HA软件降低成本约9成左右。 在这里我们用 lvs 和 DRBD 实现了一个真实环境下的双机热容错集群。 这里的关键技术是如何实现ip代换, mon/heartbeat检测, 文件同步。 同样这一方法稍加改动就可以实现oracle热备份、ldap热备份等。 二.方案描述 将真实服务地址绑定到一个虚拟网卡(eth0:1)上通过检测程序 (heartbeat)来将主机或是备份主机的虚拟网卡(eth0:1)激活。从而实现热备份。使用网络硬盘RAID来同步文件。检测程序通过内网进行监控。 金笛高可用邮件系统架构(双机系统) F 2 工作模式

a) 正常状态:

正常工作状态 b) 备份激活: node1失效,node2激活状态c) 主机就绪: node1故障排除,恢复状态

d) 切换回正常模式: 需要手动停止备份服务器的服务,系统会自动切换回正常模式 三.软硬件需求 两台双网卡主机完全安装 redhat6.2 主机IP 10.0.0.126 备份主机IP 10.0.0.250 实际服务即浮动IP 202.93.204.68 邮件系统: 金笛邮件系统Jindi-Mail2.0 (https://www.doczj.com/doc/635391539.html,) HA软件: ftp://https://www.doczj.com/doc/635391539.html,/pub/ha/piranha-docs-0.4.17-2.i386.rpm ftp://https://www.doczj.com/doc/635391539.html,/pub/ha/piranha-gui-0.4.17-2.i386.rpm ftp://https://www.doczj.com/doc/635391539.html,/pub/ha/piranha-0.4.17-2.i386.rpm ftp://https://www.doczj.com/doc/635391539.html,/pub/ha/ipvsadm-1.11-4.i386.rpm https://www.doczj.com/doc/635391539.html,plang.tuwien.ac.at/reisner/drbd/download/drbd-0.5 .8.1.tar.gz 安装软件: rpm –Uvh ipvsadm* piranha*两台主机都要装 金笛邮件系统安装 DRBD 安装 Tar zvxf tar -zvxf drbd-0.5.8.1.tar.gz cd drbd make make install 有如下相关文件 /usr/sbin/drbdsetup /lib/modules/2.2.18pre11-va2.1/block/drbd.o /etc/ha.d/resource.d /etc/rc.d/init.d/drbd /sbin/insmod drbd进行测试 应返回”Using /lib/modules/2.2.18pre11-va2.1/block/drbd.o” 四.设置 编辑/etc/lvs.cf文件 #Example of /etc/lvs.cf #还需要smtpd popd这两个启动脚本 service = fos # 采用fos模式 primary = 10.0.0.126 # 主ip地址(qmail) backup = 10.0.0.250 # 备份主机ip地址(Backup) backup_active = 1 # 激活备份 heartbeat = 1 # 激活Heartbeat heartbeat_port = 1050 # Heartbeat端口 keepalive = 2 # heartbeat间隔单位秒 deadtime = 10 # 判定死机间隔 rsh_command = ssh # 文件同步方案选ssh

Websphere for Linux集群安装和配置

前言 目前天安保险的WAS环境中有5台服务器,每台服务器配成一个node,每个node上配置了2个application server,组成了一个ND的环境。前台有一台F5做负载均衡,后面连接了1套oracle RAC的数据库。但5个node之间没有做成集群。为了保证Websphere系统高可用性,提高系统性能和负载均衡,考虑配置成集群,下面说明创建、配置集群的整个过程与注意事项。 1. 集群系统架构 操作系统:Linux version 2.6.18-8.el5 Websphere版本:WAS6.1ND 根据天安的环境,可使用如下拓扑: 其中cisapp1~cisapp5表示5台WebSphere,cisCluster表示5台做成一个cluster,dmgr一般是5台中的一台。

2. 创建集群(含session复制) (截图为我本机测试截图,只是示意图,与天安保险的节点名和集群名不符) 在DMGR控制台中,选择集群,然后新建。 注意:先创建一个空的集群,然后我们再向该集群中添加成员即可。 这里还要注意勾选“配置HTTP会话内存到内存复制”,这样就能使session 在集群内共享,比如用户登录,加入被集群分配给node1来处理,用户的登录信息就会被保存在session中,如果此时node1宕机了,用户就会被分配到其他节点来处理而不会要求重新登录。 如果在创建集群时没有勾选此选项,也可按如下方式操作: 配置会话复制 服务器 --> 应用程序服务器 --> 选择集群成员 --> 容器设置:会话管理--> 其他属性:分布式环境设置 --> 确认分布式会话选择的是内存到内存复制,其他属性:定制调整参数 --> 调整级别: 低(故障转移优化) 写频率 servlet服务结束

双机热备ServHA 镜像集群节点更换操作教程

ServHA镜像集群节点更换(或重新连入)操作手册一、手册目的 本手册介绍ServHA镜像集群的节点更换、节点重新连入的操作步骤,当用户部分硬件损坏、系统及其应用重新安装导致的原有集群配置丢失时,可按照本手册操作步骤对集群进行恢复。 注:如严格按照本手册操作,可以在集群对外服务不中断的情况下将重新连入的节点加入集群。 手册中我们假定原有集群中一台服务器的集群配置完全丢失(同时其应用也均未安装,如更换了硬盘、重新安装了操作系统),下文中这台配置丢失的服务器我们称之为“新节点”(因为其配置完全丢失,在集群看来,这完全是一个全新的节点),原有的正常服务的主机我们称之为“原节点”。 本手册前提为:新节点完全与集群脱离关系,原节点还在受集群管理,集群对外服务正常,只是新节点在集群看来已经完全离线。 (我们以一次MySQL镜像集群恢复全过程作为例子,至于其他应用其原理与操作步骤都与此例相同。) 二、配置前准备工作 首先镜像集群中目前对外正在服务,所以新节点连入时,其业务数据必须以原节点为准,在配置前,必须在新节点划分出一个大于等于原节点镜像盘空间的分区,这个分区作为新节点的镜像盘,这样才能在不损失数据(数据是以原节点镜像盘为准的)的同时将新节点连入镜像集群,这点非常重要。同时记得将新节点的IP地址等还原为离线前的状态(即设置新节点的IP地址为之前集群中离线节点的IP地址)。

在新节点完全脱离集群后,集群工作状态如下图(配置监控端):(此例中节点192.168.1.91 为新节点、192.168.1.92为原节点)双机连接状态 资源树状态,此时原节点正常对外服务(即192.168.1.92) 镜像包状态

双机热备份软件介绍

双机热备份软件介绍 1、PrimeCluster(PCL)HA集群软件产品概述 PrimeCluster HA(PCL HA)是德国富士通-西门子计算机公司(Fujitsu-Siemens Computers)提供的业界领先的支持双机热备和多节点集群的高可用管理软件。 PCL HA是一种应用与系统高可用性(High Availability)管理器。它为关键业务应用及其相关资源提供了能够持续访问的平台。PCL HA可为任何类型的应用、服务或数据提供最通用的高可用性环境。最主要的优点在于自动识别系统故障及组件错误,并具有诸如透明本地恢复或应用故障转移(Failover)等合适的恢复措施。PCL HA拥有多方向故障转移功能——集群内任一节点均可接管其他节点的功能。若特定服务器出现故障,它所运行的应用会分配给余下正常运行的服务器,使管理员能灵活而有效地应用系统资源。由于应用可通过管理干预转移到其他服务器,这样就能在不中断操作的情况下对集群进行扩容。 PCL HA for Linux同目前市场上其他的基于开放源代码的HA软件不同,PCL是由FSC完全自行开发的Linux平台上的高可用软件,它在维护、故障排除、升级、售后服务方面都能够有充分的保障。同时根据PCL用户的反馈,对于开放源代码的HA类的系统关键软件,最终用户普遍对其版本更新能力、数据安全性和故障(特别是兼容性及底层故障)的排除能力普遍持怀疑态度。PCL for Linux在欧洲已经有相当的关键业务成功案例,在中国也有上百个成功安装使用的案例,因此,最终用户对PCL的接受度明显较高。 PCL HA做为一个高可靠的HA软件,以德国富士通-西门子公司的先进技术、严谨作风和可靠信誉为后盾,为用户提供系统高可用性方面的可靠保障,是关键应用下服务器集群的理想选择。 PCL HA高可用软件应用环境 PCL HA支持的操作系统有Linux和Solaris。 Intel-based的Linux发行版: ?RedHat Enterprise Linux ES/AS 3 (up to Update 5) ?RedHat Enterprise Linux ES/AS 4 (up to Update 2)以及64bit版本 ?SuSE Linux Enterprise Server 8 ( up to SP4) ?SuSE Linux Enterprise Server 9 ( up to SP2)以及64bit版本 ?以及各种兼容上述两种发行版的Linux,比如红旗、中标、CentOS等等 Sparc-based的Solaris ?Solaris 8 / 9 / 10 注:上述操作系统为PCLv4.2A00支持的操作系统,随着操作系统的升级,PCL也会做出相应的版本更新

实现的双机热备

如何实现的双机热备

————————————————————————————————作者:————————————————————————————————日期: 2

如何实现的双机热备 2009-01-05 12:19:58 一.介绍 作为服务器,需要提供一定的24X7的安全保证,这样可以防止关键节点的宕机引起系统的全面崩溃。春笛公司在长期的邮件系统方案实施过程 中,利用OpenSource开源软件,结合金笛邮件系统,成功地为多家单位实施了大容量邮件系统的高可靠双机热备方案。 基于linux的 HA软件可靠稳定,比使用商业版本的HA软件降低成本约9成左右。 在这里我们用 lvs 和 DRBD 实现了一个真实环境下的双机热容错集群。 这里的关键技术是如何实现ip代换, mon/heartbeat检测, 文件同步。 同样这一方法稍加改动就可以实现oracle热备份、ldap热备份等。 二.方案描述 将真实服务地址绑定到一个虚拟网卡(eth0:1)上通过检测程序 (heartbeat)来将主机或是备份主机的虚拟网卡(eth0:1)激活。从而实现热备份。使用网络硬盘RAID来同步文件。检测程序通过内网进行监控。 金笛高可用邮件系统架构(双机系统) F 2 工作模式

a) 正常状态: 正常工作状态 b) 备份激活: node1失效,node2激活状态 c) 主机就绪: node1故障排除,恢复状态 d) 切换回正常模式: 需要手动停止备份服务器的服务,系统会自动切换回正常模式三.软硬件需求 两台双网卡主机完全安装 redhat6.2 主机IP 10.0.0.126 备份主机IP 10.0.0.250 实际服务即浮动IP 202.93.204.68 邮件系统: 金笛邮件系统Jindi-Mail2.0 (https://www.doczj.com/doc/635391539.html,) HA软件: ftp://https://www.doczj.com/doc/635391539.html,/pub/ha/piranha-docs-0.4.17-2.i386.rpm

was8.5.5 linux集群部署

概述 linux集群部署,记录关键的几个步骤如下: 1.做两个InstallationManager安装工具,一个控制平台(79),一个HIS(78),两个node 2.服务器获取文件,sftp root@10.224.130.18p@ssw0rd 3.get /opt/software/IBM/agent.zip /opt/software/IBM/ exit 安装InstallationManager # 78、79上安装InstallationManager cd /opt/software mkdir agent unzip -q agent.zip -d agent cdagent /tools ./imcl install com.ibm.cic.agent -repositories ../repository.config -acceptLicense 安装WAS AS 8.5.5 #两个服务器都安装WAS mkdir WAS_ND_V8.5.5_3 unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_1_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_2_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_3_OF_3.zip cd /opt/IBM/InstallationManager/eclipse/tools/ ./imcllistAvailablePackages -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 ./imcl install com.ibm.websphere.ND.v85_8.5.5000.20130514_1044 -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 -acceptLicense 安装HIS #78 安装HIS mkdirWAS_V8.5.5_SUPPL unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_1_OF_3.zip unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_2_OF_3.zip

Windows server 2003双机热备教程(共享磁盘阵列式)

Windows 2003双机热备 时间:2010-06-06 23:05来源: 作者:编程点击:1804次 Windows2003标准版没集成双机热备份软件,只有用企业版的。系统安装本文所述双机热备是采用微软公司Windows2003 Server操作系统,非第三方管理软件。硬件需求:1、两台服务器,一台为主域控制器,另一台为额外域控制器;... Windows2003标准版没集成双机热备份软件,只有用企业版的。 系统安装 Windows2003 Server操作系统,非第三方管理软件。 、两台服务器,一台为主域控制器,另一台为额外域控制器; 2、每台服务器配置两块网卡,和两块阵列卡(一块做本地服务器磁盘阵列,另一块连接磁盘柜阵列); 3、一台用来共享资源的存储设备(本文为Dell221s磁盘阵列柜); 、一条点对点的反转网线(充做心跳线);两条将服务器接入网络的网线。 行数据转移。以下一同描述主域控制器和额外控制器的安装: 1、服务器分为主域控制器(主服务器)和额外域控制器(从服务器),这里将主域控制器标名为hrb0,将额外域控制器标名为hrb1; 2、将hrb0 的第一块网卡做为外网(局域网)使用的网卡,表明public,第二块网卡做为私网(与hrb1的连接)使用的网卡,表明private; 3、在主服务器上安装Windows 2003 Server Enterprise(过程略); 4、配置tcp/ip协议: 外网: 10.195.10.18 掩码:255.255.255.0 网关:10.195.10.210 DNS:10.195.10.19 10.195.10.18(把对方服务器IP作为本机的主DNS,本机地址做备用DNS) 内网: 192.168.0.1 掩码:255.255.255.0 (网关空) DNS: 192.168.0.2 192.168.0.1(把对方服务器IP作为本机的主DNS,本机地址做备用DNS) 5、安装补丁; 6、其它相关配置完成后,关闭服务器,准备连接磁盘阵列; 7、将磁盘阵列柜的应用模式调至"群集模式"(在盘柜的背面有滑动开关,调至靠近模块拉手一侧);由于在"群集模式"下,RAID卡会占用ID15的槽位,所以ID15槽位的磁盘在以后的配置应用过程中不会起到作用,建议将盘柜ID15槽位的硬盘取下,做为以后的备用硬盘。 8、将主域控制器的RAID卡连接线接至磁盘柜的EMM插口,磁盘阵列的另一EMM插口留给额外域控制器,如果服务器上的阵列卡是双通道的,两个服务器连接SCSI线的通道要一致。(即:如果主域控制器是连接通道1,则额外域控制器也需要连接通道1); 9、顺序开启磁盘阵列柜、主域控制器; 10、启动服务器,在开机过程中根据提示,配置阵列卡(阵列卡详细配置参见第二部分文档)。 11、服务器重启进入Windows 2003 桌面后,右键点击"我的电脑"-'管理'-'磁盘管理',这时可以看到磁盘阵列已经被计算机搜索到,但没有分区和分配盘符,不能应用; 12、在磁盘显示栏中,右键点击"磁盘0"(磁盘阵列柜)的位置,将磁盘阵列的磁盘"转换到基本磁盘"; 13、给磁盘阵列分区时要特别注意,所有的磁盘分区必须为"主磁盘分区";第一个分区的大小推荐为1G,这是预留给群集中的仲裁磁盘专用的;其它的分区大小根据实际应用确定;分配盘符时要考虑额外域控制器的分区,做到两台服务器一致;(提示:每台域控制器最好留有空闲的磁盘,作为突发情况使用,磁盘阵列柜上的所有磁盘分区必须格式化为NTFS。) 域控制器配置详解 域控制器的创建有主域控制器创建和额外域控制器创建两种,额外域控制器的创建直接参阅第22 条。 1、域控制器的创建,域控制器的创建是以后其他工作的基础,在安装Windows 2003 Server之后创建的,Win2003安装后首要配置网卡的IP地址。 2、Ip地址配置完成后开始创建域控制器:"开始"-"程序"-"管理工具"-"配置您的服务器向导"。 3、在欢迎窗口中直接点击"下一步"; 4、配置向导会检测本机河网络中的配置,如果服务器中的两个网卡有其中一块没有插入网线或额外控制器服务器没有开启,向导会有警告提示,但不会影响后续的配置,可以直接"继续"通过; 5、如果是配置群集中的主域控制器(第一个域控制器),在单选中要选择"第一台服务器的典型配置",如果不是第一个域控制器,选择"现有域的额外域控制器";

windows双机热备文档

目录结构 目录结构 (1) 一、群集介绍 (2) 二、群集专业术语 (2) 三、环境介绍及要求 (3) 1、网络拓扑结构 (3) 2、软件配置说明 (3) 3、硬件配置要求 (4) 四、安装群集前的准备工作 (5) 1、创建共享磁盘 (5) 2、网络及系统配置 (9) 五、安装群集服务 (20) 1、在A 节点上新建一个群集 (20) 2、将B 节点加入现有群集 (26) 六、配置群集服务 (31) 1、群集网络配置 (31) 2、心跳适配器优先化 (33) 3、仲裁磁盘配置 (34) 4、测试群集安装 (34) 七、故障转移测试 (37) 1、初级测试 (37) 2、高级测试 (38)

一、群集介绍 服务器群集是一组协同工作并运行Microsoft 群集服务(Microsoft Cluster Service,MSCS)的独立服务器。它为资源和应用程序提供高可用性、故障恢复、可伸缩性和可管理性。它允许客户端在出现故障和计划中的暂停时,依然能够访问应用程序和资源。如果群集中的某一台服务器由于故障或维护需要而无法使用,资源和应用程序将转移到可用的群集节点上。(说明:本文档编写的目的是为了帮助大家实现所关心的如何在VMWare Workstation 中完成,典型群集的配置步骤,不会具体的涉及到如何安装群集应用程序) 二、群集专业术语 节点: 构建群集的物理计算机 群集服务: 运行群集管理器或运行群集必须启动的服务 资源: IP 地址、磁盘、服务器应用程序等都可以叫做资源 共享磁盘: 群集节点之间通过光纤SCSI 电缆等共同连接的磁盘柜或存储 仲裁资源: 构建群集时,有一块磁盘会用来仲裁信息,其中包括当前的服务状态各个节点的状态以及群集转移时的一些日志 资源状态: 主要指资源目前是处于联机状态还是脱机状态 资源依赖: 资源之间的依存关系 组: 故障转移的最小单位 虚拟服务器: 提供一组服务--如数据库文件和打印共享等 故障转移: 应用从宕机的节点切换到正常联机的节点 故障回复: 某节点从宕机状态转为联机状态后,仍然继续宕机前的工作,为其他节点分流

双机热备简介

双机热备简介 一、双机热备 双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。其实现过程如下图所示: 图(1) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。双机高可用系统解决方案,为用户提供了具有单点故障容错能力的系统平台。它采用主服务发生故障时备服务器接管的机制,实现在线故障自动切换,实现系

统7×24小时不间断运行,避免停机造成的损失。 (一)纯软件双机热备 纯软件双机热备是在实时数据镜像基础上,实现了不需要共享存储的纯软高可用性系统,一般支持数据库和应用软件实现双机热备。 方案一:Windows(或者Linux)+ Rose Mirror HA+ORACLE(或者SQL Server)的双机热备 网络拓扑: 图(2) 投资采购软硬件设备: (1)数据库服务器:两台数据库服务器,每台服务器至少两个网络口; (2)操作系统:windows或者linux操作系统; (3)数据库软件:Oracle或者SQL Server企业版; (4)集群软件:Rose mirror HA(Rose公司); (5)交换机:核心交换机一台。

LINUX中使用IPVSADM配置LVS集群的基本方法

LVS集群有DR、TUN、NAT三种配置模式,可以对www服务、FTP服务、MAIL服务等做负载均衡,下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。 一、 Director Server的配置 在Director Server上配置LVS负载均衡集群,有两种方法: a. 通过ipvsadm命令行进行配置 b. 通过Redhat提供的工具piranha来配置LVS 通过ipvsadm命令行方式配置LVS 安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令: 复制代码 代码如下: [root@localhost ~]#ifconfig eth0:0 192.168.60.200 broadcast 192.168.60.200 netmask 255.255.255.255 up 此处在eth0设备上绑定了一个虚拟设备eth0:0,同时设置了一个虚拟IP是192.168.60.200,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.60.200,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设备eth0:0指定一条路由,执行如下指令: 代码如下: [root@localhost ~]#route add -host 192.168.60.200 dev eth0:0 接着启用系统的包转发功能,从而使系统充当路由器,执行如下指令: 代码如下: [root@localhost ~]#echo 1 ;/proc/sys/net/ipv4/ip_forward 指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是必须的,而在NAT模式下此操作是必须的。 然后开始配置ipvs,执行如下操作:

ORACLE 10g双机热备安装手册

ORACLE 10G双机热备安装手册 1安装前准备 ●Windows 20003操作系统已经安装好群集,确保服务器群集正常 ●群集配置如下: ?SERVER1机(xjmes3)PUBLIC IP 地址:10.205.28.217 ?SERVER2机(xjmes4)PUBLIC IP 地址:10.205.28.218 ?群集(xjmesserver)虚拟IP 地址:10.205.28.216 ●O盘为IBM DS300磁盘柜的盘符,为共享磁盘。 ●ORACLE 10G 数据库服务器软件 2在Server1机上安装Oracle 10G 群集切换到Server1上,Server2关机。 在o盘建oracle和log两个空文件夹。 2.1修改HOSTS文件 修改Server1机器上的HOSTS文件(在C:\WINDOWS\system32\drivers\etc文件夹中)如下图:

2.2仅安装数据库软件 在Server1机安装ORACLE,不安装数据库文件,只安装ORACLE数据库软件,主目录安装在本机磁盘(如C盘)。 ●在下图安装类型中选择高级安装: ●点击下一步,进入下图页面:

●把上图的路径o改成c (服务器本机自带的盘符),点击下一步,进入下图页面: ●点击上图页面的下一步,进入下图:

●当上图页面左下侧出现“0个要求将验证”时,点击下一步,将进入下图页面: ●在上图中选择“仅安装数据库软件”,再点击下一步按钮,进入下图页面:

●点击上图页面的安装按钮,进入下图页面: ●若需要改动可以点击上图“停止安装”按钮,然后点击“上一步”,即可进行调整,如果不需 要改动等安装进行到100%后,将会自动进入安装结束页面下图:

冷备份与热备份、双机热备与容错

冷备份与热备份、双机热备与容错 冷备份与热备份、双机热备与容错 冷备份与热备份 一、冷备份 冷备份发生在数据库已经正常关闭的情况下,当正常关闭时会提供给我们一个完整的数据库。冷备份时将关键性文件拷贝到另外的位置的一种说法。对于备份Oracle信息而言,冷备份时最快和最安全的方法。冷备份的优点是:1、是非常快速的备份方法(只需拷文件) 2、容易归档(简单拷贝即可) 3、容易恢复到某个时间点上(只需将文件再拷贝回去) 4、能与归档方法相结合,做数据库“最佳状态”的恢复。 5、低度维护,高度安全。 但冷备份也有如下不足: 1、单独使用时,只能提供到“某一时间点上”的恢复。 2、再实施备份的全过程中,数据库必须要作备份而不能作其他工作。也就是说,在冷备份过程中,数据库必须是关闭状态。 3、若磁盘空间有限,只能拷贝到磁带等其他外部存储设备上,速度会很慢。 4、不能按表或按用户恢复。 如果可能的话(主要看效率),应将信息备份到磁盘上,然后启动数据库(使用户可以工作)并将备份的信息拷贝到磁带上(拷贝的同时,数据库也可以工作)。

冷备份中必须拷贝的文件包括: 1、所有数据文件 2、所有控制文件 3、所有联机REDO LOG文件 4、Init.ora文件(可选) 值得注意的使冷备份必须在数据库关闭的情况下进行,当数据库处于打开状态时,执行数据库文件系统备份是无效的。 下面是作冷备份的完整例子。 (1)关闭数据库 sqlplus /nolog sql>connect /as sysdba sql>shutdown normal; (2)用拷贝命令备份全部的时间文件、重做日志文件、控制文件、初始化参数文件 sql>cp (3)重启Oracle数据库 sql>startup 二、热备份 热备份是在数据库运行的情况下,采用archivelog mode方式备份数据库的方法。所以,如果你有昨天夜里的一个冷备份而且又有今天的热备份文件,在发生问题时,就可以利用这些资料恢复更多的信息。热备份要求数据库在Archivelog方式下操作,并需要大量的档案空间。一旦数据库运行在archivelog

PLUSWELL双机热备

PLUSWELL多机集群、数据备份 解决方案

一:概述 企业和事业单位的运转越来越依赖于计算机系统,如果一旦这个数据处理中心无法正常运转,就会造成业务停顿,导致不可挽回的损失。 而现有的双机热备份设备存在价格高昂,成本较高的情况,往往使用户望而却步。而用户寻求底成本的纯软件方案又往往因产品不容易维护,纯软件双机方案不稳定等因素,往往给用户造成不必要的使用麻烦。有时因护理不当造成数据损坏,发生更大的事故。 蓝科泰达凭借其丰富的研发经验,为您提供高可用性系列产品和优质的服务,推出了蓝科泰达双机容错打包解决方案,目的在于保证数据永不丢失和系统永不停顿,同时为用户节省大量的开支。 蓝科泰达容错系统结合了蓝科泰达磁盘阵列产品的安全可靠性与双机容错技术高可用性的优点,相互配合二者的优势。蓝科泰达磁盘阵列针对双机容错技术做了许多优化和改进,满足了双机硬件的连接要求,根据应用环境的实际情况,适用于Windows2000平台以上,开放源代码Linux平台,SCO UNIX平台上的多种双机热备软件。 二、需求分析 企业关键业务一旦中断,企业的日常运作将受到致命的影响,那么就要求我们的系统在最短的时间内将系统恢复到正常状态。 所以我们要求双机软件能够实现以下几点: 1、异常终端检测 2、网络故障,系统故障,应用程序故障等全系统检测 3、当高可用系统中的某个节点故障,无须人工干预自动切换,保障系统运行 4、速度快(快速恢复) 贵单位业务平台,是以Windwos 2003 Server系统平台为基础,以SQL Server核心的数据库应用系统,该系统对稳定性要求很高、系统实时性和可用性提出要有连续运行的能力,系统一旦出现故障,其损失是惨重的。 因此,建议用户采用高可用技术,高可用系统在各个节点间保持的间歇的通讯,使系统中的独立节点组合成整体的一套系统,并使用PlusWell 软件可以保障该系统中的某一节点故障都可被PlusWell 软件所监控,如主服务器应用程序、网卡、操作系统,均纳入公共的安全体系,确保7*24的不停机。 比较典型的危及系统安全应用和系统错误主要有: (1)进程错误,比如用户应用与文件数据库的连接异常中断或用户进程 发生错误。 (2)文件系统故障,由于异常操作或其它原因造成文件系统内部部分信 息丢失或不一致。 (3)操作系统故障,操作系统本身的系统调用问题及底层的应用驱动在 安装或更新出现冲突; (4)网络线缆故障。 (5)介质问题,网络连接或物理硬盘也可能会出现问题。 方案拓扑:

Excel服务器教程

目录 目录 (11) Excel服务器教程 (33) 第一章引言 (33) 一.什么是Excel服务器 (33) 二.Excel服务器的主要特色 (33) 三.Excel服务器版本功能区别以及适用对象 (55) 四.使用Excel服务器需要的环境 (55) 第二章安装Excel服务器 (77) 一.Excel服务器企业版的安装 (77) 二.Excel服务器客户端的安装方法 (1717) 三.卸载 (2121) 四.升级安装 (2222) 第三章 Excel服务器的设置与登录 (2323) 一.MS Office相关配置 (2323) 二.IE的配置 (2323) 三.启动“Excel服务器服务” (2525) 四、登录Excel服务器管理控制台 (2626) 五、Excel服务器客户端连接与断开 (2727) 第四章 Excel服务器的初始设置 (2929) 一.设置全局公共信息 (2929) 二.建立部门 (3030) 三.定义角色 (3131) 四.添加用户 (3333) 第五章 Excel服务器的简单应用 (3535) 一、建立一个Excel服务器模板 (3535) 二、定义数据项 (3838) 第六章数据规范 (4747) 一.报表的填报 (4747) 二.问题 (4848) 三.数据规范 (4949) 四.为模板定义数据规范 (5050) 五.应用数据规范 (5252) 第七章函数 (5555) 一.用“客户名称”带出“责任销售员”。 (5555) 二.用“产品名称”带出“计量单位”。 (5858) 三.应用ESF_mnyToCap将小写金额转变为大写金额 (6060) 第八章表间公式 (6262) 一.定义 (6262) 二.实现表间公式 (6262) 第九章工作流........................................ 错误!未定义书签。错误!未定义书签。 一.定义......................................... 错误!未定义书签。错误!未定义书签。 二.实例......................................... 错误!未定义书签。错误!未定义书签。 第十章统计与查询.................................... 错误!未定义书签。错误!未定义书签。 一.销售日汇总................................... 错误!未定义书签。错误!未定义书签。 二、查询的实现................................... 错误!未定义书签。错误!未定义书签。 第十一章外部数据源.................................. 错误!未定义书签。错误!未定义书签。 一.引入MS ACCESS数据源......................... 错误!未定义书签。错误!未定义书签。 二.MS SQL Server 2000作为外部数据源 ............ 错误!未定义书签。错误!未定义书签。

双机热备搭建系统项目解决方案

UPS电源安装实施方案 1.双机集群介绍 1.1.双机集群的原理说明 双机容错是计算机应用系统稳定、可靠、有效、持续运行的重要保证。它通过系统冗余的方法解决计算机应用系统的可靠性问题,并具有安装维护简单、稳定可靠、监测直观等优点。当一台主机出现故障的时候,可及时启动另一台主机接替原主机任务,保证了用户数据的可靠性和系统的持续运行。在高可用性方案中,操作系统和应用程序是安装在两台服务器的本地系统盘上的,而整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。数据的集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备来读取和存储,并由专业人员进行管理,极保护了数据的安全性和性。用户的数据存放在外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(双机软件)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机热备模式即目前通常所说的active/standby 方式,active服务器处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间完全恢复正常使用。这是目前采用较多的一种模式。

1.2.双机系统逻辑图 1.3.双机热备实现模式 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。基于存储共享的双机热备是双机热备的最标准方案。这种方式采用两台(或多台)服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用热备(主从)、互备、双工(并行)等不同的方式。在工作过程中,两台服务器将以一个虚拟的IP地址对外提供服务,依工作方式的不同,将服务请求发送给其中一台服务器承担。同时,服务器通过心跳线(目前往往采用建立私有网络的方式)侦测另一台服务器的工作状况。当一台服务器出现故障时,另一台服务器根据心跳侦测的情况做出判断,并进行切换,接管服务。对于用户而言,这一过程是全自动的,在很短时间完成,从而对业务不会造成影响。由于使用共享的存储设备,因此两台服务器使用的实际上是一样的数据,由双机或集群软件对其进行管理。

相关主题
文本预览
相关文档 最新文档