Veritas Cluster Server for DB2双机热备的配置-高级
- 格式:doc
- 大小:63.50 KB
- 文档页数:4
Veritas HA安装配置手册目录1 安装 Veritas Storage Foundation (2)1.1 下载软件 (2)1.2 准备工作 (2)1.3 安装 SF for RAC (4)1.4 重新配置 SF for Oracle RAC (7)2 用 VEA 配置 Disk Group (7)2.1 安装 VEA (7)2.2 新建 DG (8)2.3 创建 Volumes 和 File System (9)2.4 在另外一个节点上配置 DG (11)3 安装 oracle 软件,创建数据库 (11)3 .1 安装 oracle 软件 (11)3 .2 用 Veritas 的 ODM 代替 Oracle 的 libodm 库 (11)3.3 手工创建数据库 (12)4 用 VCM 配置 Veritas HA (12)4.1 安装 VCM 图形界面,管理 VCS (12)4. 2 增加服务组 (12)4. 3 增加资源组 (12)4.4 在 resource 中设置 link 关系 (15)4.5 ha 配置文件 (15)5 HA 监控配置 (15)5.1 监控 oracle instance (15)5.2 listener 监控 (17)6 HA 切换 (17)6.1 HA 切换日志 (17)6.2 HA 切换测试 (17)7 常用命令 (18)7.1 Veritas DMP (18)7.2 Veritas VxVM (19)7.3 Veritas VCS (19)8 SMTP 报警邮件配置 (20)9 参考文档211 安装 Veritas Storage Foundation1.1 下载软件/vcsmcSF for RAC Release 5.1 on LINUX对应软件包 VRTS_SF_HA_Solutions_5.1_PR1_RHEL5_SLES10_x64.tar.gzVeritas Enterprise Administrator 3.4.15.0 (Linux)对应软件包 VRTSobgui-3.4.15.0-0.i686.rpmVCS Cluster Manager Java_Console 5.1 (Linux)对应软件包 VCS_Cluster_Manager_Java_Console_5.1_for_Linux.rpm1.2 准备工作# 软件要求Software VersionDatabase Oracle RAC 11g Release 2OperatingsystemRed Hat Enterprise Linux 5 (RHEL 5) Update 3 or laterOracle Enterprise Linux 5.3 (OEL 5.3) or laterSUSE Linux Enterprise Server 10 with SP2 (SLES 10 SP2)SUSE Linux Enterprise Server 10 with SP3 ( SLES 10 SP3)# 配置/etc/hosts在2 台主机/etc/hosts 上增加各自的IP192.168.0.49 host1192.168.0.50 host2# 配置2 个节点root 用户的ssh 信任# 配NTP# 准备共享磁盘存储上的 lun 必须对所有节点可见。
1.1 方案介绍1.1.1方案描述使用VERITAS Storage Solution HA/DR 5.1自带集群把两台数据库服务器构成cluster 架构,当SQL数据库主机当机时,存在的1台备机可迅速侦测出并自动探取接替(Take-Over),保证业务的不间断运行。
在最底层使用Storage Foundation 以及卷复制技术在两个磁盘阵列之间进行同步/异步的复制,保证两个盘阵的数据一致性,避免单点故障,为系统运行不间断提供最好的保障。
当生产中心出现故障的时候,灾备中心能及时被启用,做到应用级容灾。
1.1.2方案原理就该方案的每个细节进行讨论,包括方案的详细讲解,软件的实际配置方法等。
通过阅读和理解本章,您将了解VERITAS容灾解决方案的实现方法,并清楚地知道VERITAS容灾解决方案是切实可行的,并且有相关的实施案例和实施经验。
在介绍功能前,需要强调的的是:VERITAS提供的是完整的容灾解决方案。
各个软件的功能完全集成在一起,建立一个容远程数据复制、本地容灾、远程应用切换于一体的方案。
1.软件功能解释a)VERITAS Volume Manager(简称VxVM) 将在物理磁盘上建立多个或一个逻辑卷(Volume)。
以裸设备的方式使用卷,或在卷上建立文件系统。
将数据(特别是需要进行远程复制的相关文件系统、数据库)存放在卷上。
由于数据复制是基于卷的,所以,Volume 是进行复制的基础。
b)VERITAS Volume Replicator(简称VVR)负责远程数据复制。
VVR复制基于Volume进行。
复制的数据可以是数据库中的数据(文件方式或裸设备方式)和文件。
复制的示意图见图。
图四1)VVR与VxVM完全集成在一起。
用VxVM管理界面和命令统一配置管理;由于VVR仅仅将Volume上每次I/O的实际数据实时复制到远程节点,所以在网络线路上传输的数据量很少,对带宽的需求也很小。
;2)将各个业务系统中需要进行远程复制的多个或一个卷定义为一个ReplicatedVolume Group(简称RVG);3)在Site A定义一条RLINK,指向Site B;在Site B也定义一条指向Site A的RLINK。
DB2版本:9.5操作系统:AIX 5.3主机名:A机:ERP_Serv B机:Card_Serv说明:DB2 UDB在AIX操作系统上的双机双数据库互为备份的安装配置步骤1.环境说明1.1用户A机B机注意:两台机器的dasusr1用户主目录都建在本地,db2inst1、db2inst2用户和db2fenc1、db2fenc2用户的主目录都建在共享卷组上。
注意:两台机器上的用户和用户组的名称、ID号都要一样。
1.2.共享vg:ERP_vgCard_vg1.3实例及数据库:2.配置过程:2.1以下操作在A机上完成:1.建立共享卷组ERP_vg加载共享卷组ERP_vgvaryonvg ERP_vg查看ERP_vg上已经使用的lvlsvg -l创建lv:db2inst1lv,db2fenc1lv,db2log1lv,db2logarch1lv,db2data1lv mklv -y db2inst1lv ERP_vg 2kmklv -y db2fenc1lv ERP_vg 2kmklv -y db2log1lv ERP_vg 4kmklv -y db2logarch1lv ERP_vg 8kmklv -y db2data1lv ERP_vg 8k创建文件系统:/home/db2inst1,/home/db2fenc1,/db2log1,/db2logarch1,/db2data1 建立共享卷组Card_vg加载共享卷组ERP_vgvaryonvg ERP_vg查看ERP_vg上已经使用的lvlsvg -l创建lv:db2inst2lv,db2fenc2lv,db2log2lv,db2logarch2lv,db2data2lv创建文件系统:/home/db2inst2,/home/db2fenc2,/db2log2,/db2logarch2,/db2data22.创建用户db2inst1,db2fenc1和dasusr1创建组db2iadm1,db2fgrp1 和dasadm1创建用户db2inst2,db2fenc2创建组db2iadm2,db2fgrp23.安装数据库建立光驱文件系统mount /cdromcd /cdrom./db2setup (选择不在安装过程中创建实例)4.将相关路径的权限设定到指定用户chown -R db2inst1:db2iadm1/home/db2inst1chown -R db2fenc1:db2fgrp1/home/db2fenc1chown -R db2inst1:db2iadm1/db2data1chown -R db2inst1:db2iadm1/db2log1chown -R db2inst1:db2iadm1/db2logarch1chown -R db2inst2:db2iadm2/home/db2inst2chown -R db2fenc2:db2fgrp2/home/db2fenc2chown -R db2inst2:db2iadm2/db2data2chown -R db2inst2:db2iadm2/db2log2chown -R db2inst2:db2iadm2/db2logarch25.创建实例db2inst1cd /usr/opt/IBM/db2/V9.5/instance./db2icrt –u db2fenc1 db2inst1创建实例db2inst2cd /usr/opt/IBM/db2/V9.5/instance./db2icrt –u db2fenc2 db2inst26.创建数据库XPossu - db2inst1db2startdb2 create database XPos on /db2data1db2 connect to XPosdb2 quiesce database immediate force connectionsdb2 unquiesce databasedb2 connect resetdb2 update db cfg for XPos using logarchmeth1 "DISK:/db2logarch1" newlogpath /db2log1db2 backup database XPos to /db2backupdb2 terminatedb2stop创建数据库Cardsu - db2inst2db2startdb2 create database Card on /db2data2db2 connect to Carddb2 quiesce database immediate force connectionsdb2 unquiesce databasedb2 connect resetdb2 update db cfg for Card using logarchmeth1 "DISK:/db2logarch2" newlogpath /db2log2db2 backup database Card to /db2backupdb2 terminatedb2stop7.unmount /home/db2inst1unmount /home/db2fenc1unmount /db2log1unmount /db2logarch1unmount /db2data1varyoffvg ERP_vgunmount /home/db2inst2unmount /home/db2fenc2unmount /db2log2unmount /db2logarch2unmount /db2data2varyoffvg Card_vg2.2以下操作在B机完成:1.同步共享卷组importvg –y ERP_vg hdiskXmount /home/db2inst1mount /home/db2fenc1mount /db2log1mount /db2logarch1mount /db2data1importvg –y Card_vg hdiskXmount /home/db2inst2mount /home/db2fenc2mount /db2log2mount /db2logarch2mount /db2data22.创建用户db2inst1,db2fenc1和dasusr1创建组db2iadm1,db2fgrp1和dasadm1创建用户db2inst2,db2fenc2创建组db2iadm2,db2fgrp2注意:以上用户和组的ID号都要和A机上的相同3.安装数据库建立光驱文件系统mount /cdromcd /cdrom./db2setup (选择不在安装过程中创建实例)4.创建实例db2inst1mv /home/db2inst1/sqllib /home/db2inst1/sqllib.acd /usr/opt/IBM/db2/V9.5/instance./db2icrt –u db2fenc1 db2inst1rm –R /home/db2inst1/sqllibmv /home/db2inst1/sqllib.a /home/db2inst1/sqllibcp /home/db2inst1/sqllib/db2nodes.cfg.b /home/db2inst1/sqllib/db2nodes.cfg(在hacmp环境中把该命令加到ha的启动脚本里)创建实例db2inst2mv /home/db2inst2/sqllib /home/db2inst2/sqllib.acd /usr/opt/IBM/db2/V9.5/instance./db2icrt –u db2fenc2 db2inst2rm –R /home/db2inst2/sqllibmv /home/db2inst2/sqllib.a /home/db2inst2/sqllibcp /home/db2inst2/sqllib/db2nodes.cfg.b /home/db2inst1/sqllib/db2nodes.cfg(在hacmp环境中把该命令加到ha的启动脚本里)5.修改/etc/services文件对照A机的/etc/services文件添加db2的端口号,两台机的端口号要保持一致6.启动数据库su - db2inst1db2startdb2 connect to XPossu - db2inst2db2startdb2 connect to Card安装成功注意:db2nodes.cfg文件中的主机名必须和运行DB2的主机名保持一致,因此可以在两台机的本地保存一个db2nodes.cfg的备份。
服务器双机热备方案 HUA system office room 【HUA16H-TTMS2A-HUAS8Q8-HUAH1688】双机热备方案双机热备针对的是服务器的临时故障所做的一种备份技术,通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。
1.集群技术在了解双机热备之前,我们先了解什么是集群技术。
集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。
这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。
一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。
计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。
一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。
当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。
其中,只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。
当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。
可见,双机热备是集群技术中最简单的一种。
2. 双机热备适用对象一般邮件服务器是要长年累月工作的,且为了工作上需要,其邮件备份工作就绝对少不了。
有些企业为了避免服务器故障产生数据丢失等现象,都会采用RAID技术和数据备份技术。
但是数据备份只能解决系统出现问题后的恢复;而RAID技术,又只能解决硬盘的问题。
我们知道,无论是硬件还是软件问题,都会造成邮件服务的中断,而RAID及数据备份技术恰恰就不能解决避免服务中断的问题。
要恢复服务器,再轻微的问题或者强悍的技术支持,服务器都要中断一段时间,对于一些需要随时实时在线的用户而言,丢失邮件就等于丢失金钱,损失可大可小,这类用户是很难忍受服务中断的。
服务器双机热备解决方案服务器双机热备解决方案是一种为服务器提供高可用性和容错能力的解决方案。
通过使用两台服务器进行镜像备份和故障切换,可以实现在主服务器故障时无缝地切换到备份服务器,确保系统的连续可用性。
以下是一个详细的服务器双机热备解决方案。
1. 硬件配置:首先,选择两台具备相同规格和配置的服务器作为主备服务器,确保它们具备相同的处理能力、存储容量和网络连接性能。
在服务器之间建立高速互联通道,如双机网卡冗余链接(Multiple Network Interface Redundancy)或光纤通道(Fibre Channel),确保数据传输的稳定和可靠性。
2.系统镜像备份:在主服务器上完成系统的安装和配置后,制作主服务器的系统镜像,并定期更新备份服务器的系统镜像。
可以使用备份软件或快照工具来实现系统镜像的制作和恢复。
3. 数据同步:使用数据复制技术实现主备服务器之间数据的实时同步。
常用的数据同步方式包括同步复制(Synchronous Replication)和异步复制(Asynchronous Replication)。
在同步复制中,主服务器将数据写入备份服务器之前,需要确认数据已经被写入备份服务器。
而在异步复制中,主服务器将数据写入备份服务器后马上返回,不等待备份服务器的确认。
根据需求和实际情况选择适当的数据同步方式。
4. 心跳检测:为了监测主备服务器的状态并确保高可用性,需要在主备服务器之间建立心跳检测机制。
心跳检测可以通过心跳包(Heartbeat)或集群管理软件实现。
当主服务器发生故障时,备份服务器可以通过接收不到心跳信号来判断主服务器的故障,并开始服务切换过程。
5. 故障切换:主服务器发生故障后,备份服务器需要尽快接管主服务器的工作。
在故障切换过程中,需要确保数据的一致性和完整性。
可以通过一些技术手段来实现故障切换,如虚拟IP(Virtual IP)、磁盘共享(Shared Disk)或共享文件系统(Shared File System)等。
一、注意:所有新的安装目录结构必须严格按照以下结构,升级版本也是按照以下结构。
二、安装前必备1、硬件:i.服务器两台,每台有两块网卡。
(每台都安装了SCSI卡)ii.磁盘阵列柜一个,终结器2个,电源线2根。
(已经作好raid)iii.交换机一台,网线四根。
iv.SCSI线两根。
2、连接i.服务器两块网卡分别用网线与交换机相连。
ii.SCSI线连接阵列柜和服务器,安装时,12为一通道,34为二通道,每通道连接一台服务器。
三、软件安装前注意。
1、操作系统安装。
i.安装Win2003 Server要用引导盘,选择IIS全选、、超级终端ii.日期时间必须选择24小时制。
iii.安装完成需要打补丁Sp1。
iv.分区至少要分3个区,分区使用NTFS●C盘,操作系统和系统必备软件。
●D盘,用于放TDMCServer文件夹●E盘,用于备份系统工具2、阵列柜磁盘分配i.分为两个区●Z盘,测试卷●G盘,共享磁盘3、在未安装双机软件前,要保证只有一台服务器处于开机状态,另一台必须关机。
四、安装数据库1、安装数据库时,关闭另外一台服务器。
安装SQLServer2000,安装过程中,将数据文件放在磁盘阵列柜的磁盘(G盘)上。
2、安装完一台后,将其关闭,再打开另外一台。
开机后,先将阵列柜上的数据库数据文件剪切至本地磁盘,再安装SQLServer2000,安装过程中,将数据文件放在磁盘阵列柜的磁盘(G盘)上。
五、程序需要用到的软件安装及步骤(A机上安装步骤,B机关机)。
1、将E盘“全矿井自动化平台2.0 安装程序”下的TDAuto文件夹及其中的内容,拷贝至服务器共享磁盘(D盘)根目录下2、将E盘“全矿井自动化平台2.0 安装程序”下的TDMCServer文件夹及其中的内容,复制至服务器D盘根目录下。
3、配IIS,将TDAuto设为默认网站的主目录,将AutoGraphic、QJY Auto、TDWebServer、webservice设为虚拟目录4、将webservice、TDWebServer目录的“安全”权限,添加将“Users”组设置写入权限。
公司数据集中存储备份方案一、用户现状2、操作系统和数据都在同一台服务器中,服务器使用时间有长有短。
3、用户数据只做了一些简单的备份,数据备份/恢复管理操作复杂,数据恢复时间长。
二、需要分析1、根据用户现在状况,数据与操作系统在同一台服务器的硬盘分区中,存在非常大的风险,操作系统出现问题时,很可能导致数据丢失。
数据库数据移置到高性能存储中,与操作系统分离,以提高数据保存的安全性可靠性。
2、服务器提供的硬盘数量有限,提供的最大IOPS数受硬盘数量限制,高峰时期,可能会出现响应延时。
磁盘存储能够提供更多硬盘,从而增加需要的IOPS,以提高业务系统整体性能。
3、未来用户会增加很多高性能应用系统,也需要高性能的存储系统来支撑,为了避免重复投资,设计存储时,需要考虑存储目前的应用,以及将来的性能要求和扩容需要。
4、由于单机运行,会存在单点故障,当某台服务器出现问题后,那么不能正常运行,建议选择双机热备系统,当某台服务器出现问题后,另外一台服务器共享存储里的数据,可对外提供服务器,保证业务的连续性。
5、由于电子设备都不能保证不出问题,同时,生产数据只有一份,一旦丢失,可能带来致命的错误,需要考虑数据保护机制,提供高效自动、易操作的中文图化管理系统。
三、方案设计1、数据集中存储根据以上需求分析,需要考虑2台数据库服务器,通过芯跳线组成双机热备,增加一台高性能数据存储。
本方案设计中,选择FC SAN存储架构方式,通过存储与服务器的HBA卡连接;对网络架构不作大的改动,只对服务器存放在服务器中数据进行迁移到存储中。
对应用系统需要提供高业务连续性时,只要在现有基础上增加双机热备(HA)即可。
针对綦江自来水公司公司的数据类型,主要是以SQL或者ORACLE等数据库的结构化数据和一些文件类的非结构化数据为主。
SQL/ORACLE等数据库的结构化数据,属于典型的数据库应用特征,普遍容量不大,随机IO读写非常频繁,属于性能要求大于容量需求的应用,因此对于这类数据的存储,优先考虑存储的性能要满足应用需求。
Veritas Cluster Server for Oracle双机热备的配置-概述将Oracle的双机放在DB2双机后面讲有两个原因:一是DB2的配置相对于oracle的配置来说比较简单,数据库的模式也比较容易理解,从简单的开始了解有利于用户的学校,而其中相似的地方用户可以参照DB2的配置;二是DB2双机的配置,也只能说是oracle双机配置的子集,用户在学习了DB2的双机之后,oracle双机配置的很多相似的地方简单说明一下即可,不会让用户感觉到重复,但是用户可以比较一下这两种模式的异同,有利于用户选择更合适自己的双机配置模式。
将sybase放在最后并不是因为它更复杂,而是它在这三个数据库之中,用户相对比较少,需要的人不多。
-DB2与Oracle数据库的对比DB2和Oracle有很多的不同,要想了解清楚,那个不是一朝一夕的功夫了。
幸运的是,因为我们现在只是需要做双机配置,所以我们只是在可能会影响配置的概念上,做一个简单的比较。
1.配置结构的不同:DB2数据库的双机热备只支持一种模式,就是DB2的程序在两台机器上各有一份,只有数据文件存放在共享存储中,如下图所示:图1,DB2双机配置结构图这种配置模式的优点是有利于数据库的升级,当其中systemA需要升级的时候,就把服务切换到systemB上运行,升级A的DB2程序,之后还可以把服务切换回到A来,然后升级B的DB2程序。
这个升级过程不会影响用户的DB2使用,因为总有一台机器可以使用DB2程序来响应用户的服务请求。
对于oracle来说不但可以支持这种程序存放在不同机器上的做法,而且支持把oracle的程序文件也同时放在共享盘上,其结构图如下所示:图2,oracle双机结构图-程序在各个服务器上图3,oracle双机结构图-程序和数据都在共享盘上将数据与程序同时放在共享盘上的优点有两个:一是节省磁盘空间,用户只需要保留一份数据库备份;二是有利于程序的一致性,不会因为数据库版本的不同,产生差异,可以避免产生一些莫名的问题。
Nginx+keepalived+heartbeat双机热备份配置手册正文目录1 双机热备简介 (3)2 双机热备安装与配置 (4)2.1 安装环境和软件版本说明 (4)2.2 系统安装 (4)2.3 JDK环境安装配置 (4)2.4 MYSQL安装配置 (6)2.4.1 基本安装配置 (6)2.4.2 数据库双机互备 (7)2.5 反向代理服务器NGINX的安装配置 (9)2.6 KEEPALIVED安装配置 (13)2.7 HEARTBEAT的安装配置 (15)2.8 APACHE-TOMCAT安装配置 (18)3 CENTOS下安装配置的改动 (20)3.1 NGINX (20)3.2 KEEPALIVED (23)3.3 HEARTBEAT (26)3.4 添加SHELL脚本 (29)1 双机热备简介双机热备及负载均衡配置图如下所示2 双机热备安装与配置2.1 安装环境和软件版本说明系统:Linux Ubuntu 10.10JDK环境:jdk-6u31-linux-i586方向代理服务器Nginx:nginx-0.7.67探测服务器状态软件Keepalived:keepalived-1.1.17Web服务器:Apache-tomcat:apache-tomcat-6.0.35数据库MySQL:mysql-5.1.612.2 系统安装2.3 JDK环境安装配置1 、安装jdk 程序最新版本jdk: jdk-6u31-linux-i586.bin进入usr 目录: cd /usr在当前目录创建目录java : mkdir java将jdk 安装文件复制到java 目录下:cp /usr/software/ jdk-6u31-linux-i586.bin /usr/java给安装程序赋予权限:chmod +x jdk-6u31-linux-i586.bin 执行安装命令:./ jdk-6u31-linux-i586.bin安装成功后,在java 目录下会出现jdk1.6.0_31 的目录。
Storage Foundation HA5.0 安装配置培训系统功能简述本实验将采用Veritas Cluster Server软件,实现运Oracle数据库应用的高可用集群保护,集群模式为双机热备,即将两台主机定义为一个主机集群,其中一台作为生产服务器对外提供应用,另一台作为热备援服务器。
当生产服务器出现问题,导致应用异常时,第二台服务器能根据事先定义好的切换策略进行应用接管。
我们将在由2台服务器构成的主机集群中,定义1个服务组,服务组承担一个Oracle应用,服务组中包含所有与所承担的应用相关的资源,故障切换是以服务组为单位的。
当故障发生时,整个服务组,包括组所有资源都将切换到目标服务器,并继续对外提供服务,从而实现高可用功能。
整个服务组由六个资源构成,六个资源的依赖关系如下图.系统拓扑系统环境说明:说明:本指南使用了如下的约定,请根据实际情况进行替换主服务器备服务器计算机名Vcs1 Vcs2私网(心跳网络)设置标志:heart1 标志:heart2 IP=10.10.10.1Mask=255.255.255.0IP=10.10.11.1Mask=255.255.255.0IP=10.10.10.2Mask=255.255.255.0IP=10.10.11.2Mask=255.255.255系统功能设计根据用户对系统高可用级别的需求,对集群系统的功能设计如下:✓当一台机器上的工作网卡发生故障时,VCS会自动地将IP地址切换到本服务器另一块网卡,所有应用将仍在本主机运行,IP在网卡间的切换并不影响用户应用。
✓当一台主机发生故障或关机时,VCS会自动地将其上所有有关的资源(即整个服务组)切换到另一台服务器,应用恢复。
✓当一台服务器上的某个VCS监控下的共用资源(指IP地址、Oracle Listener、Oracle 服务、MountV、Diskgroup)发生故障时,VCS会根据所配置的切换策略,自动地在本地尝试重启资源,或将其上所有有关的资源(即整个服务组)切换到另一台服务器,应用恢复✓当应用程序非正常终止时,VCS会自动将服务组切换到其他机器上;VCS也可以根据设置在本服务器重起相关进程(可以定义在某段时间重起尝试次数,仍无法启动时,才将服务组进行切换),在指定次数仍然不能启动时再进行切换,恢复应用。
Veritas Cluster Serve for DB2 agent双机互备配置(高级)
本文的读者在阅读本文之前,应该先阅读《Veritas Cluster Server for DB2双机热备的配置》一文,了解到DB2双机热备的基本原理和配置方法。
本文针对的是DB2的高级需求-大规模并行处理(Massively Parallel Processing, MPP)-环境下,用户如何利用VCS配置双机互备环境。
MPP简介
首先介绍一下DB2的大规模并行处理(MPP)的含义。
MPP其实就是多台计算机协同工作,共同完成同一个任务,目的就是为了能够使用一些比较廉价的服务器一起工作,提供给用户单机无法完成的服务。
而双机互备就是指当这些机器中的某一天出现故障的时候,其他的服务器可以接管运行在其上的服务请求,保证服务的高可用性。
大规模并行处理有两种方式:无共享并行方式和共享磁盘并行方式。
无共享并行方式是指集群中的数据库系统各自使用自己的数据资源,将协调程序发给自己的数据请求在自己的数据库上面查询,再将结果返回,由协调程序来将各个数据库发过来的数据组合成大的数据集并且发送给用户。
这种工作模式的优点是易于部署,结构简单清晰;缺点是缺乏高可用性,节点中任何一个节点的损坏都会导致其数据资源不可获得,破坏了数据请求的完整性。
其工作模式如下图所示:
图1 无共享并行体系结构
共享磁盘共享方式是指多个数据库同时工作,但是他们所读写的资源都是在一个共享的磁盘库中。
他们之间的访问冲突是通过锁机制来解决的。
它的优点是高可用性,任何一个节点的故障都不会对数据访问造成影响,每一个节点都可以访问全部的数据资源;这种缺点当然也是有缺点的:随着服务器数量的增加,锁的数量以及数据库访问失败的频率也会指数级的增加,会成为数据库访问的瓶颈。
然而,在目前的实际应用中,一般集群数量不会太多,所有这个因素可以忽略不记,而其带来的高可用性是大多用户选择它的主要原因。
其工作原理如图所示:
图2,共享磁盘并行体系结构
Symantec SFCFS简介
SFCFS的全称是Storage Foundation Cluster File System;它是symantec旗下SF产品线的一员,其具体的安装配置过程稍后会有仔细的讲解。
现在就让用户大概了解一下:SFCFS 其实和SF是非常相似的,都是用来管理磁盘和文件系统的。
对于磁盘组,卷和文件系统的概念和SF是完全一样的。
它和SF唯一的不同是它支持多个节点同时访问一个文件系统上面的数据,由SFCFS来进行文件锁管理,而SF中对于文件系统的访问是具有独占性的。
SFCFS允许多个节点同时访问的特点就是针对数据库的并行操作的需求而来的,所以它非常适合进行数据库的并行处理模式的管理。
DB2的配置
在DB2的配置中,我们先做好如下假设:由system1和system2来组成集群,其IP分别是192.168.0.1 192.168.02,磁盘组名为DB2DG,卷为DB2V ol,文件系统将挂载在/home/db2目录下。
注意:在配置过程中将不再说明DB2的基础配置,配置的详细信息请看《Veritas Cluster Server for DB2双机热备的配置(入门)》一文。
1.安装SFCFS的程序在system1和system2上;
2.创建SFCFS需要使用的共享磁盘和共享文件系统(原理和细节稍后会有专题,这
里只是配置):
a)在两台机器上面运行下面命令:
i.# vxdctl -c mode
得到的结果可能是下面两个中的任意一个:
cluster active - MASTER
cluster active – SLAVE
注意,下述的命令只能在返回是master的那台机器执行,因为它是整个cluster
中的主节点。
b)创建共享磁盘组
# vxdg -s init DB2DB c0t0d0;-s就是共享(share)的意思;
c)将新建的磁盘组以共享模式加入到system1和system2:
# vxdg deport DB2DG
# vxdg -s import DB2DG
注意:如果在这里没有用-s参数,那么磁盘组将被第一个执行导入的系统使
用,其他系统的导入操作将会失败。
必须以共享模式导入才能被多个系统使用。
d)创建卷:
# vxassist -g DB2DG make DB2V ol 5g
e)创建文件系统:
# mkfs -F vxfs -o largefiles /dev/vx/rdsk/DB2DG/DB2V ol
f)将新建的文件系统以共享模式加载到两台机器上面:
# mkdir /home/db2
# mount -F vxfs -o cluster /dev/vx/dsk/DB2DG/DB2Vol /home/db2
3.在两台机器创建相同的数据库管理组和管理员,并且加上DB2的注册码(配置方
法见入门篇):
4.安装DB2的程序到两台机器上,将数据文件指定到共享盘所在的目录/home/db2下
面;
5.修改db2nodes.cfg文件;
这里我想详细的讲述一下这个文件的格式,因为这个文件的配置正确与否之间关系
到了配置能否成功,而对于这个文件的内容,即使很多DB2的老用户也不是很清
楚:
这个文件的一个常见配置如下所示:
0 sysA 0
1 sysA 1
2 sysB 0
3 sysC 0
4 sysD 0
这个文件的每一行是一个节点的信息,其中第一列数字是唯一编号,表示后面的系统分区是一个集群的成员;第二列是主机的名称,一般就是系统的名称,表示
这个成员是运行在哪台主机上的;第三列是端口偏移量,如果某个系统上面部署了
多个分区提供数据库服务的话,DB2将通过不同的端口服务来区别不同的分区。
所以,根据上述解释,将该文件修改如下:
0 system1 0
1 system
2 1
6.确认数据库安装配置正常:
在每一台机器执行下列命令:
# su - db2inst1
$ db2start
$ db2stop
如果配置正确,那么下列命令在各个系统都能工作正常。
这样,数据库的配置就已经完成了。
VCS的配置
1.配置集群文件系统服务组:
在安装了SFCFS之后,VCS自动为集群文件系统创建一个原始的服务组,我们只
需要稍微改变它一下即可。
a)在该磁盘组下面创建Cluster Disk group资源和Cluster V olume资源;并修改其
属性,让它们控制DB2DG和DB2V ol的状态;
b)在原有的集群挂载点资源(CFSMount)上设置依赖属性,让其依赖于集群卷;
在设置集群卷依赖与集群磁盘组;
c)设置后的关系图如图所示:
图3,集群文件系统依赖关系图
2.配置DB2服务组:
a)创建DB2资源,IP资源和网卡资源,分别设定其属性,IP就是各个系统的主
机IP地址;
b)设置资源间的依赖关系:DB2数据库依赖IP资源,IP资源依赖网卡资源;
c)设置好的关系图如图所示:
图4,DB2数据库的依赖关系
3.建立集群服务组和DB2服务组之间的依赖关系:
a)右键点击VCS界面左侧新建的DB2服务组;
b)选择“link”,然后选择CFS服务组,选择online local以及soft模式;
c)这样DB2服务组就依赖与CFS服务组的状态了,如果CFS在某台系统故障,
则其上的数据库服务就会停止,对其资源的请求将会被DB2转移到其他数据
库节点上面;
4.测试工作状态:
让DB2服务组在两台机器同时上线,如果成功,则说明配置已经生效,并能正常使用。
数据库作为现在数据管理不可或缺的一个部分,在生产环境中有着重要的地位。
因此,如何能够使数据库能够稳定,高效的工作,成为每一个数据库管理员和系统管理员重要的工作。
所以学习配置数据库双机互备和双机热备的配置方法,是每一个想成为合格数据库管理员的必修课程。
现在大家已经学习了DB2数据库的管理和配置方法,稍后还可以学习oracle 和sybase的集群的配置方法,用户还可以比较这些主流数据库的不同之处。