当前位置:文档之家› 富士通存储DX440REC容灾配置

富士通存储DX440REC容灾配置

富士通存储DX440REC容灾配置
富士通存储DX440REC容灾配置

富士通业务连续性方案REC容灾实施文档

V2.0

Crazynet

bjxcyh@https://www.doczj.com/doc/e115622528.html,

全球首篇中文配置文档

二〇一四年十二月

目录

第1章方案介绍 (4)

1.1 方案描述 (4)

1.2 容灾逻辑说明图 (6)

第2章存储配置........................................................................................... 错误!未定义书签。

2.1存储端Advanced Copy配置........................................................... 错误!未定义书签。

2.1.1 Advanced Copy配置文件下载 ............................................. 错误!未定义书签。

2.1.2 创建PA TH ............................................................................ 错误!未定义书签。

2.2 V olume划分 ..................................................................................... 错误!未定义书签。

2.2.1 生产卷和REC目的卷设置................................................. 错误!未定义书签。第3章AdvancedCopy Manager CCM配置. (12)

3.1. 网上申请许可(license) (12)

3.2. AdvancedCopy Manager CCM for windows2008安装(两个站点都需要安装CCM

SERVER) (12)

3.3 AdvancedCopy Manager CCM配置(两个站点都需要安装CCM SERVER) (16)

3.3.1添加Device license (16)

3.3.2添加设别信息 (16)

3.3.3建立REC拷贝组 (17)

3.3.4建立REC复制关系对 (17)

3.3.5 REC同步命令操作 (18)

第4章AdvancedCopy Manager CCM相关操作案例 (18)

4.1. 添加新的空间到CCM流程 (18)

4.2. 主存储损坏CCM业务恢复流程 (19)

4.3. 存储切换后CCM业务恢复流程 (19)

4.4. CCM主机开关流程 (19)

第1章方案介绍

1.1 方案描述

主要VMware服务器均可通过一个独立的SAN连接网络并最终访问存储系统。在每台存储上配置ETERNUS SF AdvanceCopy Manager CCM REC软件及许可,用做存储级别的同步复制,由于中间是使用FC传输,因此复制方式采用同步复制方式。两台磁盘阵列通过FC 交换机连接,实现磁盘阵列间数据保护。当主存储设备的生产卷损坏或者主存储设备硬件故障的时候,可通过REC功能把已经同步的数据卷挂载恢复生产系统。

AdvancedCopy Manager CCM管理服务使用Windows2008R2平台,由CCM管理服务器直接调用存储控制器命令,对源数据卷操作REC命令,实现ETERNUS DX440S2和DX90S2存储的数据保护与复制功能。

拓扑图

方案:

(1)中心存储:有16块600GB SAS和8块3TB SATA盘,SATA盘用于PACS数据,并和灾备存储放一个机房,通过FC口做容灾,SAS和SATA 的数据都要和备存储做容灾。(2)容灾存储:有8块3TB盘,是和中心存储的8块SATA 盘做容灾的,通过4个FC口做;另外有44块SAS盘,其中有4块盘做diskbuffer,还剩40块盘,其中16块和中心的

16块SAS生产做容灾,剩下24块磁盘分别和3个地方的8块做容灾,3个地方的容灾用ISCSI 口和备存储连接。

(3)3个地方的存储:各有12块600GB SAS盘:其中有4块盘做diskbuffer(说明:由于存储分别在不同的城市,IP链路不稳定,带宽小,数据无法及时传输时,会占用缓存,影响存储性能,故用4块盘做diskbuffer,),剩余8块盘,通过2个ISCSI 口和异地城市的备存储做容灾。

1.2 容灾逻辑说明图

生产卷REC 同步到另外的存储上。对于相关系统而言,备份存储时透明的,不存在的。平时核心机房在线主机通过REC 将数据通过RA-FC 传输到灾备存储上。

当核心存储出现重大错误导致无法恢复时,就可以启动灾备存储进行恢复以保证继续对外服务。

当故障主存储恢复之后,将已经运行的存储的数据进行回拷或者将相关逻辑关系对调。

DX440S2DX90S2DX440S2DX90S2DX90S2

DX440S2

第3章AdvancedCopy Manager CCM配置

3.1. 网上申请许可(license)

根据许可纸上网址,填入相关信息后,生成许可号。

REC所用端口

DX440S22

CM#0 CA#0 Port#2

CM#1 CA#0 Port#2

DX90S2

CM#0 CA#0 Port#1

CM#1 CA#0 Port#1

3.2. AdvancedCopy Manager CCM for windows2008安装(两个站点都需要安装CCM SERVER)

放入ACM Manager光盘,点击安装

选择下一步

选择安装软件,如果只装CCM选择下面的选框。

选择默认安装路径

选择下一步

当安装结束之后会出现如下的界面

3.3 AdvancedCopy Manager CCM配置(5个存储都需要安装CCM SERVER)

在这里确认一点CCM是没有图形界面的,以下相关操作都是基于命令行操作的。

3.3.1添加Device license

首先是以管理员权限启动CMD命令行

进入到\LM\bin

1,esflm listid

esflm add License-ID License-Key –I IP-Address –u User-Name –p Password

上面步骤1是打印出所有的License-ID从中找到符合的ID号;步骤2就是将之前网上得到的License-key和对应的SN 注册到CCM主机中。

附件一:有许可的ID 号对应表

例如:

esflm add 04004404R 166B0535F1EB7621 -i xxx.0.5.18 -u root -p root

esflm add 04004403L TFADEBB427112014 -i xxx.0.5.18 -u root -p root

esflm add 04004404R TD8A09FD27112014 -i xxx.0.5.18 -u root -p root

esflm add 08024400S TA9671CF27112014 -i xxx.0.5.18 -u root -p root

esflm add 04004404R 166B0535F1EB7621 -i xxx.0.5.18 -u root -p root

esflm add 04000904R 86F5432362A76804 -i xxx.0.5.19 -u root -p root

esflm add 04000904R 6ED46A89454899ED -i xxx.1.5.5 -u root -p root

esflm add 04000904R CFDA0D0C58232694 -i xxx.2.5.5 -u root -p root

esflm add 04000904R 1286F63A15B91330 -i xxx.3.5.5 -u root -p root

3.3.2添加设别信息

首先是以管理员权限启动CMD命令行进入到\CCM\bin 1,注册本地端的存储设备

> acarray add -a Device-Name -ip Device-IP -user root -password root -lan

Successful completion.

2,远端的存储设备

> acarray add -a Device-Name -boxid Device-Boxid -remote

Successful completion.

3,检测相关信息

检测本地存储基本信息

acarray list

4,其他相关操作

删除设备信息

acarray remove -a Device-Name

更改远端设别信息

acarray change -a Device-Name-new New-Device-Name–remote

更改本地设别信息

acarray change -a Device-Name-new New-Device-Name

3.3.3建立REC拷贝组

1,建立拷贝组(Copy-group)(一共创建了三个拷贝组,prod-grp,prod-grp1,prod-grp2)acgroup create -g Copy-group-Name-type REC -a Device-Name-remote Device-Name Successful completion.

2,查看拷贝组基本信息

acgroup list

3,查看单一拷贝组详细信息

acgroup detail -g Copy-group-Name

4,删除拷贝组

>acgroup remove -g COPY-GROUP

3.3.4建立REC复制关系对

1,建立复制关系对

acpair.exe add -g TEST0-GROUP -p XXX1-DX440S2/0x0006:XXX-DX90S2/0x0006

acpair.exe add -g TEST1-GROUP -p XXX2-DX90S2/0x0007:XXX-DX90S2/0x0007

acpair.exe add -g TEST2-GROUP -p XXX3-DX90S2/0x0008:XXX-DX90S2/0x0008

acpair.exe add -g TEST3-GROUP -p XXX4-DX90S2/0x0009:XXX-DX90S2/0x0009

相关命令说明

对于以上命令中-P后面相关参数,从左往右一次说明如下:

XXX-DX90S2 代表容灾的那台存储,0x0006 代表 LUN 号 ID = 6 的那个磁盘。

XXX1-DX440S2,XXX2-DX90S2,XXX3-DX90S2,XXX4-DX90S2 分别对应四个存储。

2,删除复制关系对

acpair.exe remove -g prod-grp2 -p XXX1-DX440S2/0x0006:XXX-DX90S2/0x0006

3.3.5 REC同步命令操作

1,开启复制关系对同步

> acec start -g COPY-GROUP[-p PAIR]

2,查看复制关系对同步状态

> acec query -g COPY-GROUP

3,查看复制关系对同步百分比

> acec query -g COPY-GROUP–progress

4,暂停复制关系对

> acec suspend -g COPY-GROUP[-p PAIR][-force]

5,恢复复制关系对(restart)

> acec resume -g COPY-GROUP [-p PAIR]

6,翻转复制关系对(reverse)

> acec reverse -g COPY-GROUP [-p PAIR]

7,取消复制关系对(cancel)

acec cancel -g COPY-GROUP[-p PAIR] [-force]

第4章AdvancedCopy Manager CCM相关操作案例

4.1. 添加新的空间到CCM流程

1,在两台存储上面划出大小相同的V olume,并且按照相同Vol ID和Lun ID对应的关系映射到CCM主机上;

2,在CCM主机上面扫到相应新添加的Lun;

2,使用cmd命令行中添加相应的复制关系对:

> acpair add -g COPY-GROUP -p XXX1-DX440S2/0x0006:XXX-DX90S2/0x0006

4,开启相应的复制对同步:

> acec start -g COPY-GROUP–p XXX1-DX440S2/0x0006:XXX-DX90S2/0x0006

4.2. 主存储损坏CCM业务恢复流程

1,使用cmd命令行,取消相应的复制关系对:

> acec cancel -g COPY-GROUP

2,将已损坏的主存储映射关系删除;

3,将CCM备用端存储相应的卷映射到主机之上;

4,ESX主机扫描存储设备,开始进行虚拟机恢复。

4.3. 存储切换后CCM业务恢复流程

1,使用cmd命令行,删除所有复制对:

例:> acpair remove -g COPY-GROUP -p XXX1-DX440S2/0x0006:XXX-DX90S2/0x0006

2,删除相应的拷贝组:

例:> acgroup remove -g COPY-GROUP

3,删除相应的设别信息:

例:> acarray remove -a Device-Name

4,将原来的本地存储设为远端存储,远端存储设为本地存储:

例:> acarray add -a XXX-DX90S2 -ip Device-IP -user root -password root –lan > acarray add -a XXX1-DX440S2 -boxid Device-Boxid -remote

5,重新建立拷贝组:

例:> acgroup create -g COPY-GROUP-type REC -a XXX-DX90S2 -remote XXX1-DX440S2 6, 建立所有复制对关系:

例:> acpair add -g COPY-GROUP -p XXX-DX90S2/0x0006:XXX1-DX440S2/0x0006

7,开启REC同步:

例:> acec start -g COPY-GROUP

4.4. CCM主机开关流程

1,暂停所有的复制对

例:> acec suspend -g COPY-GROUP

2,关闭主机或者重启主机

注:不可更改相关系统设备路径

3,开启主机

3,同步相应的复制对

例:> acec resume -g COPY-GROUP

富士通官方服务报价

数据中心容灾备份方案完整版

数据中心容灾备份方案 HEN system office room 【HEN16H-HENS2AHENS8Q8-HENH1688】

数据保护系统 医院备份、容灾及归档数据容灾 解决方案 1、前言 在医院信息化建设中,HIS、PACS、RIS、LIS 等临床信息系统得到广泛应用。医院信息化 HIS、LIS 和 PACS 等系统是目前各个医院的核心业务系统,承担了病人诊疗信息、行政管理信息、检验信息的录入、查询及监控等工作,任何的系统停机或数据丢失轻则降低患者的满意度、医院的信誉丢失,重则引起医患纠纷、法律问题或社会问题。为了保证各业务系统的高可用性,必须针对核心系统建立数据安全保护,做到“不停、不丢、可追查”,以确保核心业务系统得到全面保护。 随着电子病历新规在 4 月 1 日的正式施行,《电子病历应用管理规范(试行)》要求电子病历的书写、存储、使用和封存等均需按相关规定进行,根据规范,门(急)诊电子病历由医疗机构保管的,保存时间自患者最后一次就诊之日起不少于15 年;住院电子病历保存时间自患者最后一次出院之日起不少于 30 年。

2、医院备份、容灾及归档解决方案 针对医疗卫生行业的特点和医院信息化建设中的主要应用,包括:HIS、PACS、RIS、LIS 等,本公司推出基于数据保护系统的多种解决方案,以达到对医院信息化系统提供全面的保护以及核心应用系统的异地备份容灾 数据备份解决方案 针对于医院的 HIS、PACS、LIS 等服务器进行数据备份时,数据保护系统的备份架构采用三层构架。 备份软件主控层(内置一体机):负责管理制定全域内的备份策略和跟踪客户端的备份,能够管理磁盘空间和磁带库库及光盘库,实现多个客户端的数据备份。备份软件主服务器是备份域内集中管理的核心。 客户端层(数据库和操作系统客户端):其他应用服务器和数据库服务器安装备份软件标准客户端,通过这个客户端完成每台服务器的 LAN 或 LAN-FREE 备份工作。另外,为包含数据库的客户端安装数据库代理程序,从而保证数据库的在线热备份。 备份介质层(内置虚拟带库):主流备份介质有备份存储或虚拟带库等磁盘介质、物理磁带库等,一般建议将备份存储或虚拟带库等磁盘介质作为一级备份介质,用于近期的备份数据存放,将物理磁带库或者光盘库作为二级备份介质,用于长期的备份数据存放。

emc存储容灾技术解决方案

EMC VNX5400 存储容灾技术解决方案 2017年8月 易安信电脑系统(中国)有限公司 .1

一、需求分析 随着各行业数字化进程的推进,数据逐渐成为企事业单位的运营核心,用户对承载数据的存储系统的稳定性要求也越来越高。虽然不少存储厂商能够向用户提供稳定性极高的存储设备,但还是无法防止各种自然灾难对生产系统造成不可恢复的毁坏。为了保证数据存取的持续性、可恢复性和高可用性,远程容灾解决方案应运而生,而远程复制技术则是远程容灾方案中的关键技术之一。 远程复制技术是指通过建立远程容灾中心,将生产中心数据实时或分批次地复制到容灾中心。正常情况下,系统的各种应用运行在生产中心的计算机系统上,数据同时存放在生产中心和容灾中心的存储系统中。当生产中心由于断电、火灾甚至地震等灾难无法工作时,则立即采取一系列相关措施,将网络、数据线路切换至容灾中心,并且利用容灾中心已经搭建的计算机系统重新启动应用系统。 容灾系统最重要的目标就是保证容灾切换时间满足业务连续性要求,同时尽可能保持生产中心和容灾中心数据的连续性和完整性,而如何解决生产中心到容灾中心的数据复制和恢复则是容灾备份方案的核心内容。 本方案采用EMC MirrorView 复制软件基于磁盘阵列(VNX5300-VNX5400)的数据复制技术。它是由磁盘阵列自身实现数据的远程复制和同步,即磁盘阵列将对本系统中的存储器写I/O操作复制到远端的存储系统中并执行,保证生产数据和备份数据的一致性。由于这种方式下数据复制软件运行在磁盘阵列内,因此较容易实现生产中心和容灾容灾中心的生产数据和应用数据或目录 .2

的实时拷贝维护能力,且一般很少影响生产中心主机系统的性能。如果在容灾中心具备了实时生产数据、备用主机和网络环境,那么就可以当灾难发生后及时开始业务系统的恢复。 .3

数据中心容灾备份方案

数据保护系统 医院备份、容灾及归档数据容灾 解决方案

1、前言 在医院信息化建设中,HIS、PACS、RIS、LIS 等临床信息系统得到广泛应用。医院信息化HIS、LIS 和PACS 等系统是目前各个医院的核心业务系统,承担了 病人诊疗信息、行政管理信息、检验信息的录入、查询及监控等工作,任何的系统停机或数据丢失轻则降低患者的满意度、医院的信誉丢失,重则引起医患纠纷、法律问题或社会问题。为了保证各业务系统的高可用性,必须针对核心系统建立数据安全保护,做到“不停、不丢、可追查”,以确保核心业务系统得到全面保护。 随着电子病历新规在 4 月 1 日的正式施行,《电子病历应用管理规范(试行)》要求电子病历的书写、存储、使用和封存等均需按相关规定进行,根据规范,门(急)诊电子病历由医疗机构保管的,保存时间自患者最后一次就诊之日起不少于15 年;住院电子病历保存时间自患者最后一次出院之日起不少于30 年。

2、医院备份、容灾及归档解决方案 针对医疗卫生行业的特点和医院信息化建设中的主要应用,包括:HIS、PACS、RIS、LIS 等,本公司推出基于数据保护系统的多种解决方案,以达到对医院信息化系统提供全面的保护以及核心应用系统的异地备份容灾 2.1 数据备份解决方案 针对于医院的HIS、PACS、LIS 等服务器进行数据备份时,数据保护系统的备份架构采用三层构架。 备份软件主控层(内置一体机):负责管理制定全域内的备份策略和跟踪客户端的备份,能够管理磁盘空间和磁带库库及光盘库,实现多个客户端的数据备份。备份软件主服务器是备份域内集中管理的核心。 客户端层(数据库和操作系统客户端):其他应用服务器和数据库服务器安装备份软件标准客户端,通过这个客户端完成每台服务器的LAN 或LAN-FREE 备份工作。另外,为包含数据库的客户端安装数据库代理程序,从而保证数据库的在线热备份。

六种数据库容灾方案

六种数据库容灾方案 1、经典方案,即双机ha,单盘阵的环境。 简单的说,双机热备就是用两台机器,一台处于工作状态,一台处于备用状态,但备用状态下,也是开机状态,只是开机后没有进行其他的操作。打个比方来说,在网关处架上两台频宽管理设备,将两台的配置设定为一致,只是以一台的状态为主,一台为次。主状态下的频宽管理设备工作,处理事件,次状态下的频宽管理设备处于休眠,一旦主机出现故障,备用频宽管理设备将自动转为工作状态,代替原来的主机。这就是“双机热备”。 2、单机双盘阵(os层镜像)。针对某些用户的双盘阵冗余的需求,我提出了在os层安装卷管理软件,用软件对两台盘阵做镜像的方案,但只有单机工作,一台盘阵挂了,因为os层的软raid的作用,系统仍然可以工作。 3、双机双柜(os层镜像)方案,这个方案,仍然是用os层做镜像,但是用了双机ha,这种方式有个尚未确认的风险,非纯软方式的ha要求主机有共享的存储系统。一台机器对盘阵lun做的镜像虚拟卷,是否也适用另一台主机,也就是说,a主机做的镜像,b主机接管后,是否会透明的认出a机做镜像之后的逻辑虚拟卷,如果ab两主机互相都能认,那么就是成功的方案!! 4、双机双柜(底层镜像)。这种方案,虽然共享的lun不是在一台物理盘阵上,但是被底层存储远程镜像到另一台盘阵上,能保持数据的一致性

5、双机双柜纯软方式HA。这种方案,主机装纯软HA软件,虽然纯软不需要外接盘阵,但是接了盘阵,照样可行。 6、双机双柜(hacmp geo),其实geo大体上就是个类似于纯软HA的软件。

数据库安全 (一)数据库安全的定义 数据库安全包含两层含义:第一层是指系统运行安全,系统运行安全通常受到的威胁如下,一些网络不法分子通过网络,局域网等途径通过入侵电脑使系统无法正常启动,或超负荷让机子运行大量算法,并关闭cpu风扇,使cpu过热烧坏等破坏性活动;第二层是指系统信息安全,系统安全通常受到的威胁如下,黑客对数据库入侵,并盗取想要的资料。 编辑本段 (二)数据库安全的特征 数据库系统的安全特性主要是针对数据而言的,包括数据独立性、数据安全性、数据完整性、并发控制、故障恢复等几个方面。下面分别对其进行介绍 1.数据独立性 数据独立性包括物理独立性和逻辑独立性两个方面。物理独立性是指用户的应用程序与存储在磁盘上的数据库中的数据是相互独立的;逻辑独立性是指用户的应用程序与数据库的逻辑结构是相互独立的。 2.数据安全性 操作系统中的对象一般情况下是文件,而数据库支持的应用要求更为精细。通常比较完整的数据库对数据安全性采取以下措施: (1)将数据库中需要保护的部分与其他部分相隔。 (2)采用授权规则,如账户、口令和权限控制等访问控制方法。 (3)对数据进行加密后存储于数据库。 3.数据完整性 数据完整性包括数据的正确性、有效性和一致性。正确性是指数据的输入值与数据表对应域的类型一样;有效性是指数据库中的理论数值满足现实应用中对该数值段的约束;一致性是指不同用户使用的同一数据应该是一样的。保证数据的完整性,需要防止合法用户使用数据库时向数据库中加入不合语义的数据 4.并发控制 如果数据库应用要实现多用户共享数据,就可能在同一时刻多个用户要存取数据,这种事件叫做并发事件。当一个用户取出数据进行修改,在修改存入数据库之前如有其它用户再取此数据,那么读出的数据就是不正确的。这时就需要对这种并发操作施行控制,排除和避免这种错误的发生,保证数据的正确性。 5.故障恢复 由数据库管理系统提供一套方法,可及时发现故障和修复故障,从而防止数据被破坏。数据库系统能尽快恢复数据库系统运行时出现的故障,可能是物理上或是逻辑上的错误。比如对系统的误操作造成的数据错误等。 SQL server数据库安全策略 SQL Server2000[1]的安全配置在进行SQL Server2000数据库的安全配置之前,首先必须对操作系统进行安全配置,保证操作系统处于安全状态。然后对要使用的操作数据库软件(程序)进行必要的安全审核,比如对ASP、PHP等脚本,这是很多基于数据库的Web应用常出现的安全隐患,对于脚本主要是一个过滤问题,需要过滤一些类似“,;@/”等字符,防止破坏者构造恶意的SQL语句。接着,安装SQL Server2000后请打上最新SQL补丁SP3。 SQL Server的安全配置 1.使用安全的密码策略 我们把密码策略摆在所有安全配置的第一步,请注意,很多数据库账号的密码过于简单,这跟系统密码过于简单是一个道理。对于sa更应该注意,同时不要让sa账号的密码写于应用程序或者脚本中。健壮的密码是安全的第一步,建议密码含有多种数字字母组合并9位以上。SQL Server2000安装的时候,如果是使用混合模式,那么就需要输入sa的密码,除非您确认必须使用空密码,这比以前的版本有所改进。同时养成定期修改密码的好习惯,数据库管理员应该定期查看是否有不符合密码要求的账号。 2.使用安全的账号策略 由于SQL Server不能更改sa用户名称,也不能删除这个超级用户,所以,我们必须对这个账号进行最强的保

FUJITSU磁阵安装配置工程指导手册(E2K M100M200)

ETERNUS2000 磁阵安装配置 工程指导手册 ETERNUS2000 M100 M200

一、硬件安装部分
存储安装手册的准备 请在安装 ETERNUS2000 M100 和 M200 存储设备前,把本手册准备好,然后按照本手册的步骤进行安装操 作。 Eternus2000 存储外观介绍 一、ETERNUS 2000 系列 M100&M200 机型
Model100
Model200
CE 柜: AUTO Power 开关。出厂默认为 OFF 当拨到 ON 的时候,存储柜加电即自动开 机。
IP Reset 按钮。 按一次切换 Master CM, 按 两次恢复网口默认 IP 地址 192.168.1.1

硬盘位置图
D E 柜 。 三 个 指 示 灯 , 面 板 上 无 F u j i t s u 标 志
C E 柜 。 四 个 指 示 灯 , 面 板 上 有 F u j i t s u 标 志

取下和安装面板的方法(需要打开锁)

安装前需要确认的事项: 电源容量和设备电源插头数量都需要提前计算,然后和客户沟通后准备好。
表.ETERNUS2000 Module100 尺寸(WxDxH) 最大重量 最大功率 最大发热量 输入电源 基本 最大 AC200~240V AC200~240V 电压 相 周波数 周围环境 482×660×88mm(2U) 4U/5U(含ACS1U) 70kg 770W 2, 771kJ/h AC200~240V 单相 50Hz or 60Hz 加电时温度(℃):5~35 未加电时温度(℃):0~50 湿度(%RH):20~80
表.ETERNUS2000 Module 200 尺寸(WxDxH) 最大重量 最大功率 最大发热量 输入电源 基本 最大 AC200~240V AC200~240V 电压 相 周波数 482×660×88mm(2U) 12U/16U(含ACS4U) 210kg 2, 270W 8, 170kJ/h AC200~240V 单相 50Hz or 60Hz 加电时温度(℃):5~35 未加电时温度(℃):0~50 湿度(%RH):20~80
周围环境
工具的准备 请在设备安装前,准备好以下工具。 FST (CE Terminal) 请准备好控制终端或笔记本 FST 以便访问存储设备。 交叉线 需要准备交叉线一条用于 FST 对存储设备的访问配置。

数据容灾备份设计方案

数据容灾备份设计方案 1.1数据备份的主要方式 目前比较实用的的数据备份方式可分为本地备份异地保存、远程磁带库与光盘库、远程关键数据+定期备份、远程数据库复制、网络数据镜像、远程镜像磁盘等六种。 (1)本地备份异地保存 是指按一定的时间间隔(如一天)将系统某一时刻的数据备份到磁带、磁盘、光盘等介质上,然后及时地传递到远离运行中心的、安全的地方保存起来。 (2)远程磁带库、光盘库 是指通过网络将数据传送到远离生产中心的磁带库或光盘库系统。本方式要求在生产系统与磁带库或光盘库系统之间建立通信线路。 — (3)远程关键数据+定期备份 本方式定期备份全部数据,同时生产系统实时向备份系统传送数据库日志或应用系统交易流水等关键数据。 (4)远程数据库复制 生产系统相分离的备份系统上建立生产系统上重要数据库的一个镜像拷贝,通过通信线路将生产系统的数据库日志传送到备份系统,使备份系统的数据库与生产系统的数据库数据变化保持同步。 (5)网络数据镜像 是指对生产系统的数据库数据和重要的数据与目标文件进行监控与跟踪,并将对这些数据及目标文件的操作日志通过网络实时传送到备份系统,备份系统则根据操作日志对磁盘中数据进行更新,以保证生产系统与备份系统数据同步。 (6)远程镜像磁盘 利用高速光纤通信线路和特殊的磁盘控制技术将镜像磁盘安放到远 …

离生产系统的地方,镜像磁盘的数据与主磁盘数据以实时同步或实时异步方式保持一致。磁盘镜像可备份所有类型的数据。备份拓扑网络结构1.2(即东风东路院区中心机广州市第八人民医院具有两个不同地点的中心机房房和嘉禾院区中心机房),在这基础上是可以构建一个异地容灾的数据备份系统,以确保本单位的系统正常运营及对关键业务数据进行有效地保护,以下设计方案仅提供参考。嘉禾院区数据中心东风东院区数据中心 本方案中,我们采用EMC的CDP保护技术来实现数据的连续保护和容灾系统。 1.在东风东院区数据中心部署一台EMC 480统一存储平台,配置一个大容量光纤磁盘存储设备,作为整个系统数据集中存储平台。 2.在嘉禾院区数据中心部署一台EMC 480统一存储系统,配置一个大容量光纤磁盘存储设备,作为整个平台的灾备存储平台。 ) 3.两地各部署两台EMC RecoverPoint/SE RPA,采用CLR技术,即CDP(持续数据保护)+CRR(持续远程复制),实现并发的本地和远程数据保护。 4.在东风东院区数据中心本地采用EMC RecoverPoint/SE CDP(持续数据保护)技术实现本地的数据保护。. 5.两地采用EMC RecoverPoint/SE CRR(持续远程复制)技术,实现远程的数据保护。由于两地之间专线的带宽有限,可以采用EMC Recoverpoint/SE异步复制技术,将东风东院区数据中心EMC480上的数据定时复制到嘉禾院区数据中心。根据带宽的大小,如果后期专线带宽有所增加,RecoverPoint会自动切换同步、异步、快照时间点三种复制方式,尽最大可能保证数据的零丢失。 1.3本地数据数据保护(CDP)设计

系统容灾解决方案

系统容灾解决方案 容灾基本概念 容灾是一个范畴比较广泛的概念,广义上,我们可以把所有与业务连续性相关的内容都纳入容灾。容灾是一个系统工程,它包括支持用户业务的方方面面。而容灾对于IT而言,就是提供一个能防止用户业务系统遭受各种灾难影响及破坏的计算机系统。容灾还表现为一种未雨绸缪的主动性,而不是在灾难发生后的“亡羊补牢”。 从狭义的角度,我们平常所谈论的容灾是指:除了生产站点以外,用户另外建立的冗余站点,当灾难发生,生产站点受到破坏时,冗余站点可以接管用户正常的业务,达到业务不间断的目的。为了达到更高的可用性,许多用户甚至建立多个冗余站点。 容灾系统是指在相隔较远的异地,建立两套或多套功能相同的IT系统,互相之间可以进行健康状态监视和功能切换,当一处系统因意外(如火灾、地震等)停止工作时,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作。容灾技术是系统的高可用性技术的一个组成部分,容灾系统更加强调处理外界环境对系统的影响,特别是灾难性事件对整个IT节点的影响,提供节点级别的系统恢复功能。 要实现容灾,首先要了解哪些事件可以定义为灾难?典型的灾难事件是自然灾难,如火灾、洪水、地震、飓风、龙卷风、台风等;还有其它如原提供给业务运营所需的服务中断,出现设备故障、软件错误、网络中断和电力故障等等;此外,人为的因素往往也会酿成大祸,如操作员错误、破坏、植入有害代码和病毒袭击等。现阶段,由于信息技术正处在高速发展的阶段,很多生产流程和制度仍不完善,加之缺乏经验,这方面的损失屡见不鲜。 容灾的七个层次 等级1:

被定义为没有信息存储的需求,没有建立备援硬件平台的需求,也没有发展应急计划的需求,数据仅在本地进行备份恢复,没有数据送往异地。这种方式是成本最低的灾难恢复解决方案,但事实上这种恢复并没有真正达到灾难恢复的能力。 一种典型等级1方式就是采用本地磁带库自动备份方案,通过制定相关的备份策略,可以实现系统等级1备份。 等级2: 是一种为许多站点采用的备份标准方式。数据在完成写操作之后,将会送到远离本地的地方,同时具备有数据恢复的程序。在灾难发生后,在一台未启动的计算机上重新完成。系统和数据将被恢复并重新与网络相连。这种灾难恢复方案相对来说成本较低,但同时有难以管理的问题,即很难知道什么样的数据在什么样的地方。这种情况下,恢复时间长短依赖于何时硬件平台能够被提供和准备好。 典型方式就是将数据备份到本地磁带介质上,然后通过运输方式(如“卡车”)将备份介质送往异地保存,而异地没有主机系统。当灾难发生时,再使用新的主机,利用数据备份介质(磁带)将数据恢复起来。 等级3: 相当于等级2再加上具有热备份能力站点的灾难恢复。热备份站点拥有足够的硬件和网络设备去支持关键应用的安装需求。对于十分关键的应用,在灾难发生的同时,必须在异地有正运行着的硬件提供支持。这种方式与等级2方式的区别是在异地有一个热备份站点,该站点有主机系统,平时利用数据备份介质(磁带)将数据恢复到主机系统起来。一旦发生灾难,利用该主机系统将数据恢复。 这种情况下,由于备份介质是采用运输方式送往异地,可能会有一天、甚至一周的数据丢失。由于备份站点己经有主机系统,数据恢复典型地需要一定的时间。 等级4:

道孚县人民法院大数据安全系统存储及备份容灾系统建设方案设计

道孚县人民法院 数据安全存储及备份容灾系统建设方案 一、建设意义 随着计算机的普及和信息技术的进步,特别是计算机网络的飞 速发展,信息安全的重要性日趋明显。但是作为信息安全的一个重 要内容数据备份的重要性却往往被人们所忽视。只要发生数据传输、数据存储和数据交换,就有可能产生系统失效、数据丢失或遭到破坏。如果没有采取数据备份和数据恢复手段与措施,就会导致数据 丢失或损毁,给数据中心造成的损失是无法弥补与估量的。 道孚县人民法院近年来越来越依赖于数据处理来进行管理及办公,对业务系统的依赖性也随之增加。我法院从2010年开始着重推 进信息化,但在进行信息化建设的同时灾难也随之潜伏进来,使得 业务系统在潜伏着威胁的环境里运行。因此在进行信息化建设过程 中保证法院的业务系统连续运行及数据处理的高可靠性和高可用性 已经成为首先要考虑。 二、我院可能面临的灾难事故风险 1、存储介质风险:,包括存储和服务器硬盘,设备老化,影响 数据安全,发生概率较高。 2、应用服务器风险:服务器硬件故障,影响应用业务间断,发 生概率比较高。 3、逻辑错误风险:受人为误操作,病毒,升级等因素。影响数 据和应用,发生概率非常高。 4、机房环境风险:机房断点,异常电压,灰尘,气温等,影 响数据和应用。 5、自然灾害风险:地震、火灾、动乱等发生将是彻底灾难事故。影响数据和应用。 如果不能对风险采取有效治理,一旦数据由于上述某种原因丢失,就有可能造成整个法院在管理及办公上的严重问题,法院的形 象也将受到影响。如果核心数据丢失,严重时完全有可能造成整个 法院的瘫痪。

三、我院现状 道孚县人民法院地处甘北入口之重县,目前下设三个派出法庭,在未来几年还将再建四个派出法庭。随着“数字法院”的建设发展,业务应用系统的增加现有的数据保障模式已无法满足我院及其派出 法庭的数据安全和应用持续性保护。 (1)道孚县人民法院机房业务环境有: 法院信息化管理系统,它包括:案件绩效评估系统,审判管理 系统,OA系统,邮件系统,人事系统等;科技法庭系统还在建设之中。全院服务器有两台,一台为数据库服务器,一台为中间件服务器,均为windows操作系统平台,数据库服务器由Sybase数据库支撑。 (2)道孚县法院存储数据主要类型: 1、日常材料的扫描图片; 2、服务器业务运行产生的文件; 3、以后科技法庭建成后所产生的大量音视频文件; (3)备份数据的主要类型: 1、日常材料的扫描件; 2、服务器操作系统; 3、服务器业务运行产生的文件; 4、应用模块产生的业务数据,数据库等; 由于各种环境因素和升级问题,法院系统可能会出现故障。随 着硬件使用逐渐老化,应用程序故障等其他问题,会导致系统时常 停顿。保障这些业务系统不间断运行,需要构建一套能够及时恢复 故障设备,应用高可用性保障系统。 四、方案设计要求 (1)异地容灾: 方案设计需考虑备份的数据往往会因为非人为操作错误外的其 他因素所影响而导致毁坏,如地震、火灾、丢失等。因此必须在不 同的地点建立备份系统。

(完整版)存储级数据容灾方案

1.用户现状与需求 1.1.用户IT系统现状 用户现有系统包括数据库、应用、WEB、邮件等系统,虽然是双机架构,但是其稳定性和可靠性都没有达到核心系统应该具备的标准,而且直连的存储架构对于性能和管理型都有一定的局限性。 业务数据是企业业务的生命线,如何保护好计算机系统里存储的数据,保证系统稳定可靠地运行,并为业务系统提供快捷可靠的访问,是系统建设中最重要的问题之一。为了保护业务系统的关键业务数据,我们必须对这些数据进行有效的备份,并支持快速恢复。 通过备份的方式将文件、数据库等重要数据做一个副本,只能在本地建立数据保护。但因意外(如火灾、地震等)停止工作时,随之而来的损失更是不可估量,为避免类似风险的存在,就需要建立异地容灾系统,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作,保证业务稳定运行。 1.2.用户需求 1.2.1.建设目标 从容灾的级别来说,可以规划数据级容灾和应用级容灾,根据业务种类多,业务方式多样化的特点,仅建设一个数据级容灾是不够,容灾发生时,业务快速的恢复是容灾系统的一大需求。应用级容灾是建立在数据级容灾的基础上,在容灾切换时,除了切换核心的数据库数据外,还包含了IP地址切换(按客户需要选择),中间件服务,用户级业务。应用级容灾从流程上实现了全业务的连续性需求。 从我们的灾难系统建设经验出发,xxx有限公司可以考虑以下业务连续性计划目标:RPO(最大允许数据丢失时间):零数据丢失 RTO(最大允许宕机时间):30分钟

应用级容灾需求 1.2.2.需求分析 用户需要保障数据的长期安全可靠的,数据对于灾难的安全性和可恢复性:灾难切换时间要求灾难系统切换时间不超过30分钟,最好在10分钟内实现。 多种灾难切换方式提供自动灾难系统切换和手动灾难切换方式 计划内维护要求提供计划内维护支持能力,计划内维护切换时间不多于10分钟 数据丢失性要求原则上要求零数据丢失,可以依据情况进行调整 数据同步方式提供同步和异步两种方式 备份和灾难备份方式采用物理备份方式实现 物理部件失败要求支持部分磁盘,文件系统,主机,磁盘柜等各种物理部件失败导致的失败保护。 站点失败要求支持由于火灾,电力以及其他因素导致站点失败的数据保护。 逻辑失败要求支持由于数据块腐败导致的数据库无法启动,数据丢失等逻辑失败保护 人类错误失败要求支持由于人类误操作以及入侵等导致人类错误失败导致的数据保护或者恢复。 生产系统的性能影响要求生产系统性能影响不超过5% 生产系统可用性要求容灾系统不会降低生产系统可用性 网络链路分钟级别短暂故障要求不会对生产系统产生影响 网络链路小时级别长期故障要求不会对生产系统产生影响 网络链路密集的秒级别短暂故障要求不会对生产系统产生影响 网络链路容错支持网络链路的容错,可以利用网络的备份链路,比如多路网卡等灾难系统的硬件故障由于灾难系统硬件故障导致的灾难系统不可用不会对生产系统产生影响,比如网卡,磁盘以及控制卡等 灾难系统的软件故障由于灾难系统软件故障导致的灾难系统不可用不会对生产系统产生影响,比如灾难系统管理软件部件等 网络协议采用IP网络实现

存储级数据容灾方案

1.用户现状与需求 1.1.用户系统现状 用户现有系统包括数据库、应用、、邮件等系统,虽然是双机架构,但是其稳定性和可靠性都没有达到核心系统应该具备的标准,而且直连的存储架构对于性能和管理型都有一定的局限性。 业务数据是企业业务的生命线,如何保护好计算机系统里存储的数据,保证系统稳定可靠地运行,并为业务系统提供快捷可靠的访问,是系统建设中最重要的问题之一。为了保护业务系统的关键业务数据,我们必须对这些数据进行有效的备份,并支持快速恢复。 通过备份的方式将文件、数据库等重要数据做一个副本,只能在本地建立数据保护。但因意外(如火灾、地震等)停止工作时,随之而来的损失更是不可估量,为避免类似风险的存在,就需要建立异地容灾系统,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作,保证业务稳定运行。 1.2.用户需求 1.2.1.建设目标 从容灾的级别来说,可以规划数据级容灾和应用级容灾,根据业务种类多,业务方式多样化的特点,仅建设一个数据级容灾是不够,容灾发生时,业务快速的恢复是容灾系统的一大需求。应用级容灾是建立在数据级容灾的基础上,在容灾切换时,除了切换核心的数据库数据外,还包含了地址切换(按客户需要选择),中间件服务,用户级业务。应用级容灾从流程上实现了全业务的连续性需求。 从我们的灾难系统建设经验出发,有限公司可以考虑以下业务连续性计划目标:(最大允许数据丢失时间):零数据丢失 (最大允许宕机时间):30分钟 应用级容灾需求

1.2.2.需求分析 用户需要保障数据的长期安全可靠的,数据对于灾难的安全性和可恢复性:灾难切换时间要求灾难系统切换时间不超过30分钟,最好在10分钟内实现。 多种灾难切换方式提供自动灾难系统切换和手动灾难切换方式 计划内维护要求提供计划内维护支持能力,计划内维护切换时间不多于10分钟 数据丢失性要求原则上要求零数据丢失,可以依据情况进行调整 数据同步方式提供同步和异步两种方式 备份和灾难备份方式采用物理备份方式实现 物理部件失败要求支持部分磁盘,文件系统,主机,磁盘柜等各种物理部件失败导致的失败保护。 站点失败要求支持由于火灾,电力以及其他因素导致站点失败的数据保护。 逻辑失败要求支持由于数据块腐败导致的数据库无法启动,数据丢失等逻辑失败保护 人类错误失败要求支持由于人类误操作以及入侵等导致人类错误失败导致的数据保护或者恢复。 生产系统的性能影响要求生产系统性能影响不超过5% 生产系统可用性要求容灾系统不会降低生产系统可用性 网络链路分钟级别短暂故障要求不会对生产系统产生影响 网络链路小时级别长期故障要求不会对生产系统产生影响 网络链路密集的秒级别短暂故障要求不会对生产系统产生影响 网络链路容错支持网络链路的容错,可以利用网络的备份链路,比如多路网卡等灾难系统的硬件故障由于灾难系统硬件故障导致的灾难系统不可用不会对生产系统产生影响,比如网卡,磁盘以及控制卡等 灾难系统的软件故障由于灾难系统软件故障导致的灾难系统不可用不会对生产系统产生影响,比如灾难系统管理软件部件等 网络协议采用网络实现 网络带宽一般的百兆或者千兆带宽

ibm存储容灾方案v

i b m存储容灾方案v This manuscript was revised by the office on December 22, 2012

存储容灾解决方案 目录

一、概述 1.1信息系统现状 1.1.1存储系统现状 目前业务系统主要应用系统有文件服务器(windows )、应用服务器(windows )、邮件服务器(windows )、防病毒服务器(windows )、HR 服务器(windows )和ERP 服务器(SUN 小机)。目前应用系统均运行在独立的服务器中,一方面服务器本身容量空间有限,随着业务数据的不断增长,空间已基本饱和,另一方面数据安全性没有保障,服务器故障将面临整个业务系统数据丢失(单台服务器故障,怎么会造成整个数据丢失)。应用系统的高性能存储空间及数据保护工作是信息中心最为重视的 现有存储系统情况统计:(表格把客户目前服务型号及硬盘分布要写的详细些,表格我会提供) 序号 系统组成 系统类型/存储方式(位置) 现有磁盘阵列及类型、容量 1 文件服务器 Windows/本地 // 2 应用服务器 Windows/本地 3 邮件服务器 Windows/本地 4 防病毒服务器 Windows/本地 5 HR 服务器 Windows/本地 6 ERP 服务器 SUN 小机/本地 从上表情况来看,所有业务系统的数据都存放在本地硬盘上,本地硬盘存储具有如下缺陷: 单硬盘或者原始RAID 方式,故障率高,安全性低。 性能低下,影响应用主机性能。 磁盘容量性能扩展性差。 只能通过与之连接的主机进行访问。 每一个主机管理它本身的文件系统,但不能实现与其他主机共享数据。 数据分散,管理复杂。

异地容灾解决方案

存储升级整合与迁移方案规划建议书

目录 1. 方案总体规划 (4) 1.1存储现状及问题 (4) 2. 方案架构和选型分析 (6) 2.1高端存储平台选型论证 (6) 2.2整体方案及拓扑结构 (10) 2.3本次推荐的VSP及原有USP配置及容量规划 (11) 2.3.1 现有USP硬件配置及升级后配置情况 (11) 2.3.2 现有USP软件配置及升级后配置情况 (11) 2.3.3 新购VSP硬件配置情况 (11) 2.3.4 新购VSP软件配置情况 (12) 3. 数据迁移及服务 (13) 3.1数据迁移概述 (13) 3.1.1 当前系统架构 (13) 3.1.2 存储迁移架构 (13) 3.1.3 TrueCopy项目实施工作表 (14) 3.1.4 HUR项目实施工作表 (15) 3.1.5 ShadowImage项目实施工作表 (17) 4. 项目灾难备份演练、切换策略 (19) 4.1灾难备份演练策略 (19) 4.2灾难备份演练概述 (19) 4.2.1 灾难备份演练的目的 (19) 4.2.2 灾难备份演练的方法 (19) 4.3灾难备份切换策略 (21) 4.3.1 灾难备份切换概述 (21) 4.3.2 灾难备份切换策略 (21) 4.3.3 灾难切换及完整地意义的灾难恢复 (21) 4.3.4 灾难备份系统在技术层面可能存在的恢复缺陷 (22) 4.3.5 关键业务系统灾难恢复方案 (22) 5. 方案总结与介绍 (24) 5.1HDS存储方案特点 (24) 5.2HDS VSP高端存储指标和关键技术 (26) 5.2.1 存储虚拟化功能 (28) 5.2.2 存储逻辑分区技术 (29) 5.2.3 通用复制(UR)软件技术 (30) 5.3HDS VSP高端存储指标 (32)

分布式存储系统设计方案——备份容灾

分布式存储系统设计方案——备份容灾 在分布式存储系统中,系统可用性是最重要的指标之一,需要保证在机器发生故障时,系统可用性不受影响,为了做到这点,数据就需要保存多个副本,并且多个副本要分布在不同的机器上,只要多个副本的数据是一致的,在机器故障引起某些副本失效时,其它副本仍然能提供服务。本文主要介绍数据备份的方式,以及如何保证多个数据副本的一致性,在系统出现机器或网络故障时,如何保持系统的高可用性。 数据备份 数据备份是指存储数据的多个副本,备份方式可以分为热备和冷备,热备是指直接提供服务的备副本,或者在主副本失效时能立即提供服务的备副本,冷备是用于恢复数据的副本,一般通过Dump的方式生成。 数据热备按副本的分布方式可分为同构系统和异步系统。同构系统是把存储节点分成若干组,每组节点存储相同的数据,其中一个主节点,其他为备节点;异构系统是把数据划分成很多分片,每个分片的多个副本分布在不同的存储节点,存储节点之间是异构的,即每个节点存储的数据分片集合都不相同。在同构系统中,只有主节点提供写服务,备节点只提供读服务,每个主节点的备节点数可以不一样,这样在部署上会有更大的灵活性。在异构系统中,所有节点都是可以提供写服务的,并且在某个节点发生故障时,会有多个节点参与故障节点的数据恢复,但这种方式需要比较多的元数据来确定各个分片的主副本所在的节点,数据同步机制也会比较复杂。相比较而言,异构系统能提供更好的写性能,但实现比较复杂,而同构系统架构更简单,部署上也更灵活。鉴于互联网大部分业务场景具有写少读多的特性,我们选择了更易于实现的同构系统的设计。 系统数据备份的架构如下图所示,每个节点代表一台物理机器,所有节点按数据分布划分为多个组,每一组的主备节点存储相同的数据,只有主节点能提供写服务,主节点负责把数据变更同步到所有的备节点,所有节点都能提供读服务。主节点上会分布全量的数据,所以主节点的数量决定了系统能存储的数据量,在系统容量不足时,就需要扩容主节点数量。在系统的处理能力上,如果是写能力不足,只能通过扩容主节点数来解决;而在写能力不足时,则可以通过增加备节点来提升。每个主节点拥有的备节点数量可以不一样,这在各个节点的数据热度不一样时特别有用,可以通过给比较热的节点增加更多的备节点实现用更少的资源来提升系统的处理能力。

富士通基本操作

富士通笔记I/O口操作以LED实验为例 设置流程

以按键控制LED为例 初始化LED管脚PFR相应位为‘0’设置管脚为GPIO模式,PDOR 设置相应位1输出为1,DDR设置为输出模式相应位为1,key管脚初始化设置PFR相应位为‘0’,DDR相应位设置为‘0’,通过读取PDIR 判断输入情况 *** 外部中断操作以EXTI KEY 为例

操作流程 设置管脚映射;如FM3_GPIO->EPFR06 |= (2 << 2);/* 将INT01映射到INT01_1 */ 使能外部中断通道如NVIC_EnableIRQ(EXINT0_7_IRQn); /* 使能ch.0 to ch.7的中断*/

DMAC (直接内存访问控制器)以DMA_Memory_To_Memory为例 DMAC:操作步骤 1 具体如下设置首先DMACA:——》寄存器设置是否使能传送使能——》DMAC触发方式——》数据缓冲长度——》设置DMACB寄存器设置——》传输模式——》传输数据宽度——》设置传送源地址递增或者不变——》目标地址递增或者递减——》完成后是否使能中断源——》DMACSAX DMA传送源地址——》DMACDAX DMA 目标地址——》DMACR使能全局DMA——》(以下是打开了传输完

成中断设置)—— 清除NVIC_ClearPendingIRQ(DMAC0_IRQn);DMAC中断——》使能NVIC_EnableIRQ(DMAC0_IRQn);——》设置优先级NVIC_SetPriority(DMAC0_IRQn, 1); (中断函数)中断标志位清零FM3_DMAC->DMACB0 &= ~(7ul << 16); 双时钟定时器以32为周期中断模式为例

数据库容灾、复制解决方案全分析(绝对精品)

数据库容灾、复制解决方案全分析(绝对精品) 目前,针对oracle数据库的远程复制、容灾主要有以下几种技术或解决方案: (1)基于存储层的容灾复制方案 这种技术的复制机制是通过基于SAN的存储局域网进行复制,复制针对每个IO进行,复制的数据量比较大;系统可以实现数据的同步或异步两种方式的复制.对大数据量的系统来说有很大的优势(每天日志量在60G以上),但是对主机、操作系统、数据库版本等要求一致,且对络环境的要求比较高。 目标系统不需要有主机,只要有存储设备就可以,如果需要目标系统可读,需要额外的配置和设备,比较麻烦。 (2)基于逻辑卷的容灾复制方案 这种技术的机制是通过基于TCP/IP的网络环境进行复制,由操作系统进程捕捉逻辑卷的变化进行复制。其特点与基于存储设备的复制方案比较类似,也可以选择同步或异步两种方式,对主机的软、硬件环境的一致性要求也比较高,对大数据量的应用比较有优势。其目标系统如果要实现可读,需要创建第三方镜像。个人认为这种技术和上面提到的基于存储的复制技术比较适合于超大数据量的系统,或者是应用系统的容灾复制。 我一直有一个困惑,存储级的复制,假如是同步的,能保证数据库所有文件一致吗?或者说是保证在异常发生的那一刻有足够的缓冲来保障? 也就是说,复制的时候起文件写入顺序和oracle的顺序一致吗?如果不一致就可能有问题,那么是通过什么机制来实现的呢? 上次一个存储厂商来讲产品,我问技术工程师这个问题,没有能给出答案 我对存储级的复制没有深入的研究过,主要是我自己的一些理解,你们帮我看一下吧…… 我觉得基于存储的复制应该是捕捉原系统存储上的每一个变化,而不是每隔一段时间去复制一下原系统存储上文件内容的改变结果,所以在任意时刻,如果原系统的文件是一致的,那么目标端也应该是一致的,如果原系统没有一致,那目标端也会一样的。形象一点说它的原理可能有点像raid 0,就是说它的写入顺序应该和原系统是一样的。不知道我的理解对不对。另外,在发生故障的那一刻,如果是类似断电的情况,那么肯定会有缓存中数据的损失,也不能100%保证数据文件的一致。一般来说是用这种方式做oracle的容灾备份,在发生灾难以后目标系统的数据库一般是只有2/3的机会是可以正常启动的(这是我接触过的很多这方面的技术人员的一种说法,我没有实际测试过)。我在一个移动运营商那里看到过实际的情况,他们的数据库没有归档,虽然使用了存储级的备份,但是白天却是不做同步的,只有在晚上再将存储同步,到第二天早上,再把存储的同步断掉,然后由另外一台主机来启动目标端存储上的数据库,而且基本上是有1/3的机会目标端数据库是起不来的,需要重新同步。 所以我觉得如果不是数据量大的惊人,其他方式没办法做到同步,或者要同时对数据库和应用进行容灾,存储级的方案是没有什么优势的,尤其是它对网络的环境要求是非常高的,在异地环境中几乎不可能实现。

数据容灾备份方案

山西新景矿煤业有限责任公司数据灾备解决方案 2017年10月

目录 第1章需求分析 (3) 1.1用户简介 (3) 1.2需求描述 (3) 1.3方案目标 (5) 第2章技术方案 (7) 2.1全局拓扑 (7) 2.2(人员定位、产量监控、自动化平台)应用级双活容灾设计——镜像系统 (7) 2.3(网站、OA、虹膜系统等)数据级容灾设计——实时备份 (8) 2.4功能展示 (8) 2.4.1全自动化追逐式全量 (8) 2.4.2实时增量复制 (9) 2.4.3切换 (9) 2.4.4回切 (9) 2.4.5日常维护 (9) 2.5镜像系统.在线式应用级容灾系统产品优势 (10) 2.5.1所见即所得的容灾 (10) 2.5.2应用级的复制技术 (10) 2.5.3实施无需停顿业务系统 (10) 2.5.4主备系统硬件规格无需一致 (10) 2.5.5对网络带宽消耗非常小 (10) 2.5.6其他 (11) 2.6实时备份.数据级备份系统产品优势 (11) 2.6.1全功能全平台 (11) 2.6.2实时、定时备份 (11) 2.6.3任意时间点还原 (12) 2.6.4其他 (12) 2.7Y系MCenter平台.可持续运维平台 (13) 2.8方案配置 (14) 2.8.1软件模块 (14) 2.8.2硬件模块 (14) 第3章项目预算清单 (16)

第1章需求分析 1.1用户简介 新景矿是国家"八五"、"九五"重点能源建设项目之一,前身为阳煤集团三矿改扩建区。1997年8月试生产,井口定名三矿新井,隶属三矿管理。1998年10月阳煤集团为建立高产、高效矿井,以"阳煤党发【1998】398号"文《关于成立新景矿及新井党委的通知》将三矿新井从三矿分离出来,成立新景矿。 随着企业社会信息化的发展,众多业务系统的运行,必然会产生大量的数据,而这些数据作为各行各业最重要的资源,越来越受到人们重视。同样,由于数据量的增加和新业务的不断涌现,如何确保数据的安全性、可用和可靠性;如何确保业务系统的可持续性运行;如何实现数据的集中管理,建立便捷维护的平台也是目前所面临的一个重要问题。 1.2需求描述 ?简述 根据与用户的沟通,我们初步了解到客户的实际环境业务系统众多,其中人员定位系统、产量监控系统、生产自动化平台均采用集群方式,也是本企业的核心应用系统,其他诸如网站、OA、虹膜等系统均为单机运行。具体环境见下方调研表: ?容灾环境调研表

主流存储厂商竞争力分析

主流存储厂商竞争力分析 《中国电子报》记者孙永杰 EMC:策略转变挑战颇多 亮点:EMC推出了公司历史上最全面的存储平台,通过信息生命周期管理(ILM)理念为客户部署信息平台,同时优化了性能、规模和总体拥有成本。在过去的2006年是EMC的“首创”年,其推出了EMC Symmetrix DMX-3系统的新型号,这是世界上最快、最灵活和可扩展性最强的存储阵列。此外,EMC还发布了新的EMC CLARiiON CX3 UltraScale系列,这是第一个也是唯一具有端到端4Gb/s光纤通道技术的中档存储平台。2007年,EMC继续对创新进行大量投资;为各组织管理和优化其信息基础设施的方式带来更多价值;将市场范围扩大到新领域;扩大其世界级合作伙伴生态系统。 不足:EMC提出信息基础设施(Information Infrastructure)这个概念并实施。但如同它的6C战略一样,EMC并没有将自己收购的众多公司很好地整合在一起,甚至很多公司合并至今依然单独运作,使得EMC更像几家公司的战略联盟。这种情况无疑让EMC的信息基础设施战略大打折扣。所以到底EMC能不能完成此次转型,令人期待。 IBM:策略搭配应保护用户投资 亮点:要实施存储管理策略,就应该根据用户对数据需求的不同来做相应的数据管理。IBM可以帮助企业通过存储虚拟化、分级存储架构、集中存储监控和管理、容灾/高可用性和内容管理等五大方法做好存储管理,在竞争日益激烈的今天,帮助用户提升竞争力。

IBM拥有比其他任何存储厂商都完整的存储产品和解决方案,包括磁盘、磁带、交换机、相关软件和服务。IBM也对应用于信息生命周期管理中的存储产品进行了升级。包括应用于SAN环境里的最新磁盘产品,涉及高端IBM System Storage DS8000,中端IBM System Storage DS6000和应用于NAS环境的高端N7000产品,以及专门为数据保存和数据加密而设计且符合法规遵从需求的归档存储产品DR550。 不足:IBM公司的存储产品策略一直摇摆不定,从2000年至今,仅仅6年时间,IBM已经几易其产品规划,用户投资难以得到充分保护。在产品上,存在着市场定位重叠的现象,此外,其成本的居高不下,也影响了存储系统整体的扩展能力和灵活性。 HDS:需要真正完全的通用 亮点:作为全球成长速度最快的存储解决方案提供商,在2006年HDS不但凭借其旗舰产品USP和NSC稳居高端存储领域第一,还通过将其高端优势向中低端延伸而在中小企业市场收获颇丰。根据Gartner发布的最新《2006中端磁盘阵列魔力象限》,该报告已将HDS定位为中端领域的领导者,这是对HDS中端解决方案的充分肯定。 HDS借助Hitachi TagmaStore通用存储平台和TagmaStore网络存储控制器的推出,面向应用优化的存储解决方案现在能够把异构外接存储虚拟化到一个存储池中,使性能、整合度和虚拟化水平达到了很高的高度,可有效支持以应用为中心的服务质量、存储区域管理并简化了通用数据复制。 不足:实际上,日立的通用存储架构并非无条件的完全通用。研究表明,通用存储架构实际上基于HDS的私有协议来完成,用户只有完全依赖于日立的工具

相关主题
文本预览
相关文档 最新文档