当前位置:文档之家› EMC_VPlex存储双活建设方案详细

EMC_VPlex存储双活建设方案详细

EMC_VPlex存储双活建设方案详细
EMC_VPlex存储双活建设方案详细

XXXX市社保EMC VPlex建议方案

V1.0

易安信电脑系统(中国)有限公司

2012年11月

目录

一、总体架构图 (2)

二、项目建设规划 (3)

1.本地存储双活 (4)

2.存储系统利旧 (5)

3.数据迁移 (6)

4.本地数据备份与恢复 (6)

5.备份数据容灾和恢复 (6)

三、未来建设规划 (7)

1.“双活数据中心” (7)

2.“两地三中心” (8)

四、产品配置清单 (9)

五、相关产品介绍 (11)

1.EMC VNX系列存储系统产品介绍 (11)

2.EMC VNX系列存储系统规格表 (16)

3.EMC存储虚拟化VPLEX产品介绍 (26)

4.EMC VPLEX解决方案 (28)

5.EMC D ATA D OMAIN虚拟带库介绍 (34)

6.N ET W ORKER备份系统介绍 (34)

一、总体架构图

目前XXX市社保已经在使用EMC的存储系统VNX5100,为了进一步保障社保应用的高可用性,提高生产的安全级别,XXX市社保计划对目前的存储系统进行虚拟化整合,并搭建双活存储系统,保证关键业务所使用的存储系统即使有一台存储系统出现故障,也不会出现业务停顿,达到更高的生产安全保障。

另外,目前发现备份到磁带中的备份集存在很多问题,导致几乎所有备份集都无法读取,这将严重影响整个备份系统的成功率。所以,非常有必要对整个备份系统进行重新整合,淘汰目前使用的落后技术,采用更加安全、稳定的备份方式。

经讨论和分析,目前XXX市社保的存储整合与数据备份项目可归纳为以下几点需求:

1.更加稳定、安全的存储平台;

2.更加安全、稳定运行的备份平台和备份存储,并能通过现有网络进行远程备份和恢

复;

3.可扩展性更强的备份存储,可满足未来几年内数据量的多份全备份,保留所有备份

数据若干年以上;

经讨论分析,结合系统目前的现状,我们建议XXX市社保存储整合与数据备份项目的架构设计,如下图所示:

如上图所示,在生产中心的SAN网络中配置一套存储虚拟化设备——EMC VPlex,将目前的存储系统接入VPlex,所有应用系统只需要访问VPlex上的卷即可,接入VPlex上的存储可以做到镜像关系(即双活)或级联关系。建议对重要应用的数据存储在镜像的两台存储系统上。通过全新的备份软件Networker和备份存储Datadomain对生产数据进行本地及远程备份和恢复。

整个方案的组成部分为:

A.省中心机房-光纤交换网络:由两台速度为8Gbps的光纤交换机组成光纤交换网络,

为所有系统提供基于光纤协议的访问;两台光纤交换机之间互为冗余,为系统的网

络提供最大的可靠性保护。用户可自行建设冗余SAN网络。

B.中心机房-主存储系统:配置一台EMC VNX 7500存储系统,与当前的EMC VNX5100

存储通过虚拟化存储进行本地数据保护,对外提供统一的访问接口;重要应用系统

的数据都保存在这两台的存储系统上;

?EMC VNX 7500存储系统可同时提供光纤SAN、IP SAN、NAS等多种存储模式,最大可扩展到1000块磁盘,支持光纤盘、闪存盘、SATA盘、SAS盘、NL-SAS

盘等多种磁盘混插,大大增强存储系统的可扩展性;

?VNX 7500支持将闪存盘作为可读写的二级缓存来使用,VNX7500最大可支持

2.1TB二级缓存。同时支持自动的存储分层(FAST),提高存储系统的整体性

能;

?VNX 7500还支持LUN的条带化或级联式扩展,以将数据分散到更多的磁盘上;

C.中心机房-存储虚拟化:以EMC VPlex Local作为存储虚拟化;应用系统只需要访

问虚拟化存储,而不需要直接管理后端的具体的存储系统;通过存储虚拟化,可以

达到两台存储之间双活,可以支持异构的存储系统,对数据进行跨存储的本地及远

程保护,统一管理接口和访问接口;

D.中心机房-利旧存储:除了用来做“存储双活”的现有存储系统EMC VNX5100外,

如果还有其他的SAN存储系统,EMC建议,通过VPlex虚拟化功能,将这些旧存储

系统挂接到VPlex虚拟化存储中,加以利用;这些存储资源将作为存储资源池共享,按需使用;(注:挂接到vPlex后端的其他存储品牌需要在vPlex的兼容列表内。)

E.中心机房-备份存储(虚拟带库):在中心机房,由一台Data Domain DD620作为

备份存储,存储所有应用的备份数据;EMC Data Domain是一台磁盘备份存储,可

以模拟成磁带,提供非常高效的重复数据消除功能,可以与现有的大部分备份软件

配合使用,例如Networker、Symantec等;

F.中心机房-备份软件:采用EMC Networker备份软件,为所有系统提供备份功能,

包括全备、增量备份、差量备份等; Networker提供了LAN Free备份功能,可将

备份数据从存储系统中通过SAN网络直接写入虚拟带库中,减少备份时间和网络压

力;

G.备份机房-备份存储:为保证备份数据的安全性,建议在远程搭建一套备份机房,

保存一份备份数据在远端备份存储中(上图中,逻辑示意①所示),中心机房与远

程备份机房之间通过政务网传输数据;为了降低备份存储的管理复杂度、提高远程

备份的速度,建议在远端配置一台Data Domain DD620,作为系统的远程备份存储;

两台DD 620之间复制经过消重后的备份数据,可以降低数据复制对网络的压力;

H.远程备份机房-备份软件:为了防止当省数据中心的备份服务器出现问题后,无法

将数据恢复出来,可以在远程备份机房准备一套备份服务器,但这台备份服务器平

时处于关机状态,仅在需要时及在远程机房进行恢复演练时启用;

二、项目建设规划

通过EMC VPlex对存储进行虚拟化,逻辑示意图如下图所示:

虚拟存储

VPLEX

Local

内部网

数据库服务器

应用系统服务器

光纤交换网络

光纤交换网络

虚拟卷

存储系统 A

生产卷1

生产卷1

生产卷2

生产卷2

生产卷3扩展卷3

存储系统 B存储系统 D

存储系统 C

1.本地存储双活

应用系统通过虚拟化存储VPlex访问后端的存储系统,VPlex在提供虚拟化的存储访问的同时,还可以对数据进行本地保护。

如下图所示,VPlex通过镜像虚拟卷提供给应用系统访问,而在后端,VPlex镜像虚拟卷将数据写入两台独立的存储系统中,来达到数据本地保护的目的。

VPlex提供的本地数据高可用性保护,可以保证在存储系统、VPlex系统自身出现故障时,应用还可以正常使用,且不会导致数据丢失。

?当存储系统A/B其中一台出现故障时,由于通过VPlex的镜像功能,存储系统A/B 之间是RAID 1关系,应用系统可以正常运行,不需要停机;

?当VPlex系统自身出现故障时,由于在Vplex中的设置,VPlex不会修改存储系统LUN的配置信息,即,用户可以将存储系统A或B的LUN直接挂到应用系统,保证应用系统的继续运行,不会产生数据丢失。

2.存储系统利旧

VPlex在提供虚拟化的存储访问的同时,还可以方便地对存储容量进行扩展。当一台存储系统出现空间不足的情况时,可以通过VPlex的虚拟卷,将多台存储系统的空间组成一个卷给应用使用。通过这种级联方式,应用系统直接访问VPlex的虚拟卷,而VPlex后端接入的存储系统只是作为VPlex虚拟卷的存储资源池使用,达到资源的更合理分配和优化。

建议将目前XXX市社保的旧存储系统挂接到VPlex上,做成存储资源池,充分利用现有

资源。(注:挂接到vPlex后端的旧存储系统需要在vPlex的兼容列表中!)

3.数据迁移

在整个项目过程中,EMC将负责整个系统的搭建及相应的数据迁移,保证应用系统的正常过度。其中,数据迁移服务包括以下内容:

?将重要应用的数据迁移到EMC VNX5100存储系统上,通过VPlex的镜像功能,与VNX7500做成双活存储;

?将VPlex不兼容的存储系统上的数据,通过第三方数据迁移工具迁移到VPlex存储资源池中;

4.本地数据备份与恢复

A.省局数据的备份:所有的备份数据,都通过备份软件平台进行管理,备份到虚拟带

库DataDomain DD620中;备份服务器可以对备份集、备份空间、备份作业调度进

行统一的管理,备份存储DD可以对所有写进来的备份数据进行重复数据消除;

B.省局备份数据保留策略:由于备份存储DD具有重复数据消除的特性,保留多个全

备份集对备份存储的空间消耗非常小,为了应用数据的可追朔性,建议对所有备份

数据进行永久性保留;通过备份服务器Networker对备份集的保留策略进行设置。

例如:每周保留1个全备份,按保留年限为6年计算,总共需要保留全备份的份数

约为300份;

C.省局数据的本地恢复:当省数据中心的数据库出现物理/逻辑错误时,可以通过

Networker备份软件,将最近一次备份集的数据恢复出来;

5.备份数据容灾和恢复

A.备份数据容灾:本项目配置了两台DD620,在中心机房和远程备份机房各配置一台,

两台DD620之间可设置自动复制功能,一旦备份数据写入本地DD620中,系统会自

动实时将消重后的备份数据传输到远端的DD620中,达到备份数据容灾的目的;

B.数据的远程恢复:当中心机房出现大面积的错误,无法从本地的备份存储中恢复数

据时,需要在远程备份机房搭建一套Networker服务器(物理机已准备好),从备

份机房的DD620中读取相应的目录信息,然后通过这套Networker对生产数据库进

行恢复。

三、未来建设规划

1.“双活数据中心”

作为重要的政府部门,社保业务数据的重要性不言而喻,所以,有必要在系统的未来规划中考虑“双活数据中心”的方案,即,在XXX市建设两个数据中心:生产中心(第一站点)和同城容灾中心(第二站点),在两个数据中心之间采用两台存储做双活配置。

使用存储虚拟化EMC VPlex进行“双活数据中心”搭建,应用系统通过VPlex的分布式虚拟卷(Distributed LUN)统一访问生产中心和容灾中心的存储系统,如下图所示:

对于应用系统来说,访问虚拟卷而不需要关心后端的物理存储。

?当应用系统写数据时,VPlex自动将写IO复制一份到远端的存储系统,复制动作同步进行,可以确保生产数据的安全性;

?当应用系统读数据时,VPlex采用了AccessAnywhere技术,应用系统只需要就近访问最近的一台存储系统即可,可以大大节省两个数据中心之间的网络传输带宽;

?当存储系统故障时,VPlex采用的Active-Active技术,结合服务器的集群文件系

统(Cluster File System ),可以保证应用实时切换到容灾中心,而不需要人工

操作,保证了业务系统的高可用性,大大缩减了故障切换时间。

对XXX市社保的容灾建设而言,容灾方案的技术核心是数据的保护,实现远程数据复制,并能够在灾难发生时,快速在远端利用复制的数据提供服务,且应用系统不需要停机切换。同时,为了提高资源的利用率,部分应用系统可以运行的容灾中心的服务器/存储系统上,例如:查询系统等。

2.“两地三中心”

未来可以考虑,在XXX市以外的地区,例如广州再建设一个数据中心:异地容灾中心(第三站点)。

?在生产中心和同城容灾中心之间,采用光纤直连网络,数据采用VPLEX同步复制方式进行容灾,采用存储虚拟化的技术进行数据访问;两个数据中心的数据可以同时

被访问,且可以针对应用服务器的位置就近访问,做到双活(Active-Active)数

据中心;

?在生产中心和异地容灾中心之间,采用IP连接,数据采用EMC Recoverpoint数据异步复制进行容灾,异地容灾中心的数据在平时不能被应用访问,当生产中心出现

故障后,可将其激活使用。

如下图所示:

EMC Recoverpoint远程保护功能的运行原理如下图所示:当应用将数据写入存储系统时,光纤交换机上的智能拆分器会自动捕捉写操作,将其通过本地的RPA发送到远程数据中心的接收RPA中,并进行数据保护。

数据的恢复原理如下:当数据中心出现意外而无法正常运行时,可以将容灾中心的灾备卷直接挂接到备份服务器上,恢复生产。

四、产品配置清单

根据上面的方案,本期项目建设的产品配置需求概述如下:

产品配置清单数量

一、存储系统 VNX7500 存储系统EMC VNX 7500,96GB缓存,配置

21TB磁盘容量(35* 600GB 15k 3.5”SAS Disks,5 * 200GB SSD固态硬盘),8个

8Gbps光纤通道主机接口,Unisphere存储

1

未来建设”双活数据中心”的产品配置概述如下,供参考:

未来建设”两地三中心”的产品配置概述如下,供参考:

五、相关产品介绍

1.EMC VNX 系列存储系统产品介绍

1)要点

?适合多协议文件、数据块和对象存储的统一存储

?带 6-Gb/s SAS 后端的功能强大的全新多核 Intel CPU

?通过 EMC Unisphere 简化管理

?使用闪存进行优化,可自动分层以确保提供卓越的性能

?排名第一的存储提供商

?针对虚拟化环境提供的便于进行存储资源调配的功能

各种类型的组织都依赖及时的信息检索来促进交易和作出决策。尽管典型的组织正在经历两位数的数据成长,但 IT 预算、人员配备和传统的存储容量却跟不上步伐。因此,IT 部门不断承受着巨大压力:使用更高效的存储策略和加大员工可以管理的数据量但不增加员工。客户正在寻找存储供应商以提供创新方法来解决这些难题,就像采用服务器虚拟化让效率大大提升一样,服务器虚拟化是根据业务需求池化服务器资源并对计算机处理能力进行动态资源调配来实现这一点的。而存储要求不仅仅是根据业务活动动态移动信息,而且可使该过程完全自动化和自我管理。

EMC VNX 系列通过可扩展的易用解决方案,提供处理文件、数据块和对象存储的行业

领先的创新型和企业级功能。这种新一代存

储平台将强大、灵活的硬件与高效率、管理

和保护软件结合在一起,能够满足当今企业

的严苛要求。

2)VNX 系列—简单、高效和功

能强大

VNX 系列是一种强健的平台,整合了原

有的数据块存储、文件服务器和直连应用程

序存储,使组织可以动态增加、共享和经济

高效地管理多协议文件系统以及多协议数据块存储访问。VNX 操作环境支持 Microsoft Windows 和 Linux/UNIX 客户端在多协议(NFS 和 CIFS)环境中共享文件。同时,它还支持高带宽和对延迟敏感的数据块应用程序的 iSCSI、光纤通道和 FCoE 访问。EMC Atmos Virtual Edition软件和 VNX 存储结合使用,可支持基于对象的存储,并使客户能够通过EMCUnisphere 管理 Web 应用程序。

VNX 系列的新一代存储平台由带 6-Gb/s SAS 驱动器后端的 Intel Quad Core Xeon 5600系列提供支持,与以前生产的中间层存储相比,性能得到大幅提升:

?运行 Microsoft SQL 和 Oracle 的速度比以前快 3 倍

?不到两分钟就可使系统性能翻倍,而且无中断

?运行数据仓库的速度快 3 倍

3)轻松管理、监控和调整存储资产

借助 EMC Unisphere,可以通过分布式存储环境的简单、集成的用户界面从任何地方管理 VNX 系统。Unisphere 控制面板是一个可进行一览式管理和报告的屏幕,管理员可利用其快速查看并了解整个环境中正在执行的操作以及可采取的措施。Unisphere 的单点登录会自动发现环境中的所有 VNX、EMC CLARiiON、EMC Celerra 和 EMC RecoverPoint SE 安装,以便进行无缝配置。

4)使用闪存进行优化提高了系统性能

VNX 系列专门设计为利用闪存驱动器技术的最新创新成果,最大程度提高存储系统的性能和效率,同时将每 GB 成本降至最低。即使只有数个闪存驱动器与(一款无与伦比的强大软件,可对各异构驱动器中的数据进行分层,EMC FAST 套件并将活动最频繁的数据放入缓存中)结合使用,客户也可以体验到 FLASH 1st 策略带来的最佳优势。

FLASH 1st 只能通过 EMC 获取,保证客户绝不会因成本和性能而发愁。活动高度频繁的数据由高达 2 TB 的闪存驱动器提供服务,该驱动器带有 FAST Cache,可以动态吸收系统工作负载中的意外“高峰”。随着数据过期并且活动随时间变得不再频繁,FAST VP(针对虚拟池的全自动存储分层)会以 1 GB 为增量,将数据从高性能层分到高容量驱动器层中,这样整体成本较低,而且不用考虑应用程序类型或数据过期问题。而最令人称道的是,这一切都是基于客户定义的策略自动发生的,通过智能地执行与任务资源调配前后关联的工作,大大节省了应用程序和存储管理员的时间与费用。

5)通过自动化更高效地使用存储容量

VNX 系列包含内置的功能,有助于确保冗余、非活动或预期数据不占用宝贵的存储资源。数据块压缩功能(旨在处理相对不活动的 LUN,例如备份副本和静态数据存储库)会自动压缩数据,使客户可以重新捕获容量,并将数据的占用空间减少高达 50%。文件级重复数据消除/ 压缩功能通过对非活动文件进行有选择地压缩和重复数据消除,从而可将所使用的磁盘空间减少高达 50%。因为这些功能是作为后台任务运行的,所以可将系统性能开销降至最低。

6)适合虚拟环境的最佳存储

VNX 系列是适合虚拟化应用程序环境的理想中端系统。无论客户环境是基于VMware、Microsoft Hyper-V 还是基于 Xen,VNX 都可通过所有支持协议的完全认证,确保在实施的所有阶段都能够成功地部署虚拟化基础架构。

这样存储和服务器管理员就不会再盲目地执行操作。通过 VAAI(用于阵列集成的vStorage APIs)将 Unisphere 与 VMware vCenter 紧密集成,管理员可洞悉整个环境的情况(端到端)。每个人都可以使用其熟悉的管理界面查看虚拟资源和物理资源,透明地对存储进行资源调配、集成复制、访问所有存储功能并将其卸载到阵列上。

?只要单击两下,便可通过 VMware vCenter 对存储进行资源调配。

?针对 VMware 的 EMC VNX 插件利用最佳做法可确保存储与 VMware 之间获得最佳利用率和恢复能力。

?可加速硬件的 Fast 克隆能够在数秒内快速对新虚拟机进行资源调配。

?针对 NFS 数据存储区的按需 VMDK 压缩功能可将存储消耗量减少高达 50%。

?与 VMware 联合开发的 EMC Proven 解决方案和参考体系结构可加快关键应用程序虚拟化的速度。

7)业内最齐全的存储软件产品

VNX 系列软件以两种综合性程序包的方式提供,可确保客户拥有保护和管理其信息的所有必需功能。VNX Total Protection Pack 包括复制功能、时间点恢复功能(例如快照和克隆与自动应用程序复制结合使用可确保恢复)以及与保护策略法规遵从性相关的监控和警报。VNX Total Efficiency Pack 包含所有保护功能以及“一次设置、永久使用”性能优化功能。所有 VNX 软件都可通过 Unisphere 进行管理。

VNX 软件还可以通过以下模块化套件获得:

?FAST Suite —自动优化,可获得最高的系统性能,同时可将存储成本降至最低。

?Security and Compliance Suite —保持数据安全,免受更改、删除和恶意活动的影响。

?Local Protection Suite —亲身体验安全数据保护功能并重新调整用途

?Remote Protection Suite —保护数据免受本地故障、停机和灾难的影响

?Application Protection Suite —自动执行应用程序复制并证明符合法规遵从性VNX 系列软件VNX 系列套件

VNX Total Efficiency Pack FAST

安全和法规遵从性

VNX Total Protection Pack 本地保护

远程保护

应用程序保护

8)持续可用性保持业务正常运营

VNX 系列设计为可在关键业务环境中提供“5 个9”的可用性。VNX 可用性和冗余功能包括:

?高达 12.8 GB 的镜像写缓存,在镜像写缓存中,每个存储处理器都同时包含LUN 的主缓存数据及其对等存储处理器的缓存的辅助拷贝

?备用电池能够在出现电源故障时按顺序执行关机,缓存会转储到存储区磁盘,以确保数据得到保护

?RAID 保护级别 0、1、1/0、3、5 和 6,所有这些级别都可以同时并存于同一阵列中,以适应不同的保护要求

?主动热备盘增强了系统稳定性并提供最大的可靠性和可用性

?冗余数据路径、电源、驱动器连接和存储处理器,所有这些都具备无中断现场更换能力?提供持续的系统监控、呼叫总部通知和高级远程诊断功能

9)利用EMC 全球服务充分发挥 VNX 系列的优势

EMC 为各类企业提供解决其业务和 IT 难题并加快私有云进程所需的战略指导和技术专业技能。我们有遍及世界各地的 14,000 多名服务专业人员和支持专家,并有一个全球性联盟和合作伙伴网络,他们利用 EMC 三十年来在以信息为中心的业务实践中取得的经验证的方法体系、行业最佳做法、经验和知识,满足客户在整个信息生命周期中的全部需求。

所有 EMC VNX 平台都包含三年期“增强”支持保修,向客户提供下一工作日现场服务以及全天候远程支持。客户可以升级到“特优”支持,以获得全天候当天现场支持。VNX 软件保修包括 90 天的缺陷介质更换。客户可以升级到“基本”、“增强”或“特优”软件维护支持,以满足其 IT 要求。

EMC 针对 VNX 系列提供一整套补充服务,确保在客户环境中实现预期的性能。专家规划、设计和实施服务有助于缩短投资回报时间。EMC 咨询服务还帮助客户制定存储战略,为实施虚拟化和私有云做好准备。EMC 教育服务通过一套全面的业界领先的技术培训和 EMC 经验证的专家认证进一步提高客户投资的价值。EMC 还是数据迁移服务领域的领头人,通过使用一流的自动化工具实施发现、补救、规划和设计,每月可迁移超过 1 PT 的数据。

EMC 客户服务因其卓越的任务关键型支持而六次荣获 SSPA STAR 奖—可以帮助组织保持信息全天候可用,以提供竞争优势并带来收入增长。

2.EMC VNX 系列存储系统规格表

EMC VNX 系列统一存储系统能为中端系统提供无可比拟的可扩展性和灵活性,同时还能带来市场领先的简洁性和效率,帮助最大限度降低总体拥有成本。

1)体系结构

EMC VNX 基于强大的全新 Intel Xeon-5600 系列处理器,实现了模块化的体系结构,集成了用于数据块、文件和对象的硬件组件,并提供对本机 NAS、iSCSI、光纤通道和 FCoE 协议的并发支持。本系列产品通过二到八个 X-blade Data Mover提供文件 (NAS) 功能,通过充分利用完全 6 Gb SAS 磁盘驱动器拓扑的双存储处理器提供数据块(iSCSI、FCoE 和 FC)存储。

统一配置包括以下机架安装式机箱:

?磁盘处理器机箱(容纳硬盘驱动器)或存储处理器机箱(需要磁盘驱动器托盘)以及备用电源系统以提供数据块协议

?用于提供文件协议的一个或多个Data Mover机箱(可选)

?控制站(可选)

2)VNX 物理规格

3)VNX 连接

VNX 系列提供灵活的连接选项,采用 Flex IO 模块为文件 X-blade 提供 NAS 连接和为数据块存储处理器提供 FC 和 iSCSI 主机连接(有关每个 Blade 或 SP 支持的模块数量,请参阅上表)。

数据块到主机 CPU(基于 SP)FLEX IO 模块选项

文件到 NFS/CIFS 客户端(基于 X-BLADE)FLEX IO 模块选项

4)最大电缆长度

短波光纤 OM2 : 50 米 (8 Gb)、100 米 (4 Gb) 和 300 米 (2 Gb)

短波光纤 OM3 : 150 米 (8 Gb)、380 米 (4 Gb) 和 500 米 (2 Gb)

5)后端(磁盘)连接能力

每个存储处理器分别连接到四路 6 Gbps 串行连接 SCSI (SAS) 总线的两个或四个(或者,对于 VNX7500 为八个)冗余配置对中每个配置对的一端,让主机在存储处理器或总线发生故障时能够连续访问驱动器。VNX 型号需要最少四个“Vault”驱动器 (SAS),最多支持 1,000 个磁盘驱动器,最多可配置 67 个磁盘扩展机箱。每个 Vault 驱动器容量大约为200 GB,供 VNX 操作环境软件和数据结构使用。

支持的磁盘扩展机箱 (DAE)

用于 15 X 3.5 英寸磁盘处理器机箱/ 磁盘阵列机箱的磁盘驱动器

数据中心机房建设项目技术投标方案

有限公司 数据中心机房建设项目技术投标方案及计划书 上海徐家汇 电话:传真:

目录 第一部分需求分析及技术方案概述 (1) 第一章概述 (1) 1.1 项目背景 (1) 1.2 依据的原则 (2) 1.3 项目建设需求 (4) 1.3.1 总体需求 (4) 1.3.2 机房布局划分 (4) 1.3.3 室内装修 (5) 1.3.4 空气调节系统 (7) 1.3.5 供配电系统与照明 (9) 1.3.6 环境监控系统 (12) 1.3.7 KVM系统 (12) 1.3.8 气体灭火系统 (14) 第二章技术方案概述 (15) 2.1 方案结构概述 (15) 2.2 选型方案概述 (15) 2.2.1 机房装饰工程 (15) 2.2.2 空气调节系统 (16) 2.2.3 供配电及照明系统 (16) 2.2.4 环境监控系统 (18) 2.2.5 KVM系统 (18)

2.2.6 气体灭火系统 (19) 2.2.7 机房综合布线 (19) 2.3 上海XXXX在本项目上的优势 (19) 第二部分总体系统集成方案设计 (22) 1 机房布局设计 (22) 1.1 消防分区规划 (22) 1.2 机房设备规划 (22) 1.3 机房区剖面分配 (23) 2 机房装饰工程 (23) 2.1 需求概述 (23) 2.2 机房装饰规划 (23) 2.2.1 吊顶工程 (24) 2.2.2 机房地板 (24) 2.2.3 机房墙面 (25) 2.2.4 隔墙及门窗 (25) 2.2.5 场地降噪、隔热 (26) 2.2.6 场地净化 (26) 2.2.7 场地防水 (27) 2.2.8 机房照明 (28) 3 空气调节系统 (28) 3.1 规划设计 (28) 3.2 机房空调负荷设计 (28)

广州IDC数据中心设备项目规划建设方案

广州IDC数据中心设备项目规划建设方案 规划设计/投资方案/产业运营

广州IDC数据中心设备项目规划建设方案 IDC是数字化转型的基础设施,国内方面,我们认为在新基建的推动下,IDC行业有望迎来内生动力(云计算)和外部驱动力(产业政策)的共振。我们认为零售型业务和定制型业务长期来看皆具备发展潜力,不同公司基 于各自禀赋有望走出自己的最佳成长路径。重点推荐:数据港、光环新网、奥飞数据;建议关注:宝信软件等。 该IDC设备项目计划总投资17096.56万元,其中:固定资产投资12437.18万元,占项目总投资的72.75%;流动资金4659.38万元,占项目 总投资的27.25%。 达产年营业收入33884.00万元,总成本费用27038.00万元,税金及 附加293.06万元,利润总额6846.00万元,利税总额8083.34万元,税后 净利润5134.50万元,达产年纳税总额2948.84万元;达产年投资利润率40.04%,投资利税率47.28%,投资回报率30.03%,全部投资回收期4.83年,提供就业职位518个。 坚持“社会效益、环境效益、经济效益共同发展”的原则。注重发挥 投资项目的经济效益、区域规模效益和环境保护效益协同发展,利用项目 承办单位在项目产品方面的生产技术优势,使投资项目产品达到国际领先

水平,实现产业结构优化,达到“高起点、高质量、节能降耗、增强竞争力”的目标,提高企业经济效益、社会效益和环境保护效益。 ...... 数据中心行业(IDC),是指设计用于容纳服务器,存储和网络设备的专用场地,并提供关键任务业务应用程序,数据和内容。数据中心一般会布局在电力和网络资源附近,以支持计算设备的运行。由于其往往为客户的关键任务提供基础设施支撑,数据中心必须保证持续运作,因此监控和网络安全对数据中心非常重要。数据中心连续运作的能力通过电力基础设施(电池和发电机),专用冷却设备(计算机房空调机组),环境控制系统和安全系统共同辅助实现。这些关键的基础设施和系统组件都需要大量的资本支出。

双活数据中心建设方案

目录 第1章概述.................................................................................................................... 错误!未指定书签。 1.1数据集中阶段的数据中心建设 ......................................................................... 错误!未指定书签。 1.1.1 传统架构存在的问题.................................................................................. 错误!未指定书签。 1.1.2 H3C全融合虚拟化架构 .............................................................................. 错误!未指定书签。 1.2双活数据中心建设目标 ..................................................................................... 错误!未指定书签。第2章双活数据中心业务部署 .................................................................................... 错误!未指定书签。 2.1基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.1.1 模式简介 ..................................................................................................... 错误!未指定书签。 2.1.2 企业数据中心业务典型部署...................................................................... 错误!未指定书签。 2.2基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.2.1 技术简介 ..................................................................................................... 错误!未指定书签。 2.2.2 企业数据中心典型部署.............................................................................. 错误!未指定书签。 2.2.3 与 ................................................................................................................. 错误!未指定书签。第3章双活数据中心设计............................................................................................ 错误!未指定书签。 3.1网络结构 ............................................................................................................. 错误!未指定书签。 3.2双活数据中心部署 ............................................................................................. 错误!未指定书签。

双活数据中心建设方案模板

目录 第1章概述 (2) 1.1数据集中阶段的数据中心建设 (2) 1.1.1 传统架构存在的问题 (2) 1.1.2 H3C全融合虚拟化架构 (3) 1.2双活数据中心建设目标 (3) 第2章双活数据中心业务部署 (5) 2.1基于IP的业务部署模式 (5) 2.1.1 模式简介 (5) 2.1.2 企业数据中心IP业务典型部署 (5) 2.2基于DNS的业务部署模式 (7) 2.2.1 DNS技术简介 (7) 2.2.2 企业数据中心DNS典型部署 (8) 2.2.3 GSLB与SLB (10) 第3章XXXX双活数据中心设计 (13) 3.1XXXX网络结构 (13) 3.2XXXX双活数据中心部署 (13)

第1章概述 为进一步推进XXXX信息化建设,以信息化推动XXXX业务工作的改革与发展,XXXX在科技楼建有核心机房和一个小的本地容灾备份中心,现在在干保楼又新建了容灾网,实现同城双中心布局。 为提高业务可靠性与双中心设备资源的利用率,XXXX拟建同城双活数据中心,达到双中心同时对外提供同种业务的目标,同时实现业务切换无感知、计算资源灵活调度的功能目标。 1.1 数据集中阶段的数据中心建设 1.1.1传统架构存在的问题 传统数据中心网络采用传统以太网技术构建,随着各类业务应用对IT需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的IT基础架构方式给管理员和未来业务的扩展带来巨大挑战。具体而言存在如下问题: 维护管理难:在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种 物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容 易出现漏洞和差错。比如数据中心新增加一个业务类型,需要调整新的应用访 问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的 防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添 置新的防火墙设备,要考虑如何以及何处接入,有没有相应的接口,如何跳线,以及随之而来的VLAN、路由等等,如果网络中还有诸如地址转换、7层交换

数据中心项目建设方案介绍

数据中心项目建设 可行性研究报告 目录 1概述 1.1项目背景 1.2项目意义 2建设目标与任务 数据中心的建设是为了解决政府部门间信息共享,实现业务部门之间的数据交换与数据共享,促进太原市电子政务的发展。具体目标如下:建立数据中心的系统平台。完成相应的应用软件和数据管理系统建设,实现数据的交换、保存、更新、共享、备份、分发和存证等功能,并扩展容灾、备份、挖掘、分析等功能。 (一)建立数据中心的系统平台。完成相应的应用软件和数据管理系统建设,实现社会保障数据的交换、保存、更新、共享、备份、分发和存证等功能,并扩展容灾、备份、挖掘、分析等功能。 (二)建立全市自然人、法人、公共信息库等共享数据库,为宏观决策提供数据支持。对基础数据进行集中管理,保证基础数据的一致性、准确性和完整性,为各业务部门提供基础数据支持; (三)建立数据交换共享和更新维护机制。实现社会保障各业务部门之间的数据交换与共享,以及基础数据的标准化、一致化,保证相关数据的及时更新和安全管理,方便业务部门开展工作;

(四)建立数据共享和交换技术标准和相关管理规范,实现各部门业务应用系统的规范建设和业务协同; (五)为公共服务中心提供数据服务支持,实现面向社会公众的一站式服务; (六)根据统计数据标准汇集各业务部门的原始个案或统计数据,根据决策支持的需要,整理相关数据,并提供统计分析功能,为领导决策提供数据支持; (七)为监督部门提供提供必要的数据通道,方便实现对业务部门以及业务对象的监管,逐步实现有效的业务监管支持; (八)为业务数据库的备份提供存储和备份手段支持,提高业务应用系统的可靠性。 3需求分析 3.1用户需求 从与数据中心交互的组织机构、人员方面进行说明。

曙光DS800-G25双活数据中心解决方案介绍

曙光DS800-G25 双活数据中心解决案介绍 曙光信息产业股份有限公司

1解决案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 曙光DS800-G25双活数据中心案采用创新技术,可以不需要引入任第三软硬件,直接通过两台DS800-G25存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。

2产品解决案 曙光DS800-G25双活数据中心案由两台存储阵列组成,分别对应存储引擎A、引擎B。存储引擎A 和B上的卷可配置为双活镜像对,中间通过万兆以太网链路进行高速数据同步,数据完全一致。由于采用虚拟卷技术,双活镜像对中的两个卷对外形成一个虚拟卷。对服务器而言,双活镜像对就是可以通过多条路径访问的同一个数据卷,服务器可以同时对双活镜像对中两个卷进行读写访问。组成双活镜像系统的两台存储互为冗余,当其中一台存储阵列发生故障时,可由另一台存储阵列直接接管业务。服务器访问双活存储系统可根据实际需要,选用FC、iSCSI式,服务器访问存储的SAN网络与数据同步的万兆网络相互独立,互不干扰。 组网说明: 1)服务器部署为双机或集群模式,保证服务器层的高可用, 2)存储与服务器之间的连接可以采用FC、iSCSI链路,建议部署交换机进行组网; 3)存储之间的镜像通道采用10GbE链路,每个控制器上配置10GbE IO接口卡,采用光纤交叉直连的式,共需要4根直连光纤; 4)组网拓扑

数据中心项目建设商业计划书

数据中心项目建设商业计划书 数据中心项目建设商业计划书 (说明:本文为word格式,下载后可自由编辑)

目录 1概述 (4) 1.1项目背景 (4) 1.2项目意义 (4) 2建设目标与任务 (4) 3需求分析 (5) 3.1用户需求 (5) 3.2数据需求 (5) 3.2.1数据资源现状 (5) 3.3系统及应用需求分析 (9) 3.3.1节点管理 (11) 3.3.2主题管理 (11) 3.3.3元数据管理 (11) 3.3.4公共代码管理 (11) 3.3.5数据采集 (12) 3.3.6数据整理比对 (12) 3.3.7数据交换 (12) 3.3.8数据访问 (12) 3.3.9数据备份与恢复 (12) 3.3.10标准管理 (12) 3.3.11应用支持 (13) 3.3.12运行管理 (13) 3.4性能需求分析 (13) 3.4.1业务处理量分析 (13) 3.5安全保障体系需求分析 (15) 3.5.1系统安全可靠性需求 (15) 3.5.2数据安全保密性需求 (16) 3.5.3数据完整性需求 (16) 3.5.4实体的可鉴别性需求 (16) 3.5.5不可否认性需求 (16) 3.5.6对象和行为的可授权性需求 (16) 3.5.7统一信任与授权策略需求 (17) 3.5.8数据中心统一安全监管性需求 (17) 3.6保障机制需求分析 (17) 4数据中心设计方案 (18) 4.1设计原则 (18) 4.1.1统一建设 (18) 4.1.2相对独立 (18) 4.1.3共建共享 (18) 4.1.4安全可靠 (18) 4.2数据中心平台设计 (19) 4.2.1平台总体架构 (19)

双活数据中心方案15460

双活数据中心方案 一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势: 多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。目前客户建设多数据中心的模型可以归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

数据中心机房建设方案精品

【关键字】方案、建议、情况、方法、环节、条件、动力、前提、空间、领域、效益、质量、增长、监控、监测、运行、基层、地方、问题、系统、机制、有效、务必、深入、充分、现代、合理、良好、健康、快速、持续、配合、执行、保持、统一、发展、建设、建立、提出、了解、措施、特点、位置、关键、安全、稳定、网络、理想、地位、基础、需要、权威、环境、工程、项目、负担、能力、需求、方式、作用、办法、标准、结构、水平、主体、最大限度 XXXXXX公司数据机房 建设方案 2011年9月15日星期四

设计原则及需求分析 数据中心基础设施的建设,很重要的一个环节就是计算机机房的建设。计算机机房工程不仅集建筑、电气、安装、网络等多个专业技术于一体,更需要丰富的工程实施和管理经验。计算机房设计与施工的优劣直接关系到机房内计算机系统是否能稳定可靠地运行,是否能保证各类信息通讯畅通无阻。 由于计算机机房的环境必须满足计算机等各种微机电子设备 和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求。所以,一个合格的现代化计算机机房,应该是一个安全可靠、舒适实用、节能高效和具有可扩充性的机房。 本方案项目包括装修工程、配电工程、空调工程、设备监控工程、闭路电视工程、安全工程、消防工程等七大部分。本方案书根据国家标准及行业标准设计和施工。 1.1.设计原则 数据中心机房是XXXXX公司的基础设施,数据中心的设计必须满足当前各项需求应用,又面向未来快速增长的发展需求,因此必须是高质量的、高安全可靠灵活的、开放的。我们在进行设计时,遵循以下设计原则: 实用性和先进性:

数据中心机房建设方案

XXXXXX公司数据机房建设方案 2011年9月15日星期四

设计原则及需求分析 数据中心基础设施的建设,很重要的一个环节就是计算机机房的建设。计算机机房工程不仅集建筑、电气、安装、网络等多个专业技术于一体,更需要丰富的工程实施和管理经验。计算机房设计与施工的优劣直接关系到机房内计算机系统是否能稳定可靠地运行,是否能保证各类信息通讯畅通无阻。 由于计算机机房的环境必须满足计算机等各种微机电子设备 和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求。所以,一个合格的现代化计算机机房,应该是一个安全可靠、舒适实用、节能高效和具有可扩充性的机房。 本方案项目包括装修工程、配电工程、空调工程、设备监控工程、闭路电视工程、安全工程、消防工程等七大部分。本方案书根据国家标准及行业标准设计和施工。

1.1.设计原则 数据中心机房是XXXXX公司的基础设施,数据中心的设计必须满足当前各项需求应用,又面向未来快速增长的发展需求,因此必须是高质量的、高安全可靠灵活的、开放的。我们在进行设计时,遵循以下设计原则: 实用性和先进性: 采用先进成熟的技术和设备,满足当前的需求,兼顾未来的业务需求,尽可能采用最先进的技术、设备和材料,以适应高速的数据传输需要,使整个系统在一段时期内保持技术的先进性,并具有良好的发展潜力,以适应未来信息产业业务的发展和技术升级的需要。 安全可靠性: 为保证各项业务应用,网络必须具有高可靠性,决不能出现单点故障。要对数据中心机房布局、结构设计、设备选型、日常维护等

各个方面进行高可靠性的设计和建设。在关键设备采用硬件备份、冗余等可靠性技术的基础上,采用相关的软件技术提供较强的管理机制、控制手段和事故监控与安全保密等技术措施提高电脑机房的安全可靠性。 灵活性与可扩展性: XXXXX公司一个快速发展的产业公司,所以其数据中心机房必须具有良好的灵活性与可扩展性,能够根据今后业务不断深入发展的需要,扩大设备容量和提高用户数量和质量的功能。具备支持多种网络传输、多种物理接口的能力,提供技术升级、设备更新的灵活性。 标准化: 在数据中心机房系统结构设计,基于国际标准和国家颁布的有关标准,包括各种建筑、机房设计标准,电力电气保障标准以及计算机局域网、广域网标准,坚持统一规范的原则,从而为未来的业务发展,设备增容奠定基础。 工程的可分期性: 在该IDC项目设计中,数据中心机房的工程和设备都为模块化结构,相当于将该工程分期实施,而各期工程可以无缝结合,不造成重复施工和浪费 经济性/投资保护:

医院灾备建设双活数据中心解决方案

XX 医院灾备建设灾备技术建议书 2016 年 1 月 5 日

1 项目概述 (5) 1.1 项目背 景 (5) 1.2 系统现状描 述 (5) 1.2.1 应用系统现 状 (5) 1.2.2 IT 系统现 状 (6) 1.3 需求分 析 (7) 1.3.1 行业发展要 求 (8) 1.3.2 灾备建设需 求 (9) 2 系统总体设计原则 (11) 3 容灾建设方案 (13) 3.1 业务系统特征及灾备需 求 (13) 3.1.1 HIS 门诊 类 (13) 3.1.2 HIS 住院 类 (13) 3.1.3 EMR 电子病历系 统 (14) 3.1.4 PACS 影像系 统 (14) 3.1.5 LIS 实验室检验系 统 (15) 3.1.6 医院各类经营管理系 统 (15) 3.1.7 业务需求分析汇 总 (16) 3.2 总体架构设 计 (17) 3.3 应用双活架构设 计 (18) 4 关键技术 (20) 4.1 存储层解决方 案 (20) 4.1.1 VIS 虚拟化技术.......................................................................错误!未定义书 签。 4.2 数据库层解决方 案 (25)

4.2.1 Oracle RAC 技术...................................................................... 错误!未定义 书签。 4.3 管理层解决方 案 (29) 4.3.1 灾备决策支持平台方 案 (30) 5 容灾相关产品及规格 (40) 5.1 Tecal RH5885 V3 机架服务 器 (40) 5.1.1 功能和价 值 (40) 5.1.2 规格参 数 (41) 5.2 OceanStor V3 系列存 储 (43) 5.2.1 功能和价 值 (43) 5.2.2 规格参 数 (44) 5.3 FusionSphere 云操作系 统 (46) 5.3.1 FusionCompute 虚拟 化 (46) 5.3.2 FusionManager 云管 理 (49) 5.4 SNS 系 列 (52) 5.4.1 功能和价 值 (52) 5.4.2 规格参 数 (53) 5.5 BIG-IP 本地流量管理器平 台 (58) 5.5.1 功能和价 值 (58) 5.5.2 规格参 数 (59) 5.6 OceanStor ReplicationDirector 管理软 件 (61)

银行双活数据中心建设方案

银行双活数据中心建设方案

目录 1数据中心现状 (1) 2项目规划 (1) 数据中心改造方案 (1) 2.1业务互联网接入区域高可用设计 (1) 2.2业务互联网接入区域双活设计 (2) 2.3业务区高可用设计 (4) 2.4业务区综合前置区域基于IP的双活设计 (5) 2.5业务区OA区域基于IP的双活设计 (6) 2.6测试区域应用高可用设计 (8) 2.7项目利旧设备调换说明 (8) 3实施计划 (9) 3.1互联网接入区F5LC替换说明 (9) 3.2互联网接入区F5LC替换业务影响 (9) 3.3应用区F5LTM替换说明 (10) 3.4应用区F5LTM替换业务影响 (10)

1数据中心现状 目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。 数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。 2项目规划 为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。 数据中心改造方案 2.1业务互联网接入区域高可用设计 ?网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。?在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性; ?互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全; ?将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统; ?在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。 业务互联网接入区域改造后拓扑示意图如下所示:

两地三中心分布式双活数据中心技术发展趋势

两地三中心分布式双活数据中心技术发展趋势 2016-06-20 作者:赵培(中兴通讯) 业务连续性保障一直是IT运维的热点话题,随着近几年政企IT系统集中化的建设发展思路的确定,在数据中心层面的业务连续性保障成为了重中之重。上到国家、行业主管单位,下到企业,都在数据中心层面制定了相关的数据中心业务连续性建设标准、行业指导意见、企业规范等。2007年,国家发布了国标GB20988-2007(信息系统灾难恢复规范);2009年6月,银监会发布《商业银行信息科技风险管理指引》,要求商业银行按照两地三中心的模式建设数据中心。最近两年,随着云计算技术的发展和逐步应用,政府在智慧城市和电子政务云的建设方面也采用了集约化集中建设的思路,为保证集中化建设的数据中心可以为政务应用提供高业务连续性,双活数据中心也基本成为智慧城市和电子政务云解决方案的基本要求。 虽然两地三中心模式的概念频频被提及,但目前仅仅在金融行业中的大体量商业银行和股份银行做得好一些,基本建设了两地三中心的模式。中型金融机构(如城商行、农信行)正在按照监管单位要求,逐步建设自己的灾备体系。据统计在国内的160家城市商业银行中,70%以上的银行没有灾备中心,这些银行目前仅有一些简单的数据备份措施,整个系统存在较大风险。而建设灾备中心对于这些体量较小的金融机构也存在投资规模大、选址要求高、运行成本的问题。 最近两年,在金融监管部门的要求下,部分规模较大的金融机构采用了双活数据中心的建设方案,但由于故障导致的宕机仍然时有发生,如支付宝由于一根光纤被挖断,从而导致了大规模的网络故障和服务长时间阻断。 业界现有的各类双活两地三中心解决方案并不完美,根本无法达到国家关于RTO(故障恢复时间)小于数分钟,RPO(故障恢复点)等于0的要求。通过对淘宝光纤故障、携程程序员误删数据、西部某地方银行37小时服务中断等事故的分析,我们分析发现现有的两地三中心双活数据中心方案存在以下一些问题:

数据中心项目方案

江阴电教馆云数据中心项目方案 目录 1 方案建设思路........................................... 2方案拓扑............................................... 3方案的优势............................................. 可靠性 ............................................ 服务器硬件高可用.............................. 虚拟化集群高可用.............................. 存储系统高可用................................ 数据备份高可用................................ 可扩展性 .......................................... 动态添加虚拟化集群............................ 容灾升级扩展.................................. 降低成本,提高效率和服务水平....................... 简化管理 .......................................... 浪潮云海OS的管理平台ICM概述................. 浪潮ICM管理特性.............................. 浪潮ICM主要功能.............................. 整体架构和管理界面............................ 4方案配置清单........................................... 5公司简介...............................................

应用级双活建设方案

1.逻辑架构 2.方案简述 某客户为了保证业务的连续性,需要部署双活数据中心,传统的数据中心解

决方案,正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。 两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。发生灾难时,数据中心间的数据库可以快速切换,避免业务中断。双活数据中心可充分盘活闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。 3.实施方案详述 真正的双活,要在数据中心的从上到下各个层面,都要实现双活。网络、应用、数据库、存储,各层面都要有双活的设计,这样才能真正意义上实现数据中心层面的双活。 从某种程度上说,双活数据中心可以看做是一个云数据中心,因为它具有云计算所需的高可靠性、灵活性、高可用性和极高的业务连续性水平。不仅能够满足应用对性能、可用性的需求,而且还可以灵活动态扩展。 3.1网络子系统 3.1.1简述 从网络上来看,双活数据中心需要将同一个网络扩展到多个数据中心,在数据中心间需要大二层网络连接并且实现服务器和应用的虚拟化数据中心互联技术。 大二层的网络技术有IRF、TRILL、SPB、EVI等。IRF是将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理和使用。

数据中心项目方案

江阴电教馆云数据中心项目方案

目录 1 方案建设思路 (3) 2 方案拓扑 (4) 3 方案的优势 (4) 3.1 可靠性 (4) 3.1.1 服务器硬件高可用 (5) 3.1.2 虚拟化集群高可用 (5) 3.1.3 存储系统高可用 (8) 3.1.4 数据备份高可用 (11) 3.2 可扩展性 (14) 3.2.1 动态添加虚拟化集群 (14) 3.2.2 容灾升级扩展 (15) 3.3 降低成本,提高效率和服务水平 (15) 3.4 简化管理 (17) 3.4.1 浪潮云海OS的管理平台ICM概述 (17) 3.4.2 浪潮ICM管理特性 (17) 3.4.3 浪潮ICM主要功能 (17) 3.4.4 整体架构和管理界面 (18) 4 方案配置清单 (19) 5 公司简介 (21)

1方案建设思路 根据用户的需求,本次方案采用软硬一体化的虚拟化解决方案。 本次方案采用3台浪潮TS850八路服务器做双机,配置8颗Intel Xeon E7-8837 CPU(2.66GHz/8c),整机达到64核心,配置256 GB ECC registered DDR3 内存,3个300GB SAS硬盘组成RAID5阵列。在服务器上部署vmwarevsphere 5.1虚拟化平台,将电教馆的相关业务转移到vmwarevsphere 5.1虚拟化平台上去,实现上层应用与底层硬件的无关性,提高可管理性和对异构设备的兼容性。通过在浪潮ICM管理平台,对各个应用系统进行集中管理,功能上实现应用业务在本地的HA、FT、vMotion、DRS、DMP、在线业务迁移等功能,保障服务器硬件故障业务不中断。 后端采用虚拟化存储解决方案,打破实体存储设备间的疆界,构建高弹性的存储基础架构,以最经济的方式实现存储高可用。即在一定范围内,控制器所组成的虚拟存储层以高可用集群架构存在,在服务器和存储磁盘阵列之间构建了一个虚拟逻辑磁盘,底层数据同时存放在两个存储实体中(后端存储阵列AS500H),数据同步机制通过硬件实现,无需依赖客户端软件。当存储路径上任何一个设备发生故障时,存储路径将自动切换到其他路径,保障业务数据存取连续性。配置10TB高性能SAS硬盘和30TB的大容量空间,容量分级管理,更高效地利用存储空间。为了保证本地数据的安全性和人为误操作导致的数据丢失,配置备份服务器和备份存储阵列,实现LAN-Free的近线存储备份。并根据应用的安全级别配置相关的数据备份策略,例如增量备份、差量备份等。 云要实现真正的资源动态分配,除了利用虚拟化技术构建计算和存储资源池,还需要专门的云平台的管理系统实现云门户管理、虚拟资源管理、用户权限设置、系统监控等功能,从而保证云计算中心的正常运行。本次配置浪潮ICM云管理平台进行统一的资源管理。

华为 双活数据中心解决方案

双活数据中心解决方案

目录 1.行业背景 (3) 2.系统建设原则及思路 (3) 3.技术方案 (5) 双活数据中心基础架构设计 (5) 双活数据中心网络设计 (6) 双活数据中心系统设计 (6) 双活数据中心系统优势 (9) 浪擎CDP,最可靠的CDP (9) ACDP-恢复速度最快的CDP (10) ACDP-强大的复制,恢复.容错功能 (10) ACDP-支持报警和一键切换 (11) 其他优势 (12)

1.行业背景 随着全球化信息技术的发展,信息化已经成为各个单位的关注热点,各行各业都在进行着信息化的改革。信息化系统已经成为企业核心竞争力的关键条件之一。企业信息化的时代也发生了翻天覆地的变化。 为适应我国改革开放和社会主义现代化建设的新形势对公安执法提出的新要求国家提出了以“公安信息化工作”为核心,以“科技强警”为目标的国家信息化工程—“金盾工程”的建设要求。“金盾工程”既全国公安信息化工程,是国家电子政务建设“十二金”中重要的一部分,主要是利用现代化信息通信技术增强我国公安机关的统一指挥,快速反应,协同作战,打击罪犯的能力,以适应公安机关动态管理和打击罪犯的需要。随着金盾工程在全国的展开信息技术的广泛应用,公安信息化建设全面加快各种业务系统的陆续建设投入使用产生了大量的数据。随着业务数据的增加和应用数据的依赖性的增强,数据已经成为开展业务不可缺少的基础。数据的有效汇集,集中管理,综合分析以及容灾备份的需要等处理要求日益提高。因此,通过管理机制与技术手段相结合保障数据的一致性和业务的连续性在建设公安系统容灾机制中势在必行。 2.系统建设原则及思路 1)绿色容灾,减少对生产系统的影响 双活数据中心在实施和使用的过程中对原有的生产系统、硬件系统、网络系统会造成一定的影响,有的容灾系统可能需要在冻结原有的生产系统的情况下进行数据的复制;有的容灾系统可能要对硬件、网络环境进行改造,改造成系统所要求的条件;有的容灾系统对生产服务器的CPU、内存、网络等资源占用较大,这些影响或者改造对原有的系

云计算数据中心项目建设方案

智慧***城县云计算数据中心项目 解 决 方 案

目录 第1章概述 (2) 1.1 项目背景 (2) 1.2 建设目标 (2) 1.3 需求分析 (4) 第2章资源池建设方案 (6) 2.1 总体架构 (6) 2.2 网络架构设计 (8) 2.3 设备选型原则 (10) 第3章云平台功能设计 (12) 3.1 云主机服务 (12) 3.2 云存储服务 (16) 3.3 云负载均衡服务 (22) 3.4 虚拟路由器服务 (23) 第4章数据安全保障方案 (24) 4.1 云平台自身对数据的保护 (24) 4.2 灾备方案 (25) 4.3 灾难等级划分 (26) 4.4 灾难恢复 (27) 第5章云平台运维体系设计 (28) 5.1 自动监控系统 (28) 5.2 自动告警系统 (28) 5.3 资源管理系统 (29) 第6章业务系统迁移指导 (30) 6.1 迁移规划 (30) 6.2 迁移管理流程 (31) 6.3 迁移实施方法 (31) 6.4 应用梳理 (32) 6.5 迁移方式 (33)

第1章概述 1.1 项目背景 根据项目实际情况编制。 1.2 建设目标 1.2.1 建立一套全新的弹性云平台 自购服务器进行应用系统搭建的方式已经不能满足信息化的要求,不仅浪费了大量的资源而且也不能满足向服务型部门转变的要求。因此,本项目通过在 *** 机房中放置足够的计算资源,利用利用虚拟化技术,能够很好的面对未来智慧***城县管理综合指挥中心服务平台业务发展的挑战。 1.2.2 建立一套完整的云平台运维体系 目前政府的信息系统由于过度分散很难建立起一套有效的运维管理体系,信息系统存在资源使用不均衡的情况比较突出,业务系统运行效率不高。对目前设备运行情况也没有一个完整的考量,通过在搭建云平台的契机,借助云平台的高效的智能化运维管理系统,能够有效的提高政府的运维管理能力。通过云平台所建立一套运维管理体系,能够很好的对未来政府的信息化发展提供一个运维管理框架。 1.2.3 迁移服务 云平台建成后政府需要在一段时间内完成现有的信息系统整体搬迁。整个搬迁的过程包含数据完整性保护、数据迁移、业务系统迁移、硬件系统迁移。应用系统可以预先在智慧***城县云计算数据中心服务平台机房中搭建的云平台中预先部署,利用历史数据既可以衡量业务系统部署的完整性,数据的完整性保护以及数据的迁移服务是整个信息系统整体搬迁的重点,如何能够在一定时间内完成数据的迁移而保证数据的完整性是整个信息系统搬迁的难点。

湖北IDC数据中心设备项目投资分析与建设方案

湖北IDC数据中心设备项目投资分析与建设方案 投资分析/实施方案

报告说明— IDC是数字化转型的基础设施,国内方面,我们认为在新基建的推动下,IDC行业有望迎来内生动力(云计算)和外部驱动力(产业政策)的共振。我们认为零售型业务和定制型业务长期来看皆具备发展潜力,不同公司基 于各自禀赋有望走出自己的最佳成长路径。重点推荐:数据港、光环新网、奥飞数据;建议关注:宝信软件等。 该IDC设备项目计划总投资10390.18万元,其中:固定资产投资8947.71万元,占项目总投资的86.12%;流动资金1442.47万元,占项目 总投资的13.88%。 达产年营业收入10037.00万元,总成本费用7992.00万元,税金及附 加154.87万元,利润总额2045.00万元,利税总额2481.94万元,税后净 利润1533.75万元,达产年纳税总额948.19万元;达产年投资利润率 19.68%,投资利税率23.89%,投资回报率14.76%,全部投资回收期8.27年,提供就业职位173个。 近年来,互联网、大数据、云计算和物联网等行业的蓬勃发展,对数 据的存储、交换、计算等的应用需求不断增加,使得大数据发展需求下对 上游基础设施领域的需求持续旺盛,促进了IDC需求的不断增加。近年来,各国5G技术的发展和商用化的推广将进一步促进IDC行业爆发增长。未来,IDC行业将成为物联网、云计算及5G技术的不断完善与发展下又一风口。

目录 第一章概述 第二章投资单位说明 第三章项目背景、必要性第四章项目市场研究 第五章产品规划分析 第六章选址评价 第七章项目工程方案 第八章工艺分析 第九章环境保护 第十章企业卫生 第十一章项目风险评估 第十二章项目节能概况 第十三章实施安排 第十四章项目投资估算 第十五章项目经济效益 第十六章评价及建议 第十七章项目招投标方案

基于存储的双活数据中心建设方案-baidu

基于存储的双活数据中心建设方案

最近频繁接触双活数据中心,因为我们主要的客户是金融客户,很多客户对于其业务系统的的RPO与RTO要求都非常高,极端的要求RPO/RTOR近似于0。那么对于极端要求的数据中心双活存储层面的双活,并配合应用层如:VMware的VMSC,Oracle的跨站点RAC等,来实现当生产中心发生故障后实现业务的自动切换。 那么对于主流存储的双活架构主要是以下几个实现形式: 基于存储网关

即在控制器存储上层增加一套存储网关,存储将自己的lun映射给虚拟化存储网关在网关上层做LUN的Mirror以实现底层存储双活以SVC 为例,本地数据中心的双活及跨中心的同城集群双活Metro模式。 这种存储网关的模式即采用如下模式(SVC举例): 每个网关Owen相应的LUN举例如下: 主机A(系统1)写入网关---网关入写控制器---控制器写入LUN---LUN与同城存储对应的LUN实现镜像。 主机B(系统2)写入网关---网关入写控制器---控制器写入LUN---LUN与同城存储对应的LUN实现镜像。 两套网关是互备关系,系统1或2是无法同时写入到一个LUN的,这点很重要,另外为了解决高可用问题每个存储网关均是双控制器,一般至少会部署4控制器存储网关。 如果要构建一个高性能的双活存储网络,服务器写入到的网关引擎的性能就是重中的之重,SVC就是两台IBM X3550的服务器,性能堪忧,我经常遇到SVC+DS8000做同城双活的奇葩方案,典型的小驴拉高铁。

接下来我们来聊一下控制器采用A-P集群的双活模式 我们以Hp 3par存储为例,3Par不需要上层的存储网关,在控制器层直接做底层磁盘的双活,两端LUN的镜像是主站点与备站点间的Remote Copy顾名思义和SVC的双活类似,1个LUN只能被一个控制器主写入,并通过远程镜像的方式Mirror至同城站点。

相关主题
文本预览
相关文档 最新文档