vplex vnx方案
- 格式:docx
- 大小:474.09 KB
- 文档页数:6
vplexvnx方案第1章IT建设方案说明1.1服务器部分说明数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。
应用服务器采用3台X3650M4服务器。
1.2存储部分说明新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。
采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。
1.3存储高可用说明配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。
并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。
第2章IT存储系统详细设计2.1存储基础架构图2.2核心存储设计针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。
VNX是EMC新一代的中端存储产品,它将Celerra (NS) 和 CLARiiON (CX4) 统一到单个产品品牌中,将 Celerra 和 CLARiiON 的所有价值推广到VNX 系列的客户。
它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。
VNX 系列在效率、简洁性和性能上有巨大的进步。
VNX 建议配置如下:VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。
配置图形化管理软件Unisphere。
配置说明:使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。
来认识下EMC的VMax,VPlex和VNX产品吧EMC的存储产品从来没有简单过,过去的时候,像Symmetrix,Centera,CLARiiON这样的名字,虽然听起来神神秘秘的,却是存储产品高级和专业的象征,统治着企业存储世界。
现在,可能是存储虚拟化技术的影响越来越大,企业部署的虚拟机越来越多,EMC的存储产品也越来越多的考虑与虚拟化技术结合。
或许正是因为这个原因,EMC推出名字里加V(也许象征虚拟化)的VPlex,VMax和VNX等一系列产品。
但是对于那些想买存储产品的用户,复杂的产品列表让他们眼花缭乱,EMC推出了太多的产品,用户很难分清了。
即便EMC提供了详细的产品选择下拉列表,却仅仅是把一大堆产品的范围缩小了。
现在,让我们认识下EMC主要的产品吧,至少能够分辨V系列产品的不同点。
虽然EMC现在推出了许多产品,但是这些产品仍然是企业存储领域的中流砥柱。
VMax虽然这款产品现在的官方称呼为VMax,EMC有时也在网站上称其为EMC Symmetrix VMax。
但是在今年的EMC World大会上,却没有再使用Symmetrix这个称呼。
但Symmetrix毕竟是EMC基于模块的存储阵列生产线的标志。
在过去的几年里,它逐渐转变为VMax,加入了更多的虚拟化和云的特色。
Symmetrix这个绰号最终会消失吗?只有时间能告诉我们了。
VNXVNX是EMC的文档和块存储统一平台,代表了CLARiiON和Celerra两条生产线的融合,有三个不同的种类。
VNXe虽然一直处于中小企业市场高端产品的位置,但却是专为中小企业设计的。
VNX拥有高性能,为中端统一存储设计。
VNX gateway在现有的EMC模块存储产品中加入了NAS功能。
最近,EMC推出了VNXe3150存储系统,性能和容量提升了50%。
EMC还降低了闪存的价格并加入了快照选项。
企业战略组的分析家Mark Peters说:“EMC对其VNX统一存储产品进行维护,发现并改进了许多不足。
VPLEX-LOCAL 的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1) 1 个Engine2) 2 个Director,每个Engine 由两个Director 组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。
4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。
本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡, 共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局Note:SPS = Standby Power SupplyVPLEX-LOCAL 的级联端口连接Cluster 1(sama connections from each engine in clusterCluster 2^same connections from each engine in duster)int&ncluste r i 一 COM SAN —switch 1BinlorcluslorCOM SAN >switch 20 —VPLEX-LOCAL 拓 扑结构=1B2TC00 A2-FOOOB2-FC01A2-FO01int&rciuster ISL 1 inierciusierCOM SAN COM SAN switch 1A switch 2AB2 FC00 A2 FCOONOTE: ISLTisIntar-switcli linkB2-FOO1 A2-FC01IOM BO IOM 81IOM B2 / IOM B3一口口口 DO 口口口吕吕 。
VTM生产系统存储更换实行方案目录实行过程概述............................................................................................... 错误!未定义书签。
1VTM系统设备接入生产环境............................................................................. 错误!未定义书签。
1.1VTM系统连接示意图........................................................................... 错误!未定义书签。
1.2SAN互换机端口分派示意图................................................................ 错误!未定义书签。
1.3SAN互换机ZONE配置......................................................................... 错误!未定义书签。
通讯规定......................................................................................... 错误!未定义书签。
Zone配置 ....................................................................................... 错误!未定义书签。
2实行前旳准备工作....................................................................................... 错误!未定义书签。
EMCVPLEX安装实施实施方案————————————————————————————————作者:————————————————————————————————日期:VPLEX-LOCAL的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。
4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。
本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL的级联端口连接VPLEX-LOCAL拓扑结构VPLEX-LOCAL 的FABRIC 拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB )Host data volumeVMAX_0251HOST_BAKHOST_PRD VPLEX_0550VPLEX_0549Host data volumeHost data volumeMETA VOLUME的配置请注意每台VNX必须使用两个RG,每个RG各提供两个80G LUN。
vplex实施方案Vplex实施方案Vplex是一种基于存储虚拟化技术的解决方案,可以帮助企业实现存储资源的灵活管理和高可用性。
在实施Vplex方案之前,我们需要对环境进行充分的评估和规划,以确保实施过程顺利、稳定。
本文将从Vplex实施的准备工作、实施步骤和注意事项等方面进行介绍。
首先,进行准备工作。
在实施Vplex方案之前,我们需要对现有的存储环境进行详细的调研和评估,包括存储设备的型号、性能、容量、连接方式等信息。
同时,还需要对存储网络、主机配置等进行全面的了解。
在评估的基础上,我们可以制定详细的实施方案,包括资源调配、网络连接、数据迁移等计划。
其次,进行实施步骤。
在实施Vplex方案的过程中,我们需要按照事先制定的计划,依次进行资源调配、网络连接、数据迁移等操作。
首先,我们需要对Vplex设备进行初始化和配置,确保其与现有存储环境兼容。
然后,进行存储资源的调配和网络连接,确保Vplex设备能够正常工作。
最后,进行数据迁移,将现有的存储数据迁移到Vplex设备上,确保数据的完整性和一致性。
在实施Vplex方案的过程中,还需要注意一些事项。
首先,要确保实施过程中的数据迁移和操作不会对业务造成影响,可以选择在业务低峰期进行。
其次,要对Vplex设备进行充分的测试,确保其性能和稳定性。
最后,还需要对实施过程进行详细的记录和总结,为后续的运维工作提供参考。
综上所述,Vplex实施方案是一个复杂的过程,需要充分的准备和规划。
只有在充分了解现有环境的基础上,制定详细的实施计划,并严格执行,才能确保Vplex方案的顺利实施和稳定运行。
希望本文的介绍能够对您有所帮助,谢谢阅读。
Vplex-Metro实施手册项目名称:标题文档版本号: 1.1 文档作者:生成日期:文档维护记录版本号维护日期作者/维护人描述1.01. 系统topo (6)2. 系统概述 (7)3. 系统配置前准备 (7)3.1. VNX 5700配置(代理商完成) (7)3.2. 光纤线部署 (7)3.3. 网线部署 (8)3.4. 在san switch上创建alias (8)4. vplex配置步骤 (10)4.1. 配置VPLEX的hostname和管理网口IP (10)4.1.1. 配置AVPLEX01的hostname和管理网口IP (10)4.1.2. 配置BVPLEX01的hostname和管理网口IP (10)4.2. Cluster1 EZ-SETUP (10)4.3. 分配AVNX570001磁盘给AVPLEX01 BE port (11)4.3.1. 创建AVNX570001到AVPLEX01 BE PORT的zoning (11)4.3.2. 在AVNX570001上注册AVPLEX01 (11)4.3.3. 在AVNX570001创建LUN (11)4.3.4. 在AVNX570001上创建storage group (12)4.4. 继续cluster1安装 (12)4.4.1. 继续EZ-SETUP (12)4.4.2. 配置meta-volume (12)4.4.3. 配置meta-volume backup (12)4.4.4. enable vplex FE port (12)4.5. Cluster2 和Cluster1时间同步 (12)4.6. Cluster2 EZ-SETUP (12)4.7. 分配BVNX570001磁盘给BVPLEX01 BE port (13)4.7.1. 创建BVNX570001到BVPLEX01 BE PORT的zoning (13)4.7.2. 在BVNX570001上注册BVPLEX01 (13)4.7.3. 在BVNX570001创建LUN (14)4.7.4. 在BVNX570001上创建storage group (14)4.8. 继续cluster2安装 (14)4.8.1. 继续EZ-SETUP (14)4.8.2. 配置meta-volume (14)4.8.3. 配置meta-volume backup (14)4.9. 在cluster1上完成系统配置 (15)4.10. 在cluster2上完成系统配置 (15)4.11. 配置WAN interface连接 (15)4.12. cluster2 join cluster (15)4.13. 配置cluster2 上的logging volume (15)4.14. 配置cluster1 上的logging volume (16)5. 升级vplex到最新版本 (16)5.1. 在cluster1上执行pre-check (16)5.2. 升级cluster1的management server (16)5.3. 在cluster2上执行pre-check (16)5.4. 升级cluster2的management server (16)5.5. 在cluster1上 (16)6. Vplex Witness部署 (17)6.1. 登陆到ESXi,通过OVA文件部署Witness的VM (17)6.2. Poweron Witness vm,登录到console进行配置 (17)6.3. 配置三路VPN (17)6.3.1. 配置cluster1 上配置三路VPN (17)6.3.2. 配置cluster2 上配置三路VPN (17)6.3.3. 在cluster1 上确认VPN状态 (17)6.3.4. 在cluster2 上确认VPN状态 (17)7. 创建virtual volume (17)7.1. Claim storage volume (17)7.1.1. Claim cluster1的storage volume (17)7.1.2. Claim cluster2的storage volume (18)7.2. 在cluster1上创建extent (18)7.3. 在cluster2上创建extent (21)7.4. 在cluster1上创建device (21)7.5. 在cluster2上创建device (25)7.6. 创建distributed devices (25)8. ESXi磁盘分配 (30)8.1. 安装powerpath/VE (30)8.1.1. 安装esxcli (30)8.1.2. 安装powerpath/VE (30)8.1.3. Reboot esxi 服务器 (30)8.1.4. 安装rtools (30)8.2. 创建ESXi到VPLEX FE PORT的zoning (31)8.2.1. 创建ESXi到同SAN switch相连的VPLEX的zoning (31)8.2.2. 创建ESXi到同SAN switch相连的VPLEX的zoning (32)8.3. 在BVPLEX01上注册ESXi initiator (33)8.4. 在AVPLEX01上注册ESXi initiator (34)8.5. 在BVPLEX01上创建storage view (35)8.6. 在ESXi上扫描磁盘 (38)8.7. 在ESXi上创建Datastore (40)9. 可用性测试 (40)9.1. 测试前准备 (40)9.2. 拔vplex前端口测试 (40)9.3. 拔vplex后端口测试 (41)9.4. 拔vplex wan 光纤测试 (41)9.5. 关闭后端存储测试 (41)9.6. 关闭一台vplex测试 (41)10. 系统当前配置 (41)10.1. 密码配置 (41)10.2. VNX5300配置信息 (42)10.2.1. AVNX570001配置信息 (42)10.2.2. BVNX570001配置信息 (42)10.3. VPLEX配置 (42)10.3.1. Cluster_1配置信息 (42)10.3.2. Cluster_2配置信息 (42)10.4. SAN switch配置 (43)10.4.1. Fabric1配置 (43)10.4.2. Fabric2配置 (43)1.系统topo2.系统概述本次xxx使用EMC Vplex Metro技术来实现存储系统的高可用访问,系统topo结构入第一节所示,两台VPLEX CLUSTER各自使用后端口链接一台VNX5300,其前端口供4台ESXi服务器交叉访问。
VPLEX LOCAL实施方案20XX-12-07目录1项目背景随着业务不断扩大,信息系统显得更加重要。
目前有TRIBON系统、文件服务器、SQL server数据库等应用系统。
操作系统均为windowns20XX。
通过两台光线交换机与CX500、VNX5300连接。
CX500存储原来的老数据,现应用系统数据已经全部迁移到VNX5300。
本项目中EMC提供存储虚拟化VPLEX LOCAL,通过在现有的SAN环境加入VPLEX 设备,来实现对VNX5300的统一管理,以便将来扩展存储,进一步实现存储间的数据迁移、存储间的Mirror。
VNX5300DS200B VPLEXVPLEX LOCAL2 现有环境2.1 目前拓扑结构CX500VNX53002.2 设备信息经过前期信息调研,设备信息统计如下:2.2.1主机信息2.2.2SAN 交换机2.2.3存储系统3VPLEX LOCAL方案设计3.1 总体规划本项目VPLEX配置为两个引擎,硬件版本VS2,软件版本5.01。
最终实现用户原有存储VNX5300被VPLEX统一管理,但需要保证用户可以安全退回无VPLEX架构。
所以在创建device时需要采用1:1方式,以便用户可以安全回退到主机与存储通过交换机的直连架构,保证数据完整可用。
3.2 环境准备及要求3.2.1VPLEX物理要求✓准备两路220-240V、32A航空电源插头供VPLEX机柜使用✓光纤延时不得超过2ms✓准备一根网线用于VPLEX管理✓准备一个IP地址用于VPLEX管理✓准备8根光纤线用于VPLEX Engine1、Engine2前端口连接DS200B、DS300B交换机✓准备8根光纤线用于VPLEX Engine1、Engine2后端口连接DS200B、DS300B交换机3.2.2生产主机✓多路径管理软件为Powerpath5.0需要升级powerpath5.3或以上3.2.3存储设备✓准备一跟光纤跳线用于VNX5300到DS200B连接✓需要划分4*80GB Lun做为meta-volume✓需要划分1*10GB Lun做为logging-volume以备将来使用3.2.4SAN交换机✓两台SAN交换机分别需要为VPLEX预留6个端口,其中4个为后端口,2个前端口✓需要增加VPLEX后端口与存储的zone,均为WWN zone✓需要增加VPLEX前端口与主机的zone,均为WWN zone✓两台冗余交换机分别为200B(4GB)与300B(8GB),需要将300B交换机降至4GB3.3 VPLEX规划3.3.1IP规划3.3.2VPLEX端口规划3.4 生产主机在配置VPLEX时需要为生产主机申请停机时间,以便停止业务后通过VPLEX重新认盘3.5 SAN交换机3.5.1PORT规划3.5.2ZONE规划3.6 存储阵列3.6.1VNX5300 LUN规划4实施步骤实施前确保存储上所有数据均做全备份。
EMC VPLEX数据中心虚拟化方案EMC VPLEX数据中心虚拟化方案⒈引言⑴背景在当今数字化时代,数据中心的重要性日益突出。
数据中心存储着组织的关键业务和大量的敏感数据。
因此,数据中心的高可用性和数据保护要求越来越高。
⑵目标本文档旨在介绍EMC VPLEX数据中心虚拟化方案,该方案可帮助组织提高数据中心的可用性和灵活性,并实现更高水平的数据保护。
⒉VPLEX概述⑴什么是VPLEXEMC VPLEX是一种虚拟存储技术,能够将物理存储资源转化为虚拟存储,并提供高度的可用性和性能。
它通过分布式存储架构,将物理存储设备组织成一个统一的虚拟池,并实现跨数据中心的数据迁移和复制。
⑵ VPLEX的优势VPLEX具有以下优势:- 高可用性:通过将存储设备虚拟化并形成一个统一的存储池,VPLEX能够提供非常高的可用性。
即使一个存储设备出现故障,也可以无缝切换到其他设备上。
- 数据迁移和复制:VPLEX支持跨数据中心的数据迁移和复制,可以在不中断业务的情况下进行数据迁移。
同时,它还可以提供异地灾备复制保护。
- 灵活性:VPLEX允许按需分配存储资源,并根据需求进行调整。
它还支持与各种存储设备和操作系统的集成,并能够适应不同的工作负载。
⒊VPLEX部署方案⑴架构设计在部署VPLEX之前,需要进行架构设计。
根据组织的需求和资源情况,可以选择单一数据中心架构、双活数据中心架构或异地灾备复制架构。
- 单一数据中心架构:适用于中小型企业或资源有限的组织,将VPLEX部署在单个数据中心,提供高可用性和数据保护。
- 双活数据中心架构:适用于需要更高可用性和灾备能力的组织。
VPLEX将部署在两个数据中心,同时运行并保持数据一致性。
- 异地灾备复制架构:适用于对数据保护要求更高的组织。
VPLEX将部署在两个地理位置不同的数据中心,通过异地复制实现灾备保护。
⑵网络配置VPLEX需要一个可靠的网络连接来实现数据同步和复制。
在VPLEX部署过程中,需要配置适当的网络连接和带宽,以满足业务需求和数据传输。
第1章IT建设方案说明
1.1服务器部分说明
数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。
应用服务器采用3台X3650M4服务器。
1.2存储部分说明
新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。
采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。
1.3存储高可用说明
配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。
并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。
第2章IT存储系统详细设计
2.1存储基础架构图
2.2核心存储设计
针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。
VNX是EMC新一代的中端存储产品,它将 Celerra (NS) 和 CLARiiON (CX4) 统一到单个产品品牌中,将 Celerra 和 CLARiiON 的所有价值推广到VNX 系列的客户。
它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。
VNX 系列在效率、简洁性和性能上有巨大的进步。
VNX 建议配置如下:
VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。
配置图形化管理软件Unisphere。
配置说明:
使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。
VNX存储优势说明:
新一代信息中心需要多种协议的支持以满足不同用户的需求,EMC统一存储支持多协议(光纤协议,iSCSI和IP SAN等)的访问,减少了同时购买多个存储设备的费用,使信息中心管理员能方便的使用多种连接方式提供存储服务,提高存储的利用率。
同时利用SAN网络和双控制器实现SAN网络访问的负载均衡和流量控制,降低了虚拟化整合后存储IO访问冲突导致的性能问题。
在存储内部,利用响应极快15000转SAS磁盘(180 IOPS)满足核心数据库的读写性能。
VNX虚拟资源调配可以提供优于传统“精简”资源调配的更多好处,包括简化存储管理和改善容量利用率,VNX虚拟资源调配让您能够向主机呈现大容量,然后仅按需使用共享池中的空间。
这通过减少最初的存储容量过度分配降低了总体拥有成本 (TCO),并且通过减少支持增长所需的步骤简化了管理。
2.3业务连续性方案设计
EMC VPLEX技术是存储系统虚拟化和数据中心扩展的技术核心,此技术可以让数据库服务器实现最高的业务连续性,特别适合数据库在存储层进行数据切换而实现业务不停滞的特点。
EMC VPLEX 技术是用户实现存储需拟化的核心技术,是在把传统的物理数据中心转化为虚拟数据中心,最终实现云数据中心的核心技术。
为此将VPLEX 技术引入存储高可用的方案中,通过VPLEX实现目前生产中心的本地高可靠,两个存储可以实现MIRROR,以后如果需要还可以再增加存储到这个资源池,多个存储可以实现条带化,形成存储资源池,主要目的是让应用程序不被存储系统绑定,应用可以部署在多个存储上,一个存储离线或故障,业务继续运行,不受任何影响。
➢存储部分,通过在机房内部署一台EMC VPLEX虚拟化引擎和两台EMC VNX Block磁盘阵列,数据库服务器均通过FC SAN方式访问VPLEX ,在VPLEX 虚拟化引擎的配合下,EMC VNX磁盘阵列将会被VPLEX接管,两台存储上的生产数据可以互为镜像,两台存储镜像后的虚拟化存储空间同时通过VPLEX 提供给数据库主机使用。
➢VPLEX将底层的磁盘阵列做了条带化镜像虚拟化(类似于磁盘的Raid1),其数据保持一致,主机不直接访问底层物理盘阵,而是访问经过VPLEX虚拟化后的逻辑盘阵。
当底层任意一台磁盘阵列出现宕机时,Vplex将自动将对该盘阵的访问重新定向到另一台磁盘阵列,而无需人工干预,实现了存储级的实时切换。
➢每个VPLEX引擎具备72GB Cache。
VPLEX通过预读机制将常用数据预读到控制器Cache内,直接提供给主机访问,而无需从速率较低的磁盘驱动器访问。
两个驱动器之间通过高速通道自动同步Cache数据,保证了双活控制器的高性能。
➢EMC是存储业界的领头羊,通过新技术的研发合作,预先同SAP、Oracle、Windows和Linux等应用和平台厂商进行联合测试,对此解决方案进行了严
格的稳定性、可靠性和兼容性测试,保证了用户在部署使用次方案时不会出现各个软硬件不兼容而造成的系统故障。
➢服务器、SAN交换机、VPLEX 引擎连接示意图:(一个VPLEX引擎包括两个控制器)说明:服务器要求至少配置两个单口的8Gb/s HBA卡。
第3章设备清单
产品名称配置描述数量
VNX5100光纤磁盘存储全冗余模块化光纤SAN存储设备,配置两个存储控制器实现冗
余,存储控制器采用Intel双核处理器,主频1.6GHz;配置8GB
高速缓存;写缓存镜像保护,保证长时间停电情况下缓存数据
永不丢失。
配置4个8Gb光纤通道主机端口,最大可支持8个
8Gb FC端口。
配置4个6Gb四通道SAS磁盘接口。
本次配置
600G 15000转SAS硬盘14块。
最大可支持140TB容量。
配置
512个LUN许可,配置512个存储分区。
配置基于WEB的阵列
管理软件许可,在单一WEB管理界面实现存储管理和监控。
配
置虚拟资源调配功能,可以为应用程序提供比在存储阵列中分
配给它的物理容量更多的容量,提高存储空间利用率。
2台
VPLEX虚拟化引擎双控制器,配置8个8Gb/s FC 主机接口,8个8Gb/s FC后端
接口,72GB高速缓存;
1套
光纤交换机
建议配置24口光纤交换机,激活16个光纤端口,配置16个
8Gb光纤短波模块。
2台。