iSCSI 环境下集群(应用虚拟化)的实现
- 格式:doc
- 大小:111.50 KB
- 文档页数:4
虚拟化与云计算实验报告目录一、实验目的 (1)二、实验内容 (1)三、实验原理 (1)四、实验步骤及实验结果 (5)五、实验遇到的问题及其解决方法 (9)六、实验结论 (10)一、实验目的实验一:1.掌握在Linux上配置iSCSI target服务的方法。
2.掌握在不同的操作系统平台上使用iSCSI initiator的方法。
实验三:1.掌握在集群上(使用虚拟机模拟)安装部署Hadoop-HDFS的方法。
2.掌握在HDFS运行MapReduce任务的方法3.理解MapReduce编程模型的原理,初步使用MapReduce模型编程。
二、实验内容实验一: 配置和使用SAN存储,设置连接IP SAN设备;实验三: 安装、部署、使用Hadoop-HDFS和配置运行MapReduce程序,使用MapReduce编程。
三、实验原理实验一:SAN(Storage Area Network,存储局域网络)的诞生,使存储空间得到更加充分的利用以及管理更加有效。
SAN是一种将存储设备、连接设备和接口集成在一个高速网络中的技术。
SAN本身就是一个存储网络,承担了数据存储任务,SAN 网络与LAN业务网络相隔离,存储数据流不会占用业务网络带宽。
在SAN网络中,所有的数据传输在高速、高带宽的网络中进行,SAN存储实现的是直接对物理硬件的块级存储访问,提高了存储的性能和升级能力。
早期的SAN采用的是光纤通道(FC,Fiber Channel)技术,所以,以前的SAN多指采用光纤通道的存储局域网络,到了iSCSI协议出现以后,为了区分,业界就把SAN分为FC SAN 和IP SAN。
iSCSI(互联网小型计算机系统接口)是一种在TCP/IP上进行数据块传输的标准。
它是由Cisco和IBM两家发起的,并且得到了各大存储厂商的大力支持。
iSCSI 可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行快速的数据存取备份操作。
Windows Server 2019 iSCSI目标服务器群集概述:之前已经测试了Windows Server 2019 iSCSI目标服务器功能,接下来将测试Windows Server 2019 iSCSI目标服务器群集功能,也就是在Windows Server 2019的群集中提供iSCSI服务,实现高可用。
实验环境:5台服务器都为Windows Server 2019 DataCenter操作系统SRV2019服务器安装iSCSI目标服务器角色并配置2块虚拟磁盘给两台群集服务器共享使用群集服务器用来部署iSCSI目标服务器群集服务,提供高可用的iSCSI共享磁盘给DC02使用。
DC02域控服务器用来模拟iSCSI客户端,使用群集提供的iSCSI共享磁盘。
操作步骤:1. 系统准备按拓扑图配置群集服务器的IP地址,并调整网卡的优先顺序为:LAN>Hearth将群集节点服务器加入contoso域,关闭系统防火墙。
2. 群集节点服务器安装iSCSI目标服务器角色和故障转移群集功能分别登录Node01和Node02两台群集节点服务器,打开服务器管理器—添加角色和功能,选择“iSCSI目标服务器”在功能中选择“故障转移群集”3. 群集共享磁盘准备A.在SRV2019服务器上面配置iSCSI目标服务器并启用虚拟磁盘在SRV2019服务器上面启用“i SCSI目标服务器”角色,并配置用于群集的2块共享磁盘:仲裁盘2GB,数据盘10GB。
注意:在配置iSCSI目标发起程序时,需添加两台群集节点服务器的IP地址。
B.群集节点服务器配置iSCSI发起程序连接磁盘分别在两台群集节点服务器上面打开iSCSI发起程序,连接iSCSI共享磁盘,对磁盘执行联机、初始化。
在其中任意一台上面执行新建卷、分配驱动器号操作。
本节的具体操作步骤请参考:http://bbs.winos/thread-132531-1-1.html4. 创建群集登录Node01.contoso,打开故障转移群集。
基于虚拟化技术的集群管理软件的应用研究作者:李冬来源:《数字化用户》2013年第21期【摘要】本文介绍了虚拟化技术和集群技术在数据中心建设中的优势;采用Citrix(思杰)公司的虚拟化解决方案搭建了数据中心的软、硬件系统,利用HP公司的集群管理软件hp lefthand p4000对数据中心的软、硬件进行有效的配置、管理。
实践证明,可以大幅降低软硬件成本,提高信息化管理水平。
【关键词】Citrix虚拟化技术集群管理软件存储虚拟化一、引言传统的信息管理服务器系统由单独的服务器、网络、存储设备等硬件和操作系统、应用软件组成,每增加一项新的应用,就要相应的增加与之配套的硬件设备。
长此以往,一方面使企业背上了沉重的经济负担,同时也增加了系统管理员的管理维护的工作量和难度,不利于企业信息化的开展。
虚拟化技术、集群技术的发展,给企业的信息化管理和应用带来了新的机遇。
虚拟化技术利用硬件抽象,可以将全部的、相互独立的硬件资源,包括CPU、内存、存储设备等整合在一个统一的资源池内,然后根据需要在资源池内建立虚拟服务器,在虚拟服务器上建立虚拟主机,在虚拟主机上安装操作系统和应用软件,从而实现所有硬件资源和应用软件、操作系统的统一管理。
实践证明,虚拟化技术极大地降低了企业信息化管理系统的拥有成本,提升了企业快速部署新的应用的能力。
集群技术在虚拟化技术的基础上,侧重于管理信息系统的高可用性和数据的安全。
集群系统在硬件上包括具有冗余功能的服务器组、带有心跳信号的网络以及共享存储,在软件上则主要包括集群管理软件,集群管理软件是集群系统的核心和灵魂。
我校网络信息中心在信息化系统的建设过程中,采用了Citrix(思杰)公司的虚拟化解决方案和HP公司的集群管理软件hp lefthand p4000,极大地降低了软、硬件投入成本,提高了信息系统的管理效率,提升了学校信息化管理水平。
二、Citrix的虚拟化解决方案(一)虚拟化系统的硬件组成整个系统的硬件包括三台高性能的HP服务器、两台大容量的HP存储和一台专用SAN高速交换机。
iscsi存储的工作原理iSCSI(Internet Small Computer System Interface)是一种基于TCP/IP网络的存储协议,它允许服务器通过网络连接到存储设备,并将其作为本地磁盘使用。
iSCSI存储工作原理的核心是将存储设备虚拟化为逻辑卷,并将其通过网络传输到服务器。
我们需要了解iSCSI存储的基本组件。
iSCSI存储系统通常由以下几个组件组成:iSCSI initiator(发起者)、iSCSI target(目标)、存储设备和网络。
发起者是指运行iSCSI协议的服务器,它负责将存储设备连接到本地系统。
目标则是存储设备上的逻辑卷,它被发起者访问和使用。
存储设备是实际存储数据的物理设备,可以是硬盘阵列、磁带库或闪存设备等。
网络则提供了发起者和目标之间的通信通道,可以是局域网(LAN)或广域网(WAN)。
当发起者启动时,它会发送一个iSCSI请求到目标,请求连接到一个逻辑卷。
目标接收到请求后,会验证发起者的身份和权限,然后建立一个iSCSI会话。
会话建立后,发起者和目标之间可以进行数据传输。
在数据传输过程中,发起者将数据块分割为小的数据包,并通过网络发送给目标。
目标接收到数据包后,将其缓存并写入存储设备。
为了确保数据的完整性和可靠性,iSCSI协议使用了一些技术,如数据校验和、流量控制和错误恢复机制。
除了数据传输,iSCSI还支持一些高级功能,如快照、镜像和复制。
这些功能可以在存储设备上进行,而无需对发起者进行任何修改。
这使得iSCSI存储系统非常灵活和可扩展。
总结一下,iSCSI存储的工作原理是通过网络将存储设备虚拟化为逻辑卷,并将其连接到服务器。
发起者通过iSCSI协议向目标发送请求,并在会话建立后进行数据传输。
iSCSI存储系统具有高级功能和灵活性,使其成为企业级存储解决方案的首选。
希望通过这篇文章,你对iSCSI存储的工作原理有了更清晰的了解。
iSCSI存储作为一种高效可靠的存储解决方案,正在被越来越多的企业采用。
存储子系统中的光纤通道和iSCSI技术随着信息技术的发展和数据量的不断增加,存储子系统在企业中扮演着至关重要的角色。
作为一种传输数据的重要手段,光纤通道和iSCSI技术在存储子系统中被广泛应用。
本文将对光纤通道和iSCSI技术在存储子系统中的作用和应用进行详细探讨。
光纤通道,即Fibre Channel(FC),是一种基于光纤的高性能数据传输标准。
它能够提供高带宽、低延迟、高可靠性的数据传输解决方案,适用于大规模的存储和计算环境。
光纤通道具有独立的网络架构和拓扑结构,通过专用的光纤通道交换机进行数据的传输和路由。
相对于以太网等其他传输协议,光纤通道能够提供更高的带宽和更低的延迟,适用于对性能要求较高的存储环境。
在存储子系统中,光纤通道通常用于连接主机和存储设备,实现高速的数据传输和可靠的存储管理。
与光纤通道相比,iSCSI(Internet Small Computer System Interface)是一种使用标准以太网传输数据的存储协议。
iSCSI通过在IP网络上传输SCSI命令和数据块,实现主机和存储设备之间的数据交互。
相较于光纤通道,iSCSI存储具有更低的成本和更广泛的应用范围。
它可以利用已有的以太网基础设施,无需额外的光纤通道设备,降低了存储系统的部署和维护成本。
iSCSI技术还具有良好的可扩展性和灵活性,可满足中小型企业对存储资源的需求。
在存储子系统中,iSCSI通常用于连接分布式的存储设备,实现数据的共享和统一管理。
光纤通道和iSCSI技术在存储子系统中都具有重要作用。
光纤通道作为一种专用的高性能数据传输协议,适用于大规模的存储和计算环境。
它能够提供高带宽和低延迟的数据传输能力,适用于对性能要求较高的存储场景。
在存储子系统中,光纤通道可以实现远程存储、数据复制和灾难恢复等功能,提高存储系统的可靠性和稳定性。
此外,光纤通道还支持多路径连接和负载均衡等特性,提供更强大的数据传输能力。
VMware vSphere 6.7 虚拟化搭建及配置完整详细手册目录:一、安装环境介绍二、安装与配置 VMware vSphere 6.71、安装 vsphere 6.72、配置密码3、配置 DNS、主机名和 IP 地址三、配置 Starwind V8 虚拟存储四、使用 windows 2012R2 创建 ISCSI 存储1、添加角色和功能2、配置 ISCSI 链接五、安装 vcenter server 6.7 for windows1、安装 vcenter server(自带嵌入式数据库)2、配置外部数据库 SQL SERVER 20083、使用外部数据库安装 Vcenter server六、安装 Vcenter Server 6.7 for linux1、安装 Linux 版本的 Vcenter七、创建数据中心和群集 HA1、新建数据中心2、创建群集 HA八、添加 ESXI 主机和配置存储、网络1、添加 ESXI 主机到群集中2、配置存储3、添加网络九、创建虚拟机1、上传镜像至共享存储2、新建虚拟机3、将虚拟机克隆为模板4、通过模板部署新虚拟机十、物理机迁移至 ESXI(P2V)1、迁移 windows 物理机2、迁移 Linux 物理机3、使用 Acronis BR 迁移 linux 物理机十一、vmotion 迁移测试十二、HA 高可用测试十三、VMware vSphere FT 双机热备十四、vSphere Data Protection 配置部署1、部署 VDP 模板2、配置 VDP3、创建备份作业十五、部署 vRealize Operations Manager1、部署 ova 模版2、配置 vRealize Operations Manager十六、部署 VMware-vRealize-Log-Insight 1、部署 OVF 模版十七、附录一、安装环境介绍本文档实验的环境是用 VMware workstation 14 搭建的。
iSCSI:Internet 小型计算机系统接口(iSCSI:Internet Small Computer System Interface)。
iSCSI技术是一种由IBM公司研究开发的,是一个供硬件设备使用的可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP 网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。
iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料。
Internet 小型计算机系统接口(iSCSI)是一种基于TCP/IP的协议,用来建立和管理IP 存储设备、主机和客户机等之间的相互连接,并创建存储区域网络(SAN)。
SAN 使得SCSI 协议应用于高速数据传输网络成为可能,这种传输以数据块级别(block-level)在多个数据存储网络间进行。
SCSI 结构基于客户/服务器模式,其通常应用环境是:设备互相靠近,并且这些设备由SCSI 总线连接。
iSCSI 的主要功能是在TCP/IP 网络上的主机系统(启动器initiator)和存储设备(目标器target)之间进行大量数据的封装和可靠传输过程。
此外,iSCSI 提供了在IP 网络封装SCSI 命令,且运行在TCP 上。
如今我们所涉及的SAN (Storage Area Network),其实现数据通信的主要要求是:1. 数据存储系统的合并;2. 数据备份;3. 服务器群集;4. 复制;5. 紧急情况下的数据恢复。
另外,SAN 可能分布在不同地理位置的多个LANs 和WANs 中。
必须确保所有SAN 操作安全进行并符合服务质量(QoS)要求,而iSCSI 则被设计来在TCP/IP 网络上实现以上这些要求。
iSCSI(Internet SCSI)是2003年IETF(InternetEngineering Task Force,互联网工程任务组)制订的一项bcm5722 ISCSI网卡标准,用于将SCSI数据块映射成以太网数据包。
云计算中的服务器虚拟化与集群部署云计算是一种以提供计算资源和服务为核心的新型计算模式。
它通过互联网实现资源的集中管理和调度,为用户提供灵活、可扩展、高性能的计算环境。
在云计算中,服务器虚拟化与集群部署是实现资源共享和高效利用的重要手段。
一、服务器虚拟化服务器虚拟化是将一台物理服务器划分为多个虚拟服务器的技术,每个虚拟服务器独立运行,拥有独立的操作系统和应用程序。
它通过软件层面的虚拟化技术,将物理资源抽象为虚拟资源,实现资源的灵活调度和管理。
在云计算环境下,服务器虚拟化能够提供以下优势:1.资源利用率提高:多个虚拟服务器可以共享物理服务器的计算、存储和网络资源,充分利用硬件资源,提高资源利用率。
2.灵活扩展:根据用户的需求,可以根据需要动态增加或减少虚拟服务器,实现弹性的资源扩展。
3.故障隔离:采用虚拟化技术可以将不同的应用程序隔离在不同的虚拟服务器中,当一个虚拟服务器发生故障时,不会影响其他虚拟服务器的正常运行。
4.资源隔离:通过虚拟化技术,可以为不同的用户或应用程序分配独立的虚拟服务器,实现资源的隔离和安全性。
二、集群部署集群是一组相互连接的计算机节点,通过协同工作来提供高性能和高可靠性的计算环境。
在云计算中,集群部署是为了实现计算资源的负载均衡和故障容错。
集群部署的主要任务包括:1.负载均衡:通过将用户请求分发到多个服务器节点,实现负载均衡,提高系统的处理能力和响应速度。
2.故障容错:当某个节点出现故障时,集群可以自动切换到其他正常节点上,保证系统的可用性和稳定性。
3.扩展性:根据用户需求的变化,可以动态增加或减少集群节点,实现系统资源的弹性扩展。
4.数据共享:集群内的节点可以共享存储资源,实现数据的高效共享和访问。
通过服务器虚拟化和集群部署的结合,可以进一步提高云计算的性能和资源利用率。
虚拟化技术可以将物理资源抽象为虚拟资源,实现对资源的灵活调度和管理。
而集群部署则可以通过负载均衡和故障容错,提高系统的可用性和稳定性。
ISCSI服务器简介3.0.0 本章简介:-描述iSCSI存储的工作原理与机制;-如何定义iSCSI的服务器端与客户端;-解释说明iSCSI的配置与有关工具;3.0.1 红帽的iSCSI驱动器:在第一章中我们就熟悉到了什么是iSCSI。
iSCSI(ip Over SCSI)业内也常叫作ipSAN,即是通过TCP/IP的网络协议来传输磁盘的SCSI数据,随着以太网技术的进展,千兆万兆都将应用在企业中,而以iSCSI存储的性价比,很多中小型企业会更加倾向于使用。
也就是说,iSCSI是基于TCP/IP下的网络存储解决方案,那么iSCSI与SCSI/FC存储机制有什么不一致呢:左边的模型是iSCSI存储的整个数据流淌模型,右边的是FC SAN 的模型,通过这个图能够清晰地看出iSCSI存储与FC光纤存储的对应关系。
从模型架构的角度来看,iSCSI驱动器结合了主机的TCP/IP协议栈、网络驱动器与网卡,提供了与SCSI/FC驱动器一样的功能。
尽量用单独的网络来使用iSCSI存储。
3.02 iSCSI数据访问:iSCSI存储分为服务器端(targets)与客户端(initiators),客户端发送SCSI命令到远程的存储设备端(服务器端),iSCSI使用的是TCP/IP 协议,默认使用TCP的3260端口。
客户端:-通过discovery程序来请求远程的块设备;-客户端务必安装了iscsi设备驱动器;-要安装iscsi-initiator-utils-*.rpm软件包;服务器端:-公布一个或者多个块设备给initiator访问;-从RHEL5.3以后开始支持iSCSI;-需要安装scsi-target-utils-*.rpm软件包;关于每个target来说,主机ID是唯一的,存储块设备的LUN ID 是由iSCSI target来分配的。
iSCSI驱动器为SCSI请求与回应提供了一个通过IP网络传输的渠道。
iSCSI 环境下集群(应用虚拟化)的实现
来源:存储在线时间:2006-11-3作者:佚名
存储区域网络(SAN)的发展,使得更多的应用系统,可以有效的进行存储集中,更加多的手段来提升数据的安全性。
存储虚拟化、服务器虚拟化,可以引申出应用的虚拟化。
“应用虚拟化”的实现是通过服务器集群来实现的。
对于应用虚拟化这个概念,可以从我们的其它技术文章中看到详细描述。
而SAN环境构架,曾经是FC SAN的专利,现在随着iSCSI 技术的蓬勃发展,一种基于IP的SAN构架,正在迅速发展壮大起来。
这篇文章我们从iSCSI 环境构架讨论,探讨在iSCSI环境下,集群(应用虚拟化)的实现。
首先介绍一下iSCSI技术
iSCSI技术于2003年2月11日,由IETF(Internet Engineering Task Force,互联网工程任务组)正式通过;它由IBM、思科共同发起,是一种基于网络的数据存储技术,具有硬件成本低廉,操作简单,扩充性强,传输速度快等特点。
iSCSI(互联网小型计算机系统接口)是一种在Internet协议网络上,特别是以太网上进行数据块传输的标准。
它是由Cisco 和IBM两家发起的,并且得到了IP存储技术拥护者的大力支持。
是一个供硬件设备使用的可以在IP协议上层运行的SCSI指令集。
简单地说,iSCSI 可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择。
iSCSI对于大多数用户,比FC SAN更具有竞争力
iSCSI技术和产品的出现,使得用户构架一个基于IP的SAN 环境变得更加容易,由于目前市场上基于iSCSI的存储产品越来越多,通过这些产品构架一个SAN存储环境相对构架一个FC SAN环境整体投入相当的低。
这是由于FC SAN需要专用的存储光纤交换机、HBA卡、FC存储设备等,这些设备目前还是相当的昂贵,对于一般用户来讲,这个投入可能不是很值得。
当然FC SAN环境速度相当快,对于一些大规模数据库应用、并发度高的用户环境,这种配置是必须的。
而大多数应用环境,对存储处理能力的要求并不是想象中的那么吓人,往往连用户自己都不知道自己需要什么样的处理能力的存储。
实际上,iSCSI环境下的性能瓶颈主要在网络上,因为iSCSI是通过以太网传输存储数据的。
当然,在iSCSI存储设备端和服务器端存在封包和解包过程,这些会占用一些系统资源,如果使用专用的iSCSI 卡,这种处理都在iSCSI卡上完成,不会占用系统资源。
只有我们直接使用普通千兆以太网卡来连接到IP SAN环境中,才需要更多的系统资源。
而随着网络的传输能力越来越强,服务器处理能力越来越强,这些都不是主要问题了。
我们完全可以在相当低的预算范围内,甚者仅仅是以前的一个DAS(直接连接存储,比如SCSI接口磁盘阵列柜)设备的投入,就可以完成一个IP SAN环境的构建。
下表可以了解一下,通过两种方式,构建一个SAN环境所需要的设备列表:
iSCSI环境下,构建一个集群IP SAN的构建,使得我们的用户可以将网络中的各个服务器,上的数据存放在iSCSI存储设备上,并且能够像FC SAN一样,在iSCSI磁盘阵列上划分的分区(LUN),这些分区能够被其它连接在IP SAN中的服务器所共享,这样就使得我们构架一个高可用性集群环境成为可能。
我们知道,在IP SAN环境下,我们可以不管服务器存放在何处、iSCSI存储设备存放在何处,只要网络链路能够通达就可以加入到这个SAN环境中。
这样我们就在这个IP SAN 环境中实现了存储虚拟化。
那么怎么实现集群呢,这里我们讨论高可用性集群的实现。
高可用性集群解决SAN环境中各个应用系统的高可靠性,简单的说,就是任何服务器节点的宕机,不会导致运行在该服务器节点的应用系统停止工作,它会根据预定义的备援规则进行转移,这个转移包括了应用系统(服务、进程等)、网络资源(IP)、存储资源(卷)。
这些资源通常被捆绑在一起,我们称为任务包(Package),它在逻辑上独立于服务器主机(服务器节点,Node),这样实际上是把处理单元(服务器节点)和应用系统(任务包)逻辑上完全分开,而任务包可以在任何可以运行的服务器节点上运行,对于客户端访问者来讲,不知道数据是存放在哪里,也不知道自己使用的应用环境是运行在哪台服务器上,实现了应用环境的高可用。
下面我们以LanderCluster为例,来阐述一下这个环境的实现过程。
LanderCluster是一种集群管理软件,能够在IP SAN环境下,构建一个多种工作方式服务器互备环境,这种互备方式,可以是多台服务器相互备份、一台备份多台、多台备份多台等。
而我们仅仅需要考虑的是集群系统的规划,也就是我们前面提到的备援规则定义,这是高可用集群系统定义的核心。
主要要考虑的包括应用系统的兼容性、服务器处理能力等。
应用系统兼容性主要是指两个或多个应用系统是否可以在同一台服务器环境上运行,比如两个同实例名的ORACLE数据库是不能在同一台服务器上同时运行的,那么必须在备援规则上予以规划,使它们在任何时刻不能向同一台服务器上切换。
服务器处理能力主要是要分析是否两个或多个应用如果同时运行在一台服务器上,该服务器是否会因为过载而死机。
通常情况是服务器不会死机,但会变得运行迟缓,这种情况发生,说明备援规则规划存在问题。
我们可以看出在服务器节点越多的情况下,备援规则会越复杂,但整个系统的规划会越发灵活,可靠性会越高。
因为不同于双机环境,每台服务器应用只能是另外一台做备份服
务器,在集群环境下,理论上的其它服务器,只要满足条件,都可以是备援服务器。
用LanderCluster构建这样集群
由于集群还是比较复杂,大多数用户和存储爱好者对它的认识,认识还不够深刻,不能够有效的和实际环境联系起来,也不知道如何下手来实现这样的环境。
我们为相当多的用户构建了这样的集群环境,那么就结合我们的实践经验来分享一下这个概念。
下面以大多数政府用户的典型环境进行设计分析,来理解前面提到的概念。
很多的政府用户典型的应用环境包括:业务数据库服务器(可能是ORACLE、SQL Server 、MySQL等)、应用服务器(中间件服务器)、办公自动化服务器(OA 服务器,Notes等)、文件服务器、财务服务器等,这些服务器往往都是单独运行的,个别环境会在核心的数据库服务器做个双机环境,确保关键部分高可用,而实际上,现在的用户系统已经是一个复杂的多机协同提供服务的环境了,数据库服务器是可靠的,那么应用服务器如果宕机,整个系统环境同样是不可靠的,会因为其中的某台服务器宕机而停止服务,这样环境的整体可靠性,取决于整个环境中各个服务器、应用的可靠性。
因此,真正能有效提高整体可靠性的手段,就是采用集群技术。
这些服务器都可以整合在一个IP SAN环境中,通过LanderCluster实现高可用。
我们来分析这个环境,这些服务器环境的应用数据都存放在iSCSI存储设备的相关分区上,iSCSI 环境规划参考下表:
注:下表仅仅是参考环境,取环境中的几个应用系统进行示范,所有定义内容均是参考数据
在这样一个环境下,我们需要定义备援规则,首先看这几台服务器的应用系统:ORACLE、MySQL、文件服务、WebLogic 之间没有冲突,也就是说这些应用都可以同时运行在任何一台服务器上,这是最完美的状况,可以达到最高的可靠性定义。
我们假定服务器处理能力都能够满足处理能力的要求。
那么,备援规则的定义可以如下表:
这是一种完美状态的环境规划,在实际运行环境中,每个服务器节点的备援理论上达到2个,就已经具有非常高的可靠性了,上面的定义包含了各种极端情况都能保证系统不停止提供服务,比如任意3台服务器宕机,那台好的服务器也能提供4个应用的服务。
简单的以数据库服务器为例说明工作方式,在正常运行时,四台服务器分别运行自己的应用。
某个时刻数据库服务器宕机,则LanderCluster会在10 秒钟之内发现,立刻检索备援规则表(存放在每个节点机的内存中),发现第一备援机是财务服务器(FINServer),在确定财务服务器是完好的情况下,将数据库服务器上的资源包,整体切换到财务服务器上运行(包括IP、iSCSI分区、ORACLE服务等),切换过程不超过50秒。
如果LanderCluster 侦测发现财务服务器是坏的,则会检查第二备援节点状态,如果第二节点文件服务器(FILEServer)是好的,则切换到文件服务器上工作,依次类推。
这样我们知道,集群环境的规划相当的重要。
环境拓扑如下图:。