当前位置:文档之家› 高可用集群模块

高可用集群模块

高可用集群模块
高可用集群模块

https://www.doczj.com/doc/4c525086.html,nderSoft

Normal

联鼎软件

高可用集群模块介绍

作者:市场部

上海联鼎软件股份有限公司

https://www.doczj.com/doc/4c525086.html,

版权所有

目录

第一节概述 (2)

第二节产品优势 (2)

2.1全新体系架构 (2)

2.2智慧系统健康与可用性评价体系 (2)

2.3深度应用侦测代理 (3)

2.4强大的故障分级处理 (4)

2.5增强的跨平台集群系统集中管理 (4)

2.6支持虚拟化环境 (5)

2.7集群按业务分组,单组集群支持多达64个节点及64个任务 (5)

2.8首创智能预警体系 (6)

2.9丰富的集群备援模式 (6)

2.10更高级别的监测准确度,更快速的切换速度 (6)

第三节产品关键功能 (6)

第一节概述

全新的高可用集群模块是landerVault体系中负责保护关键业务应用免遭软、硬件故障影响的应用软件。应用创造性的“故障分级”概念,融入“智能感知”系统,彻底颠覆传统高可用集群系统简单的二元化故障判断方式,将传统高可用系统仅对“故障”所引起的结果(如宕机)做出反应提升为对“故障”的成因(系统健康指标)进行监控与分析,配合独特的“故障预警”机制,在核心系统即将发生严重影响业务持续运作情况前及时发出“预警”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,将故障事后处理提升为故障事前预知,充分保障用户核心应用7×24小时持续可靠运作,可支持多达64个节点的应用,并为局域网(LAN)或广域网(WAN)上的客户机提供高可用性的服务。

第二节产品优势

2.1全新体系架构

创新的LanderCluster的体系结构,以面向“对象”为核心,对象包括:IPAddress,Alias,Volume,Process,Service,CPU,Memory,Network等,每个对象都有自己的属性、方法、事件。集群容器(Container)是一个大的接口池,集群负责管理这些对象的生命周期,为每一个对象提供接口服务。

2.2智慧系统健康与可用性评价体系

高可用集群模块在业界首次提出了创造性的“系统健康评价体系”并加以应用,我们认为对系统的可用性判断必须是持续的,大量的情况证明系统从“可用”转向“不可用”并非是瞬

间发生,而存在一个过程,在这个过程中,系统的某些核心指标将会提前显示出异常,虽然此时系统对外表现出的仍然为“可用”,但整个系统实际已经处于“亚健康”,对客户端的请求反应逐渐变慢,系统出现不稳定的迹象,系统整体可用性逐渐降低,如果不进行任何干预,系统在未来某个时点将有极大可能转化为真正“不可用”,从而导致灾难性的后果。通过高可用集群模块的“系统健康评价体系”,用户将及时发现系统的异常状态,有效判断系统目前真正的“健康”程度,并且经过对系统核心指标的综合分析,将能对系统未来可能发生的状况进行“预知”,直击造成系统转向“不可用”的原因,提前发现,提前预警,提前解决,令用户从“被动”的解决转向“主动”的发现与处理,让系统的可用性判断从“不可知”转为“可预知”。

2.3深度应用侦测代理

高可用集群保护下的核心业务通过代理(Agent)实时采集应用的运行态数据,结合“评价体系”来诊断系统可用性的。可用性指标分为两类:一类是结果类,即模拟客户端访问是否成功,是否获得期望的响应;另一类是风险类,体现的是系统当前运行态的风险指数,如应用的连接数、数据库的存储空间使用率、Web的访问迟延、网络的流量、CPU的负载、系统内存的余量等等,这些因素都是系统能否正常工作的潜在风险,是进行故障预警的重要预测依据。

高可用集群模块提供常用软件的侦测代理,如Oracle、MS-Sql以及Web等,这些监控对象的接口及方法,被灵活保存在XML配置文件中。集群提供开放的应用代理接口,用户可根据开发模板,自定义监控对象的指标采集方法,就可以让集群系统实时监控这些指标,触发相关的事件。

2.4强大的故障分级处理

高可用集群模块独特的故障分级处理系统能够满足用户自定义故障阀值,建立不同的故障评价标准,并对每一类故障进行自定义操作,提供最大的灵活性。同时系统提供丰富插件,为用户提供精准的故障分析。

2.5增强的跨平台集群系统集中管理

LanderVault应用JAVA技术,实现全面的跨平台管理,允许用户在不同的平台中统一的管理整个集群,在不同平台中拥有统一界面,通过增强的LanderVault集中管理平台,用户能够全面集中监控及管理资源组内各台服务器的存储资源,网络负载,系统进程,系统服务,并可对目标服务器的进程及服务进行操作,从而极大简化集中管理的复杂度,实现合理资源配置。

2.6支持虚拟化环境

虚拟化大潮翻涌,软硬件虚拟化技术不断扩展,用户未来的核心应用极有可能运行于虚拟化的环境中,在虚拟化技术重新整合并分配用户资源的同时,对系统整体可用性的要求变得更为苛刻,一台运行了多个虚拟环境的服务器一旦出现故障将直接影响其上的所有虚拟系统,其损失远比单一系统环境严重数倍。单个虚拟系统的故障同样需要进行故障转移,LanderVault系统中的高可用集群模块超前支持虚拟化存储环境,支持虚拟化操作系统环境VMware,支持单一虚拟化系统之间自由切换。

2.7集群按业务分组,单组集群支持多达64个节点及64个任务

LanderVault系统中的高可用集群模块支持为每组核心业务独立分组,便于管理,我们把逻辑相关的服务器部署在一个服务器组里,而把逻辑不相关的服务器放入不同的服务器组里。在服务器组内,可以构建集群,复制,备份和容灾等数据安全解决方案,在每个分组内可支持多达64个节点,并可同时管理64个任务,完全满足大型企业级用户需求,为用户的系统扩展提供了充足的空间。

2.8首创智能预警体系

全新的系统智能预警体系,通过采集“系统健康评价体系”的数据,持续监控维持核心系统稳定运作的重要指标变化,包括处理器、内存、LAN 介质、存储设备、网卡、进程、应用程序实时状态,任意指标出现异常状况,即可快速作出响应,防患于未然。

2.9丰富的集群备援模式

支持丰富的集群备援模式,包括:单机高可用、主从、对等、多备一、一备多、多备多、多机互备,双存储备援,纯软环境集群,远程高可用,虚拟环境高可用等各类灵活方式。

2.10更高级别的监测准确度,更快速的切换速度

高可用系统在保障用户核心业务的同时,必须拥有极高的监测准确度、监测速度、降低系统停顿时间,高可用集群模块通过采用独特的MLDC 多链路数据交换协议,应用最多5层链路侦测,确保集群监测准确可靠,避免“脑裂”现象,并应用快速故障侦测及处理技术将系统切换时间缩短到以“秒”计算的范围,最大程度降低系统停机时间,提升系统可用性。

第三节 产品关键功能

支持各种切换策略:主备切换模式、回切模式、任务负载均衡模式。通过强大的执行树功能,可自定义集群系统发生切换时各种资源停止及启动的执行顺序。

支持集群资源动态监控,第一个采用“健康系统安全评价体系”作为衡量集群可用性的方式,改变传统集群系统非“活”既“死”的二元化判断方法,可根据故障的严重程度,做不同级别的事件响应。

强大的Event Analyzer技术,可管理所有的任务调度和事件触发,具有人工智能。

支持windows、linux、unix系统平台,支持32位及64位操作系统,Windows平台和Linux平台采用统一的架构设计,可支持跨平台集群。灵活的应用自定义接口(MObject),可满足所有应用的监控需求。

支持主流存储构架,如FC、ISCSI、SCSI及EXP等。集群运行状态以直观的图形方式显示,

管理员轻松应对大规模系统环境。

专业深度监控插件,是目前唯一能对数据库系统的并发

用户数、表空间使用率以及进程占用CPU百分比等进行可用性定义的集群系统。

支持网格化多点镜像集群,与网格化复制模块结合,可实现广域网环境的异地高可用容错;与容灾模块结合,可实现异地应用级容灾。

完善的集群自我监控,应用进程互锁机制,最大程度保障集群系统自身健壮,避免集群丢失。通过LanderVault先进B/S构架,系统管理员可轻松实现远程管理集群资源,并可针对集群组内大量资源统一分配及调整。

应用RSA的1024位密钥加密,确保用户核心数据万无一失。

支持多种报警方式(Mail、Vioce、SMS)。

支持中、英文语言界面,拥有完善的系统日志查看器,详细的系统帮助文档及手册。

双机热备、集群及高可用性入门

双机热备、集群及高可用性入门

什么是双机热备? 双机热备这一概念包括了广义与狭义两种意义。 从广义上讲,就是对于重要的服务,使用两台服务器,互相备份,共同执行同一服务。当一台服务器出现故障时,可以由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续提供服务。(相关文章:为什么需要双机热备?) 双机热备由备用的服务器解决了在主服务器故障时服务不中断的问题。但在实际应用中,可能会出现多台服务器的情况,即服务器集群。(相关文章:双机软件与集群软件的异同) 双机热备一般情况下需要有共享的存储设备。但某些情况下也可以使用两台独立的服务器。(相关文章:双机热备的实现模式) 实现双机热备,需要通过专业的集群软件或双机软件。(相关文章:双机与集群软件的选择) 从狭义上讲,双机热备特指基于active/standby方式的服务器热备。服务器数据包括数据库数据同时往两台或多台服务器写,或者使用一个共享的存储设备。在同一时间内只有一台服务器运行。当其中运行着的一台服务器出现故障无法启动时,另一台备份服务器会通过软件诊测(一般是通过心跳诊断)将standby机器激活,保证应用在短时间内完全恢复正常使用。(相关文章:双机热备、双机互备与双机双工的区别) 为什么要做双机热备? 双机热备针对的是服务器的故障。 服务器的故障可能由各种原因引起,如设备故障、操作系统故障、软件系统故障等等。一般地讲,在技术人员在现场的情况下,恢复服务器正常可能需要10分钟、几小时甚至几天。从实际经验上看,除非是简单地重启服务器(可能隐患仍然存在),否则往往需要几个小时以上。而如果技术人员不在现场,则恢复服务的时间就更长了。 而对于一些重要系统而言,用户是很难忍受这样长时间的服务中断的。因此,就需要通过双机热备,来避免长时间的服务中断,保证系统长期、可靠的服务。 决定是否使用双机热备,正确的方法是要分析一下系统的重要性以及对服务中断的容忍程度,以此决定是否使用双机热备。即,你的用户能容忍多长时间恢复服务,如果服务不能恢复会造成多大的影响。 在考虑双机热备时,需要注意,一般意义上的双机热备都会有一个切换过程,这个切换过程可能是一分钟左右。在切换过程中,服务是有可能短时间中断的。

高可用性集群系统的实现

高可用性集群系统的实现 《Linux企业应用案例精解》第8章主要介绍一下虚拟化技术应用。本节为大家介绍高可用性集群系统的实现。 8.3.5 高可用性集群系统的实现(1) VMware Infrastructure 的体系结构和典型配置 资源动态分配和高可用性的实现为构建高可用性集群系统提供了有力的保障,采用VMwae构建铁路企业高可用性集群,不需要为系统中的每台服务器分别添置备用服务器,就可以有效地降低系统成本,在基于VMware的我企业高可用性集群中,备用服务器安装了VMware ESX Server,与数据库服务器、Web服务器、OA服务器和文件服务器等构成高可用性集群,同时采用数据库备份服务器实现差额计划备份。 使用VMware提供的虚拟基础架构解决方案,服务器不再需要随着业务增加而添加,整个IT基础架构能得到有效控制并可充分发挥效能。只有当整体资源出现不足的时候,才需要增加服务器。而且对系统资源的

添加也非常简单,不再需要做繁琐的硬件维护以及业务迁移,只需要简单地将新服务器安装VMWARE? INFRASTRUCTURE 3软件,并添加到已有的VMWARE? INFRASTRUCTURE 3架构中即可,新增资源将自动分配到各个最需要的业务环境中。 在HA和DRS功能的共同支撑下,虚拟机的稳定、不间断运行得到了保证,而且,在没有搭建Cluster环境的情况下,迁移、升级依旧能不中断服务。哪怕是硬件升级、添加,正常停机维护等情况,也能够保证所有的业务正常运行,客户端访问服务器不产生业务中断现象。新的服务器虚拟化架构中另一个重点是VMware HA 的部署,它是整个服务器系统安全、可靠运行的一道防线。传统的热备机方式最大的问题就是容易造成资源的大量闲置;在正常运行状态下,所有备机服务器都处于闲置状态,不仅造成计算资源的空耗,而且还浪费大量的电力和散热资源,投资回报率非常低。 如何应对Linux系统软件包的依赖性问题 不管是初步跨入Linux殿堂的新手还是,具有多年经验的专家,在安装或编译软件包的过程中或多或少的都会遇到包的依赖问题从而导致安装过程无法继续,比如管理员在安装php软件包需要libgd.so文件,而这个文件属于gb软件包。但是在安装gb软件包时,可能这个软件包跟其他软件包又具有依赖关系,又需要安装其他软件包才行。这时有的管理员便失去耐心。在遇到这种Linux软件包依赖关系问题,该如何解决呢?在谈这个具体的措施之前,先跟大家聊聊Linux系统里的软件爱你依赖性问题。 我们把处理rpm依赖性故障的策略可以分成两类解决依赖性故障的自动方法和手工方法。但当安装不属于发行一部分的软件包时自动方法是不可用的。在描述如何手工解决依赖性故障后,将简要描述如何使用自动方法之一(YUM),但首先需要了解它们是什么及rpm如何强制实施它们。 一、什么是依赖性 程序依赖于程序代码的共享库,以便它们可以发出系统调用将输出发送到设备或打开文件等(共享库存在于许多方面,而不只局限于系统调用)。没有共享库,每次程序员开发一个新的程序,每个程序员都需要从头开始重写这些基本的系统操作。当编译程序时,程序员将他的代码链接到这些库。如果链接是静态的,编译后的共享库对象代码就添加到程序执行文件中;如果是动态的,编译后的共享库对象代码只在运行时需要它时由程序员加载。动态可执行文件依赖于正确的共享库或共享对象来进行操作。RPM依赖性尝试在安装时强制实施动态可执行文件的共享对象需求,以便在以后--当程序运行时--不会有与动态链接过程有关的任何问题。

高可用性集群解决方案设计HA

1.业务连续 1.1.共享存储集群 业务系统运营时,服务器、网络、应用等故障将导致业务系统无常对外提供业务,造成业务中断,将会给企业带来无法估量的损失。针对业务系统面临的运营风险,Rose提供了基于共享存储的高可用解决方案,当服务器、网络、应用发生故障时,Rose可以自动快速将业务系统切换到集群备机运行,保证整个业务系统的对外正常服务,为业务系统提供7x24连续运营的强大保障。 1.1.1.适用场景 基于共享磁盘阵列的高可用集群,以保障业务系统连续运营 硬件结构:2台主机、1台磁盘阵列

主机 备机心跳 磁盘阵列 局域网 1.1. 2.案例分析 某证券公司案例 客户需求分析 某证券公司在全国100多个城市和地区共设有40多个分公司、100多个营业部。经营围涵盖:证券经纪,证券投资咨询,与证券交易、证券投资活动有关的财务顾问,证券承销与保荐,证券自营,证券资产管理,融资融券,证券投资基金代销,金融产品代销,为期货公司提供中间介绍业务,证券投资基金托管,股票期权做市。 该证券公司的系统承担着企业的部沟通、关键信息的传达等重要角色,随着企业的业务发展,系统的压力越来越重。由于服务器为单机运行,如果发生意外宕机,将会给企业的日常工作带来不便,甚至

给企业带来重大损失。因此,急需对服务器实现高可用保护,保障服务器的7×24小时连续运营。 解决方案 经过实际的需求调研,结合客户实际应用环境,推荐采用共享存储的热备集群方案。部署热备集群前的单机环境:业务系统,后台数据库为MySQL,操作系统为RedHat6,数据存储于磁盘阵列。 在单机单柜的基础上,增加1台备用主机,即可构建基于共享存储的热备集群。增加1台物理服务器作为服务器的备机,并在备机部署系统,通过Rose共享存储热备集群产品,实现对应用的高可用保护。如主机上运行的系统出现异常故障导致宕机,比如应用服务异常、硬件设备故障,Rose将实时监测该故障,并自动将系统切换至备用主机,以保障系统的连续运营。

多节点集群多机互备解决方案

https://www.doczj.com/doc/4c525086.html,nderSoft(LVGUI-ch.DOC) Normal **项目 多机互备集群解决方案 销售:王晓强 作者:市场部 上海联鼎软件股份有限公司 https://www.doczj.com/doc/4c525086.html, 版权所有 目录 第一章引言2 1.1公司介绍2 1.2背景3 1.3方案设计总原则5 第二章需求描述6 2.1需求概述6 2.2现状说明和存在问题6 2.3总体需求说明7 第三章方案设计7 3.1项目风险分析8 3.2需解决的问题8

3.3设计原则9 第四章方案描述10 4.1总体方案概述10 4.2集群系统方案概述11 4.3工作流程简单描述11 4.4L ANDER C LUSTER软件的优势:12 第五章方案优势13 第六章技术规格19 第一章引言 1.1公司介绍 联鼎软件(Landersoft)是领先的核心业务及数据安全系统解决方案供应商,致力于通过保障用户关键应用及核心电子化数据,确保企业在全球信息化持续发展进程中无间断的竞争力及信心。产品面向应用高可用性,以及全球范围内的核心系统容灾及数据保护。在中国已有超过5000个用户,9500例安装,市场占有率达到前三位,覆盖金融、电信、医疗、政府、交通、电力、教育、制造业、基础资源等行业,已被证明适用于各种应用、服务器、存储硬件和相关设备并实现互操作。 联鼎软件拥有先进的多平台测试开发系统及前瞻性的用户体验中心。公司大中华区总部设在上海,南亚总部设在新加坡,在中国大型城市设有分支机构,形成具有强大优势的销售管理体系和技术支持体系,能够更好、更及时的响应用户需求。 联鼎认为,未来十年,随着IT技术的加速发展,社会对IT环境及服务将高度依赖,保障企业

计算机集群技术的解释

【赛迪网独家特稿】集群技术是使用特定的连接方式,将相对于超级计算机便宜许多的计算机设备结合起来,提供与超级计算机性能相当的并行处理技术。早在七十年代就有人提出可以使用这种集群技术完成并行处理,但是由于受到当时网络交换技术的限制,集群系统在性能上与其他并行处理系统相距甚远,直到网络技术逐渐成熟的今天,它才具备了与超级计算机相匹敌的能力。 什么是集群 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。 计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。在大多数模式下,集群中所有的节点拥有一个共同的名称,集群内的任一节点上运行的服务都可被所有的网络客户所使用。 集群的特点 1.提供强大处理能力的高性能计算机系统:计算机集群可以通过负载均衡、并行处理、时间片处理等多种形式,将多台计算机形成高性能计算机集群。对用户端(Client)而言,计算机集群则是一个单一的系统,可以为用户提供高性能的计算机系统,而用户不用关心有多少计算机承担了系统实现的任务,而只需要关注系统的整体处理能力。因此,计算机集群可以用多台普通性能的计算机组成具有高性能的计算机系统,承担只有超级计算机才能胜任的工作。 2.提供高可用性的计算机系统:通过计算机集群技术组成的系统,可以确保数据和应用程序对最终用户的高可用性,而不管故障属于什么类型。即当计算机集群中的节点计算机出现软硬件故障的时候,高可用性集群提供了对软件和硬件失败后的接替。它将服务器镜像到备用系统或节点中,当主节点上的系统崩溃时,冗余节点就从替补角色转换到正式角色,并自动投入应用,从而保证了系统运行的不间断。

Linux下高可用集群方案

Linux下高可用集群方案很多,本文介绍的是性价比比较高的一种: 使用Heartbeat 2.0配置Linux高可用性集群。 一、准备工作 你首先需要两台电脑,这两台电脑并不需要有相同的硬件(或者内存大小等),但如果相同的话,当某个部件出现故障时会容易处理得多。接下来您需要决定如何部署。你的集群是通过Heartbeat 软件产生在两台电脑之间心跳信号来建立的。为了传输心跳信号,需要在节点之间存在一条或多条介质通路(串口线通过modem电线,以太网通过交叉线,等等)。现在可以开始配置硬件了。既然想要获得高可用性(HA),那么您很可能希望避免单点失效。在本例中,可能是您的null modem线/串口,或者网卡(NIC)/ 交叉线。因此便需要决定是否希望为每个节点添加第二条串口null modem连线或者第二条NIC/交叉线连接。我使用一个串口和一块额外的网卡来作为heartbeat的通路,这是因为我只有一条null modem线和一块多余的网卡,并且认为有两种介质类型传输heartbeat信号比较好。硬件配置完成之后,便需要安装操作系统以及配置网络(我在本文中使用的是RedHat)。假设您有两块网卡,那么有一块应该配置用于常规网络用途,另一块作为集群节点之间的专用网络连接(通过交叉线)。例如,假设集群节点有如表-1下的IP地址: 表-1集群节点的IP地址 输入如下命令检查您的配置: ifconfig 这将显示您的网卡及其配置。也可以使用命令“netstat –nr”来获得网络路由信息。如果一切正常,接下来要确定可以来两个节点之间通过所有接口ping通对方。如果使用了串口,便需要检测其连接情况。把一个节点作为接收者,输入命令: cat

深度高可用集群软件产品手册

深度高可用集群软件产品手册 版本1.0 文档编号密级 适用范围 制定审核 发布日期更新日期

1.1.总体实现方案 (1) 1.1.1.适用场景 (1) 1.1.2.方案概述 (1) 1.1.3.方案设计 (2) 1.2.产品功能说明 (4) 1.2.1.双机热备功能 (4) 1.2.2.多机集群功能 (5) 1.2.3.多机双柜功能 (6) 1.3.产品性能说明 (7) 1.3.1.双机热备性能指标 (7) 1.3.2.多机集群性能指标 (9) 1.3.3.多机双柜性能指标 (11)

1.1.总体实现方案 1.1.1.适用场景 在生产环境中,当一台业务服务器发生故障时,能通过各种策略确保及时切换另一台服务器提供相应的业务访问,从而确保客户业务访问的连续性和稳定性。客户对高可用集群的基本需求包括: ?业务系统的运行可靠性要求高,需要尽量避免业务中断; ?业务系统对数据的可靠性、完整性要求高,需要进行实时备份; ?针对多应用系统,要求业务服务器运行多项应用系统。 高可用集群应用通过在服务器设备之间连接“心跳线”的冗余机制,实时监视彼此的运行状态;而数据被存放于共享存储设备上。采用心跳技术,确保在网络故障时对数据的全面保护。当工作主机发生故障,备机将及时侦测到故障信息并接管主机上运行的业务。 1.1. 2.方案概述 深度高可用集群应用解决方案是深度科技开发的智能、多层次高可用软件产品。基于深度服务器的深度高可用集群应用方案,进一步提升了软硬件系统及应用的稳定性和可靠性,更有效的保障虚拟化服务与数据备份安全可靠,支持双机互备、多机保护,磁盘心跳、智能切换保护等功能。 针对不同客户需求和应用场景,深度高可用集群应用方案支持多种部署方式,包括: ?双机热备 ?双机互备 ?级联等多种模式。

Linux高可用集群系统的结构和原理分析

收稿日期:2007-09-15 第一作者简介:左 婷(1979-),女,吉林省四平市人,现为吉林师范大学信息网络中心研究实习员. 2007年11月 吉林师范大学学报(自然科学版) .4第4期Journal of Jilin Normal University(Natural Science Edition)Nov.2007 Linux 高可用集群系统的结构和原理分析 左 婷1,吴会军2 (1.吉林师范大学信息网络中心,吉林四平136000;2.吉林省水文水资源局,吉林长春130000) 摘 要:通过对目前常用Linux 平台上高可用集群系统的软、 硬件基本结构和工作原理的分析与研究,构建容易扩展、高可用、易维护和管理、高性价比的计算机系统. 关键词:L inux;高可用集群系统;结构;原理 中图分类号:T P393 文献标识码:A 文章编号:1000-1840-(2007)04-0115-02 目前,很多国际知名软件公司和计算机厂商都推出了 自己的集群产品,其中值得一提的是T he H igh A vailability L inux Project 的开放源代码Heartbeat,已经同商业集群软件 一样成熟,而且较后者应用更为灵活.本文将着重介绍SuSE L inux Enterpr i se Server 10平台上Heartbeat2.0.8组成结构 和工作原理.1 Linux 高可用集群系统的基本概念伴随着集群技术的发展,出现了一些关于集群系统的概念和术语.(1)集群资源和集群资源代理.在集群系统中,所有由集 群控制和管理,并将其以单一和统一的形式提供给客户端用 户使用的计算机资源称为集群资源,例如:一种服务、一个 IP 地址、一个磁盘驱动,甚至可以说:除了节点,其它任何软 硬件资源都可以成为集群资源.而集群资源代理是为了控制 和管理某一集群资源而编写的代理程序脚本,集群软件通过 特定集群资源代理来操控某一集群资源,Heartbeat 套件本 身已经包含了一些常用资源代理,开发人员也可以自己按照 一定的规范编写;(2)指定协调者(也称主节点).主节点除了 具有其它一般节点具有的集群节点基本功能外,还负责对整 个集群系统的状态进行监控、分析和转换,对集群系统下达 集群指令,协调各节点的操作等,实际上是整个集群系统的 大脑!,显然一般情况下,整个集群系统只有一个主节点,但 当某些特殊情况发生时,例如主节点不再是集群中的节点, 主节点将发生迁移,即位置发生了变化,另一个节点将代替 它成为主节点;(3)ST ON IT H.英文 Shoot T he Other Node In T he Head !的缩写,代表一种将错误操作的节点进行隔离 的技术,为了防止错误操作的节点对集群资源进行破坏性控 制和操作,使其不断重新启动或关机,从而使其无法取得对 集群资源的控制权;(4)裂脑和仲裁.在某种情况下,由于软 硬件失败导致各节点无法相互确定彼此的状态时,整个集群将被分裂为几个部分,每个部分都想取得对集群资源的控制权,以保证集群的高可用,这种对集群资源的竞争将严重破坏集群资源的完整性和一致性,甚至导致整个集群瘫痪、硬件被损坏的严重后果,这种情况称为裂脑.为了防止裂脑的发生,由仲裁协议决定哪个部分来取得对集群资源的控制 权,为了继续保证系统的高可用,一般将控制权交给节点数 超过原集群节点数一半的部分,同时将其它节点进行隔离; (5)单点故障(失败).单点故障是指由于系统中某一组件的 故障或运行失败从而导致整个集群系统瘫痪和应用服务完 全停止,因此,在高可用集群的构建中应尽量避免单点故障.2 Heartbeat 的主要进程Heartbeat 的所有集群功能都是由它的进程和它们之间相互通信来具体实现的.(1)集群资源管理器(CRM ,Cluster Resource M anager).CRM 是集群系统中最主要的管理进程,它负责对整个集群资源的管理和约束,包括资源的配置及相互间依赖关系,并决定资源运行的状态、位置和时间等.另外它还负责监控本地资源管理器完成这些工作,CRM 通过与系统的每一个组件通信来相互作用和协调操作,CRM 通过heartbeat 通讯模块进行节点间通讯,从CCM 接受当前集群的成员信息,指令ST O NI TH Daremon 如何工作,负责记录系统日志等;(2)策略引擎(PE,CR M Policy Eng ine).PE 是CRM 的一个组件,只能在主节点上运行.PE 的功能是根据当前集群的状态及集群资源的约束配置计算出集群的下一个状态,即为T E 生成将要执行的计划和策略;(3)执行引擎(T E,CRM T ransi tion Engine).T E 也是CRM 的一个组件,只能在主节点上运行.T E 的功能是按照P E 生成的集群状态变化计划和策略,指令集群节点上的LRM 对具体的集群资源进行操作;(4)?115?

高可用集群模块

https://www.doczj.com/doc/4c525086.html,nderSoft Normal 联鼎软件 高可用集群模块介绍 作者:市场部 上海联鼎软件股份有限公司 https://www.doczj.com/doc/4c525086.html, 版权所有

目录 第一节概述 (2) 第二节产品优势 (2) 2.1全新体系架构 (2) 2.2智慧系统健康与可用性评价体系 (2) 2.3深度应用侦测代理 (3) 2.4强大的故障分级处理 (4) 2.5增强的跨平台集群系统集中管理 (4) 2.6支持虚拟化环境 (5) 2.7集群按业务分组,单组集群支持多达64个节点及64个任务 (5) 2.8首创智能预警体系 (6) 2.9丰富的集群备援模式 (6) 2.10更高级别的监测准确度,更快速的切换速度 (6) 第三节产品关键功能 (6)

第一节概述 全新的高可用集群模块是landerVault体系中负责保护关键业务应用免遭软、硬件故障影响的应用软件。应用创造性的“故障分级”概念,融入“智能感知”系统,彻底颠覆传统高可用集群系统简单的二元化故障判断方式,将传统高可用系统仅对“故障”所引起的结果(如宕机)做出反应提升为对“故障”的成因(系统健康指标)进行监控与分析,配合独特的“故障预警”机制,在核心系统即将发生严重影响业务持续运作情况前及时发出“预警”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,将故障事后处理提升为故障事前预知,充分保障用户核心应用7×24小时持续可靠运作,可支持多达64个节点的应用,并为局域网(LAN)或广域网(WAN)上的客户机提供高可用性的服务。 第二节产品优势 2.1全新体系架构 创新的LanderCluster的体系结构,以面向“对象”为核心,对象包括:IPAddress,Alias,Volume,Process,Service,CPU,Memory,Network等,每个对象都有自己的属性、方法、事件。集群容器(Container)是一个大的接口池,集群负责管理这些对象的生命周期,为每一个对象提供接口服务。 2.2智慧系统健康与可用性评价体系 高可用集群模块在业界首次提出了创造性的“系统健康评价体系”并加以应用,我们认为对系统的可用性判断必须是持续的,大量的情况证明系统从“可用”转向“不可用”并非是瞬

OpenStack高可用集群实施案例

OpenStack高可用集群实施案例

1. 规划与部署 本次分享提炼自我们在某企业部署OpenStack高可用集群的实际案例,初期平台面向公网给部分部门提供虚拟化基础设施,但仍属于私有云。其中我借鉴了以往操作比如oVirt(RHEV)、VMWare、Citrix 等项目的经验。考虑到时间关系,本次内容将以方法为主,减少细节描述。还有本次涉及到的工具多以开源形式呈现,尽量不涉及到产品,以方便大家集成或开发。 架构简图可参考如下,稍后我们会就其中细节进行讲解。两个架构图的区别在于控制节点的高可用方式。

因为客户网络环境复杂,为了节省部署时间与减少返工率,我们需要在去现场之前准备好以下三种安装方式: l PXE LiveCD l 定制系统安装盘 l 安装包与安装脚本 第一种方式即在用户网络环境下使用现场人员笔记本或者客户服务器启动PXE服务,配置好系统架构(服务器MAC地址、网络配置、存储配置、对应的OpenStack模块与角色、定制包、系统微调与优化措施等),然后开始全自动安装,功能与Mirantis类似,但对网络要求低很多。 第二种方式既是采用定制的系统安装盘,里面需要准备尽可能多的存储设备与网络设备的驱动,以尽可能适配客户服务器与实施人员的自带存储设备。 第三种方式作为前两种方式的替补选项,主要是因为某些客户环境中安装非标系统需要走很多流程,我们提前让客户准备好操作系统,再到现场安装。如果给你准备的系统是RHEL、SUSE或者其他标准Linux 系统的倒还好,如果他有情怀地花了一两天给你现编译上了Gentoo甚至给你准备了一台小机,那就没办法了(开玩笑,尚未遇到过这样的客户,在进厂之前要把基本环境沟通清楚)。另外,它也可以作为以上两种安装方式失败后的最佳选项。

vmware 高可用性(集群HA)

VMware高可用性(集群HA) 1 应用层高可用性:如实现mysql、oracle数据库应用程序的储群集,主要是判断mysql、oracle 应用程序是否停止运行。 2 操作系统高可用性:如windows的故障转移群集(windows failover clustering WFC)。 3 虚拟化层的高可用性:如vsphere high availability(HA)和vsphere fault tolerance(FT)。 4 物理层的高可用性:如:多网络适配器、SAN等。 vSphere HA 和 Fault Tolerance(FT)功能分别通过提供中断快速恢复和连续可用性来最小化或消除非计划停机时间。 使用 vSphere,企业可以轻松提高为所有应用程序提供的基准级别,并且以更低成本和更简单的操作来实现更高级别的可用性。使用vSphere,你可以: a 独立于硬件、操作系统和应用程序提供更高可用性。 b 减少常见维护操作的计划停机时间。 c 在出现故障时提供自动恢复。 一、vSphere HA 提供快速中断恢复 vSphere HA 利用配置为群集的多台 ESXi 主机,为虚拟机中运行的应用程序提供快速中断恢复和具有成本效益的高可用性。 vSphere HA 通过以下方式保护应用程序可用性: 1 通过在群集内的其他主机上重新启动虚拟机,防止服务器故障。 2 通过持续监控虚拟机(通过vmware tools实现主机向虚拟机发送检测信号)并在检测到故障时对其进行重新设置, 防止应用程序故障。 与其他群集解决方案不同,vSphere HA 提供基础架构并使用该基础架构保护所有工作负载: a 无需在应用程序或虚拟机内安装特殊软件。所有工作负载均受 vSphere HA 保护。配 置 vSphere HA 之后,不需要执行操作即可保护新虚拟机。它们会自动受到保护。(需在开机状态下才受保护) b 可以将 vSphere HA 与 vSphere Distributed Resource Scheduler (DRS即负载均衡) 结合使用以防止出现故障,以及在群集内的主机之间提供负载平衡。 与传统的故障切换解决方案相比,vSphere HA 具有多个优势:

高可用集群介绍入门以及实现技术

高可用集群 集群类型 -LB:Load Balance 负载均衡 ? LVS/HAProxy/nginx(http/upstream, stream/upstream) -HA:High Availability 高可用集群 ? 数据库、Zookeeper、Redis ? SPoF: Single Point of Failure,解决单点故障 -HPC:High Performance Computing 高性能集群 系统可用性 SLA:Service-Level Agreement A=MTBF / (MTBF+MTTR) 95%=(602430)*(1-0.9995) 指标:99.9%, ..., 99.999%,99.9999% 系统故障 硬件故障:设计缺陷、wear out(损耗)、自然灾害…… 软件故障:设计缺陷 bug 实现高可用 提升系统高用性的解决方案:降低MTTR- Mean Time To Repair(平均故障时间) 解决方案:建立冗余机制 active/passive 主/备 active/active 双主 active --> HEARTBEAT --> passive active <--> HEARTBEAT <--> active 高可用相关技术 HA service: 资源:组成一个高可用服务的“组件”,比如:vip,service process,shared storage (1) passive node的数量 (2) 资源切换 shared storage:

NAS(Network Attached Storage):网络附加存储,基于网络的共享文件系统。 SAN(Storage Area Network):存储区域网络,基于网络的块级别的共享 Network partition 网络分区 quorum 法定人数 with quorum: > total/2 without quorum: <=total/2 隔离设备 fence node:STONITH=Shooting The Other Node In The Head(强制下线/断电) 双节点集群(TWO nodes Cluster) 辅助设备:ping node, quorum disk(仲裁设备) Failover:故障切换,即某资源的主节点故障时,将资源转移至其它节点的操作 Failback:故障移回,即某资源的主节点故障后重新修改上线后,将之前已转移至其它节点的资源重新切回的过程 HA Cluster实现方案: AIS:Applicaiton Interface Specification 应用程序接口规范 RHCS:Red Hat Cluster Suite红帽集群套件

SolrCloud高可用集群搭建

solrcloud 高可用集群搭建

一、环境准备 (3) 二、环境安装 (4) 1、CentOs 6.4安装 (4) 1)配制用户 (4) 2)修改当前机器名称 (4) 3)修改当前机器ip (4) 4)上传安装包(工具上传WinSCP) (5) 2、jdk安装 (5) 3、zookeeper集群安装 (6) 1)解压zookeeper 安装包 (6) 2)进入zookeeper-3.4.5文件夹,创建data 和log (6) 3)拷贝zookeeper配制文件zoo_sample.cfg (6) 4)修改zoo.cfg (7) 5)进入data文件夹建立对应的myid文件 (8) 6)制zookeeper-3.4.5文件夹到其他机器 (8) 7)开启zookeeper的端口 (8) 8)启动zookeeper (8) 4、solr集群安装 (9) 1)在solrcloud下新建solrhome,并赋于读写权限 (9)

2)将上传的solr.4.6.0压缩包解压缩, (9) 3)将solr.4.6.0/dist/solr-4.6.0.war 复制到/solrcloud/solrhome 并重命为 solr.war (9) 4)将上传的tomcat解压缩 (9) 5)进入tomcat bin目录,启动tomcat (9) 6)停tomcat 再次启动tomcat, webapps 下边多了解压出来的solr文件夹 (10) 7)将/solrcloud/solr-4.6.0/example/solr 文件夹下所有东西复制到 /solrcloud/solrhome (10) 8)复制solr-4.6.0/example/lib/ext下所有jar包到tomcat 的lib下 (11) 9)启动tomcat 访问http://localhost:8080/solr 如图,至此单机版solr配制完 成 (11) 一、环境准备 CentOS-6.4-x86_64-minimal.iso jdk-6u45-linux-i586-rpm.bin zookeeper-3.4.5.tar solr-4.6.0.zip 服务器6台: 192.168.56.11- SolrCloud.Shard1.Leader

如何快速构建高可用集群(Keepalived+Haproxy+Nginx) cycwll

组件及实现的功能 Keepalived:实现对Haproxy服务的高可用,并采用双主模型配置; Haproxy:实现对Nginx的负载均衡和读写分离; Nginx:实现对HTTP请求的高速处理; 架构设计图 重点概念 vrrp_script中节点权重改变算法 vrrp_script 里的script返回值为0时认为检测成功,其它值都会当成检测失败;weight 为正时,脚本检测成功时此weight会加到priority上,检测失败时不加;主失败: 主priority < 从priority + weight 时会切换。

主成功: 主priority + weight > 从priority + weight 时,主依然为主 weight 为负时,脚本检测成功时此weight不影响priority,检测失败时priority – abs(weight) 主失败: 主priority – abs(weight) < 从priority 时会切换主从 主成功: 主priority > 从priority 主依然为主 具体解释详见博文“Keepalived双主模型中vrrp_script中权重改变故障排查” 部署配置 Keepalived部署 配置 001.yum -y install keepalived# 两节点都需部署 002.# 172.16.25.109 003.# vi /etc/keepalived/keepalived.conf 004.! Configuration File for keepalived 005.global_defs { 006. notification_email { 007. root@localhost 008. } 009. notification_email_from admin@https://www.doczj.com/doc/4c525086.html, 010. smtp_connect_timeout 3 011. smtp_server 127.0.0.1 012. router_id LVS_DEVEL 013.} 014.vrrp_script chk_maintaince_down { 015. script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"

双机集群高可用解决方案

双机集群高可用解决方案 信息服务已成为企业日常活动中十分重要的一个组成部分,系统管理员必须不断的监视信息系统,以提供不间断、可靠而又实时的服务。性能、价格和可靠性是企业信息化过程中,人们普遍关心的三大要素。目前,国内许多行业和企业在信息化的过程中,都选用了价格低廉而性能高效的开放系统平台。这种系统平台给用户带来性价比优势的同时,由于系统的复杂性和开放性以及应用环境的多样化,也给应用系统的运行带来了许多不确定因素。这些因素严重威胁着应用系统的稳定有效运行,有时甚至会引发系统的瘫痪。 双机容错是计算机应用系统稳定、可靠、有效、持续运行的重要保证。它通过系统冗余的方法解决计算机应用系统的可靠性问题,并具有安装维护简单、稳定可靠、监测直观等优点。当一台主机出现故障的时候,可及时启动另一台主机接替原主机任务,保证了用户数据的可靠性和系统的持续运行。 双机系统逻辑图 在高可用性方案中,操作系统和应用程序是安装在两台服务器的本地系统盘上的,而整个网络系统的数据是通过磁盘阵列集中管理和数据备份的。数据的集中管理是通过双机热备份系统,将所有站点的数据直接从中央存储设备来读取和存储,并由专业人员进行管理,极大地保护了数据的安全性和保密性。用户的数据存放在

外接共享磁盘阵列中,在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。 双机热备份系统采用“心跳”方法保证主系统与备用系统的联系。所谓“心跳”,指的是主从系统之间相互按照一定的时间间隔发送通讯信号,表明各自系统当前的运行状态。一旦“心跳”信号表明主机系统发生故障,或者是备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(双机软件)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。 双机备份方案中,根据两台服务器的工作方式可以有三种不同的工作模式,即双机热备模式、双机互备模式和双机双工模式。下面分别予以简单介绍: 1、★双机热备模式即目前通常所说的active/standby 方式,active服务器处于工作状态;而standby服务器处于监控准备状态。当active服务器出现故障的时候,通过软件诊测或手工方式将standby机器激活,保证应用在短时间内完全恢复正常使用。典型应用在证券资金服务器或行情服务器。这是目前采用较多的一种模式,但由于另外一台服务器长期处于后备的状态,从计算资源方面考量,就存在一定的浪费。 2、★双机互备模式,是两个相对独立的应用在两台机器同时运行,但彼此均设为备机,当某一台服务器出现故障时,另一台服务器可以在短时间内将故障服务器的应用接管过来,从而保证了应用的持续性,但对服务器的性能要求比较高。服务器配置相对要好。 3、★双机双工模式: 是目前Cluster(集群)的一种形式,两台服务器均为活动状态,同时运行相同的应用,保证整体的性能,也实现了负载均衡和互为备份。WEB 服务器或FTP服务器等用此种方式比较多。 双机热备有两种实现模式,一种是基于共享的存储设备的方式,另一种是没有共享的存储设备的方式,一般称为纯软件方式。基于存储共享的双机热备是双机热备的最标准方案。这种方式采用两台(或多台)服务器,使用共享的存储设备(磁盘阵列柜或存储区域网SAN)。两台服务器可以采用热备(主从)、互备、双工(并行)等不同的方式。在工作过程中,两台服务器将以一个虚拟的IP地址对外提供服务,依工作方式的不同,将服务请求发送给其中一台服务器承担。同时,服务器通过心跳线(目前往往采用建立私有网络的方式)侦测另一台服务器的工作状况。当一台服务器出现故障时,另一台服务器根据心跳侦测的情况做出判断,并进行切换,接管服务。对于用户而言,这一过程是全自动的,在很短时间内完成,从而对业务不会造成影响。由于使用共享的存储设备,因此两台服务器使用的实际上是一样的数据,由双机或集群软件对其进行管理。 系统设计特点 ★高性能:由于服务器作为核心设备,要对系统内的所有用户服务,所以在选型时首先需要考虑的是服务器性能是否能够满足用户的应用。 ★可用性:在双机方案中服务器涉及关键数据资料,因此必须要考虑到服务器的可用性。一般来讲,单台服务器的可用性通常需要考虑到关键部件的冗余。还有双机方案是否合理,服务响应是否及时。 ★可管理性:可管理性直接影响到企业用户使用工业标准服务器的方便程度。良好的可管理性主要包括人性化的管理界面;硬盘、内存、电源、处理器等主要部件便于拆装、维护和升级;具有方便的远程管理和监控功能;具有较强的安全保护措施等。在正常的情况下,系统必须支持这几类部件有可能出现故障时的隐患提示信号,

(完整word)如何构建高可用性高扩展性的系统

如何构建高可用性高扩展性的系统

1高可用性 1.1避免故障 1.1.1明确使用场景 保持系统简单 1.1.2设计可容错系统 Fail Fast原则 主流程任何一步出现问题,就应该快速结束接口和对象设计要严谨 能否被重复调用 多线程并发环境下是否有异常 对象类型是否需要检查 1.1.3设计具备自我保护能力的系统 对第三方资源持怀疑态度,提供降级措施1.1.4限制使用资源 内存

防止集合容量过大造成OOM 及时释放不再使用的对象 文件 网络 连接资源 线程池 1.1.5其他角度 分析可能的风险 1.2及时发现故障 1.2.1监控报警系统 1.2.2日志系统和分析系统1.3及时故障处理 1.3.1降级 1.3.2限流 1.4访问量上涨的应对策略

1.4.1垂直伸缩 增加配置 1.4.2水平伸缩 增加机器 1.4.3拆分 按业务拆库 按规则拆表 1.4.4读写分离 实时性要求不高、读多写少的系统如何快速地从写库复制到读库1.4.5其他 容量规划 2高可扩展性 2.1垂直伸缩 2.1.1高访问量

增加CPU 锁 线程数 单线程程序 增加内存 cache JVM堆 2.1.2大数据量 分表 单表数据量减少 跨表查询、分页查询复杂度提升2.1.3计算能力 线程数提升 2.2水平伸缩 2.2.1高访问量

SNA(Shared Nothing Architecture)有状态的部分,放入缓存或数据库中有状态的情况 存在内存的状态 广播同步 例如session同步 单台机器容量有限 分布式缓存 一致性hash 文件 直连存储DAS((Direct-Attached Storage) 网络存储 NAS(Network Attached Storage) SAN(Storage Area Network) 分布式文件系统 GFS HDFS 数据库问题 cache

VMware vSphere 5.1 高可用性 ---- 群集、HA、DRS、FT

VMware vSphere 5.1 高可用性 在本节中主要讲的是集群的一些功能和配置,相比5.0的设置,没有太大的变化。VMware vSphere为虚拟机提供虚拟化的基础架构,将现有的物理资源转化成虚拟资源,将物理资源分成若干资源,为每个虚拟机提供包括CPU、内存等虚拟资源。要想很好地分配这些资源,就必须要使用资源池。资源池是灵活管理资源的逻辑抽象。资源池可以分组为层次结构,用于对可用的CPU 和内存资源按层次结构进行分区。群集中的资源池比单个ESXi主机上的还要重要,因为在群集中创建资源之后,整个资源池管理的就是所有的ESXi主机资源了。所管理的资源是所有ESXi主机上的CPU和内存的资源总和。 高可用性和双机热备是VMware vSphere 5.1最重要的一部分,高可用并不是vSphere独有的,企业使用高可用就是为了服务的连续性和数据的安全性,HA是以一群ESXi服务器为主的群集功能,主要是目的是当虚拟机运行的主机发生故障时能及时转移主机,避免长时间的停机。而FT双机热备则是保证虚拟机最长时间不停机,将虚拟机以双机热备的方式同时在两台主机运行,大大增强了业务的可连续性。 本节中主要讲的是讲的一下内容: 一、建立群集 二、设置HA高可用性 三、测试HA高可用性 四、设置DRS 五、建立FT双机热备 无论是计划停机时间还是非计划停机时间,都会带来相当大的成本。但是,用于确保更高级别可用性的传统解决方案都需要较大开销,并且难以实施和管理。VMware 软件可为重要应用程序提供更高级别的可用性,并且操作更简单,成本更低。使用vSphere,组织可以轻松提高为所有应用程序提供的基准级别,并且以更低成本和更简单的操作来实现更高级别的可用性。使用vSphere,可以独立于硬件、操作系统和应用程序提供更高可用性,减少常见维护操作的计划停机时间,在出现故障时提供自动恢复。vSphere 可以减少计划的停机时间,防止出现非计划停机,并迅速从断电中恢复。 一、建立群集 多台电脑组成的集合就称为集群,集群的目的就是将计算机的负担分配到多台主机上,或是当运行某一个服务的物理服务器弹出问题时,让另一台服务器接手这些服务。在VMware vSphere中,将多台ESX物理服务器组成一个集群,在这个集群中某台服务器出现故障时,这台服务器上运行的虚拟机可用自动迁移到其他可用的ESX服务器上,从而保障业务的不间断运行。 集群就是把所有的ESX/ESXi组织起来,形成一个大的资源池,所有的虚拟机可在池中的任意主机上自由移动,并且Cluster可做到快速扩容和HA故障冗余;所以Cluster是服务

相关主题
文本预览
相关文档 最新文档