当前位置:文档之家› 服务器内存介绍

服务器内存介绍

服务器内存介绍
服务器内存介绍

服务器内存

简要概述

服务器内存也是内存(RAM),它与普通PC机内存在外观和结构上没有明显区别,主要是在内存引入ECC,Chipkill,热插拔等特有技术,具有极高的稳定性和纠错性能。

备注:

内存:计算机中重要的部件之一,它是与CPU进行沟通的桥梁,计算机所有程序的运行都是在内存中进行的。内存(Memory)也称为内存存储,其作用是用于暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。

相关组件

内存控制器

内存控制器是计算机系统内部控制内存,并且通过内存与CPU之间交换数据的重要组成部分。内存控制器决定了计算机系统所能使用的最大内存容量,内存BANK数,内存类型和速度,内存颗粒数据深度和数据宽度等

备注:

内存BANK分为逻辑BANK和物理BANk。

逻辑BANK:芯片的内部,内存的数量是以位(bit)为单位写入一张大的矩阵中,每个单元格称为Cell,只要指定一个行(row),再指定一个列(Column),就可以准确地定位到某个Cell,这样一个阵列称为内存的逻辑BANK。

物理BANK:内存和主板上的北桥芯片之间用来交换数据的通道。

内存模组

内存模组可以简单理解为芯片组所能支持的标准内存插槽数量。由于每款芯片组对于内存芯片的数据深度和数据宽度支持程度不同,实际上就决定了每个内存BANK的最大容量,进而也就决定了芯片组所能支持的内存BANK数量。

相关参数

内存频率

内存频率可以用工作频率和等效频率两种方式表示,工作频率是内存颗粒自身的工作频率,频率越高,表示内存的自身存取速度越快。

DDR内存可以在脉冲的上升和下降沿都传输数据,因此传输数据的等效频率是工作频率的2倍;而DDR2内存每个时钟能够以4倍于工作频率的速度读/写数据,因此传输数据的等效频率是工作频率的4倍。

内存容量

计算机内存容量通常是指随机存储器的容量,一般都是2的倍数。系统中内存的数量等于插在主板内存插槽上所有内存条容量的总和,内存容量的上限一般有主板芯片组和内存插槽决定。

内存带宽

内存带宽指内存与北桥之间的数据传输速度,越大越好。从功能上理解,内存看作是内存控制器与CPU之间的桥梁或与仓库,内存的容量决定“仓库”的大小,内存的带宽决定“桥梁”的宽窄。计算公式:带宽=总线宽度*总线频率*一个时钟周期内交换的数据包个数。

相关技术

Parity

在普通的内存上,常常使用一种技术,同位检查码被广泛地使用在侦错码上,增加一个检查位给每个资料的字节,并且能够侦测到一个字节中所有奇(偶)同位的错误,但是当计算机查到某个字节有错误时,并不能确定错误在哪一位,也就无法修正错误。

ECC

ECC(Error correcting code)一种广泛应用于各种领域的指令纠错技术,不影响内存结构和存储速度,能够同时检测和纠正1比特错误。

Chipkill

随着基于Intel处理器架构的服务器的CPU性能以几何倍数提高,而硬盘驱动器的性能只提高少数倍数,导致单一内存芯片每次访问时需要提供4(32位)或8(64位)字节的数据,这样出现多位数据错误的可能性大大提高,而ECC 又不能纠正双比特以上的错误,可能造成全部比特数据的丢失,系统也可能崩溃。

Intel公司为了解决服务器内存中ECC技术的不足开发了一种新的ECC内存保护标准,利用内存的子系统来解决,设计原理是:单一芯片,无论数据宽度是多少,对于一个给定的ECC识别码,它的影响最多为1比特。

Register

Register即寄存器或目录寄存器,在内存上的作用可以理解为书的目录,当内存接到读写指令时,会先检索目录,然后再进行读写操作,若所需数据在目录中,则直接取用不再进行读写操作,可以提高服务器内存的工作效率。

DIMM

DIMM(Dual-Inline-Memory-Module)双列直插式存储模块,指一系列由动态随机存取内存(DRAM)组成的模组。通常是数颗至数十颗DRAM芯片焊接安装于一块已制作好电路的电路板的形式,用于个人电脑,工作站及服务器。它可以提供64位的数据通道,有168条引脚,故称为168线内存条。

DIMM采用的是一种“短线连接”的拓扑结构,这种结构中,每个芯片与内存控制器的数据总线都有一个短小的线路相连,这样会造成电阻抗的不继续性,从而影响信号的稳定与完整,频率越高或芯片数据越多,影响也越大。

备注:

DRAM:(Dynamic Radom Access Memory)动态随机存取存储器,最为常见的系统内存,DARM只能将数据保持很短的时间。为了保持数据,DRAM使用电容存储,所以必须隔一段时间刷新一次,如果存储单元没有被刷新,存储的信息就会丢失。(电容不可避免的存在漏电现象,如果电荷不足会导致数据出错,因此

电容必须被周期性的刷新预充电)。

FB-DIMM

FB-DIMM(Fully Buffered-DIMM)全缓冲内存模组,Intel在DDR2和DDR3的基础上发展出来的一种新型内存模组与互联架构,能够极大提升系统内存带宽及内存最大容量。

FB-DIMM架构新创立了一颗高级内存缓冲(Advanced Memory Buffer,AMB)芯片,安插在内存控制器与内存模组间,与“传统DRAM所用的并列总线架构”不同,FB-DIMM是以串行接口来连接AMB芯片与内存控制器,如此可以在不增加内存控制器的线路下提升内存的带宽,同时具有技术可行性。使用此架构后,内存控制器不需要再直接将资料写入内存模组,而是透过AMB芯片完成。

此外,因为读写都已经透过缓冲处理,所以内存控制器可同时执行读写,这样不仅接线更简化,内存带宽更大,且就理论而言,内存控制器可以不用在意所使用的何种内存芯片(DDR2/DDR3)都可直接替换。

不过,FB-DIMM也有不足之处,尤其是功耗(Power Consumption)和资料存取需求的延迟(Latency)。

备注:

SDRAM:(Synchronous Dynamic Radom Access Memory)同步动态随机存储器,同步是指工作需要同步时钟,内部命令的发送与数据的传输都以它为基准;动态是指存储阵列需要不断的刷新来保证不丢失;随机是指数据不是线性一次存储,而是自由指定地址进行数据读写。

DDR:严格来说,应该是DDR SDRAM(Double Date Rate Synchronous Dynamic Radom Access Memory)双倍速率同步动态随机存储器。其数据传输速度为系统时钟频率两倍,由于速度增加,其传输性能优于传统的SDRAM。DDR能在系统时钟脉冲的上升和下降沿都可以进行传输。

DDR2:DDR SDRAM第二代产品,虽然同样采用了在时钟的上升和下降沿同时进行数据传输方式,但是DDR2却拥有两倍上代DDR内存预读能力(即:4比特数据预读取),每个时钟能够以4倍外部总线的速度读写数据,并且能够以内部控制总线4倍的速度运行。

DDR3:采用核心整合终结器ODT技术以及用于优化性能的EMRS技术,同时允许时钟异步。在针脚方面,DDR3表现出很强的独立性,采用FBGA封装技术。与DDR2相比,功耗和发热量较小,工作频率更高,降低显卡整体成本,通用性好。

ODT:On-Die-Termination内建核心的终结电阻器。DDR SDRAM的主板为了防止数据终端反射信号需要大量的终结电阻。不同的内存模组对终结电路的要求不同,终结电阻的大小决定了数据线的信号和反射率,终结电阻小则数据线信号反射低但是信噪比也比较低;终结电阻高则数据的信噪比高,但是信号反射也会增加。

AMB:这款芯片是集成数据传输控制,并-串数据转换功能,一般用于FB-DIMM 内存上。在FB-DIMM系统中,有两种类型的串行线路:一条是负责数据写入的串行线路(Southbound),一条是负责数据读取的串行线路(Northbound),这两条串行线路由AMB芯片的“pass-through”和“pass-through&merging”控制逻辑负责。

热插拔

热插拔即带电插拔,热插拔功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘,电源或板卡等部件,从而提高了系统对灾难的及时恢复能力,扩展性和灵活性等。

相关类型

FPM内存

FPM是Fast Page Mode(铁页模式)的简称,是较早的PC机类型,它每隔3个时钟脉冲周期传送一次数据。已经淘汰

EDO内存

EDO是Extended Data Out(扩展数据输出)的简称,它取消了主板与内存两个存储之间的时间间隔,每隔2个时钟脉冲周期传输一个数据,大大地缩短了存取时间,使存取速度提高30%,达到60ns。EDO内存主要用于72线的SIMM内存条,以及采用EDO内存芯片的PCI的显示卡。已经淘汰

SDRAM

SDRAM即Synchronous DRAM(同步动态随机存储器),它的工作速度和系统总线速度是同步的,SRDAM内存又分为PC66,PC100,PC133等不同规格,而规格后面数字就代表该内存所能正常工作系统总线速度。

DDR SDRAM

双倍率同步动态随机存储器,人们习惯称之为DDR。DDR内存是在SDRAM 内存基础上发展而来的,仍然沿用SDRAM生产体系。SDRAM在一个时钟周期内只传输一次数据,它是在时钟的上升沿进行数据传输,而DDR内存则是一个时钟周期内传输两次数据,它能够在时钟的上升沿和下降沿各传输一次数据,因此称之为双倍率同步动态随机存储器。

DDR内存可以在与SDRAM相同的总线频率下达到更高的数据传输率。与SDRAM相比,DDR运用了更先进的同步电路,使指定地址,数据的输送和输出主要步骤既独立执行,又保持与CPU完全同步。

DDR使用了DLL(Delay Locked Loop,延时锁定回路提供一个数据滤波信号)技术,当数据有效时,存储控制器可就,使用这个数据滤波信号来精确定位数据,每16次输出一次,并重新同步来自不同存储器模块的数据。DLL本质上不需要提高时钟频率就能加倍提高SDRAM的速度,它允许在时钟脉冲的上升沿和下降沿读出数据,因而其速度是标准SDRAM的两倍。

从外形体积上DDR和SDRAM相比差别并不大,他们具有同样尺寸和同样的体积,但DDR为184针脚,比SDRAM多出了16个针脚,主要包含了新的控制,时钟,电源和接地等信号。DDR内存采用的是支持2.5V电压的SSTL2标准,而SDRAM采用的是3.3V电压的LVTTL标准。

RDRAM

RDRAM(Rambus DRAM)是美国的RAMBUS公司开发的一种内存,与DDR

和SDRAM不同,它采用了串行的数据传输模式,其数据存储位宽是16位,远低于DDR和SDRAM的64位,但在频率方面则远远高于二者,可以达到400MHz 乃至更高,同样也是在一个时钟内传输两次,能够在时钟的上升沿和下降沿各传输一次数据,内存带宽能达到1.6Gbyte/s。

普通的DRAM行缓冲器的信息在写回存储器后便不再保留,而RDRAM则具有继续保持这一信息的特性,于是在进行存储器访问时,如行缓冲器中已经有目标数据,则可直接利用,因而实现了高速访问。另外其可把数据集中起来以分组的形式传送,所以只要最初用24个时钟,以后便可每1时钟读出1个字节。一次访问所能读出的数据长度可以达到256字节。

服务器集群实验

2003服务器集群实验 一、服务器集群简介 什么是服务器群集?有何作用? 服务器群集是一组协同工作并运行Microsoft群集服务(Microsoft Cl uster Service,MSCS)的独立服务器。它为资源和应用程序提供高可用性、故障恢复、可伸缩性和可管理性。它允许客户端在出现故障和计划中的暂停时,依然能够访问应用程序和资源。如果群集中的某一台服务器由于故障或维护需要而无法使用,资源和应用程序将转移到可用的群集节点上。 服务器群集不同于NLB群集,服务器群集是有独立计算机系统(节点)构成的组,不同节点协同工作,就像单个系统一样,从而确保关键的应用程序和资源始终可由客户端使用。用于访问量较少的企业内网的服务器的冗余和可靠性。 哪些版本的操作系统支持服务器群集? 只有两个版本的windows server 2003系统支持该技术:企业版和数据中心版。 服务器群集的应用范围? 服务器群集最多可以支持8个节点,可实现DHCP、文件共享、后台打印、MS SQL server、exchange server等服务的可靠性。 二、群集专业术语 节点: 构建群集的物理计算机 群集服务: 运行群集管理器或运行群集必须启动的服务 资源: IP地址、磁盘、服务器应用程序等都可以叫做资源 共享磁盘: 群集节点之间通过光纤SCSI 电缆等共同连接的磁盘柜或存储 仲裁资源: 构建群集时,有一块磁盘会用来仲裁信息,其中包括当前的服务状态各个节点的状态以及群集转移时的一些日志 资源状态: 主要指资源目前是处于联机状态还是脱机状态 资源依赖: 资源之间的依存关系 组: 故障转移的最小单位 虚拟服务器: 提供一组服务--如数据库文件和打印共享等 故障转移: 应用从宕机的节点切换到正常联机的节点

存储服务器集群配置

系统结构: 两台服务器集群,通过网络同时与阵列相连。其中一台为当前活动服务器,另一台热备。 服务器间通过心跳线相连,确保集群讯息传递。 目的: 为防止单点故障,集群服务通过服务器即时切换,实现任意一台服务器故障后,用户依然能对阵列上所存储的资源进行操作而不受影响,为维修或更换设备赢得时间。 整体思路: 1.在阵列上创建仲裁分驱和共享分驱 2.启动集群服务器中的一台A,查看是否识别出阵列上划分的空间。是则格式化分驱, 并启动集群服务器B,检查其是否识别已分驱的磁盘。是则关闭服务器B,然后在 服务器A上创建集群 3.选择域,输入要创建的集群名称 4.输入节点A主机名,可点击BROWSE选择服务器名称 5.等待系统执行前至配置,如无异常执行下一步 6.输入集群ip地址,此地址为虚拟集群服务器地址,并无实际设备存在

7.在域服务器上创建一个集群用户,在集群向导中输入用户名密码 8.点击QUORUM选择在阵列上创建的仲裁磁盘,结束配置 9.启动集群服务器B,启动集群管理服务,选择加入集群。 10.选择要加入集群的节点服务器B 11.等待配置完成,若无异常进行下一步 12.输入集群服务器所在域的域用户密码 13.检察配置信息,无误则结束配置 14.右键单击RESOURCE新建资源 15.输入资源名称并选择资源类型及所在组 16.将与之关联的服务器加入相关组 17.设置共享名称及路径,单击完成结束配置 18.设置共享资源完全共享权限 19.在当前管理服务器上设置共享磁盘的权限 一.环境准备条件: 1.域服务器至少一台 2.在域中创建用户,为后边集群服务器登陆使用 3.两台准备做集群的节点服务器,需配置双网卡。 4.准备心跳线一根,将两台节点服务器相连。 二。配置集群 域用户:cluster 主机A信息: 主机A名称:NASA 域名:12.CALT.CASC 公网IP:10.21.0.171 心跳IP:192.168.0.1 主机B信息: 主机B名称:NASB 域名:12.CALT.CASC 公网IP:10.21.0.172 心跳IP:192.168.0.2

内存型号说明

Samsung 具体含义解释 主要含义: 第1位——芯片功能K,代表是内存芯片。 第2位——芯片类型4,代表DRAM。 第3位——芯片的更进一步的类型说明,S代表SDRAM、H代表DDR、G代表SGRAM 、T代表DDR2 DRAM、D表示GDDR1(显存颗粒)。 第4、5位——容量和刷新速率,容量相同的内存采用不同的刷新速率,也会使用不同的编号。64、62、63、65、66、67、6A代表64Mbit的容量;28、27、2A 代表128Mbit的容量;56、55、57、5A代表256Mbit的容量;51代表512Mbit 的容量。 第6、7位——数据线引脚个数,08代表8位数据;16代表16位数据;32代表32位数据;64代表64位数据。 第8位——为一个数字,表示内存的物理Bank,即颗粒的数据位宽,有3和4两个数字,分别表示4Banks和8Banks。对于内存而言,数据宽度×芯片数量=数据位宽。这个值可以是64或128,对应着这条内存就是1个或2个bank。例如256M内存32×4格式16颗芯片:4×16=64,双面内存单bank;256M内存 16M×16格式 8颗芯片:16×8=128,单面内存双bank。所以说单或双bank和内存条的单双面没有关系。另外,要强调的是主板所能支持的内存仅由主板芯片组决定。内存芯片常见的数据宽度有4、8、16这三种,芯片组对于不同的数据宽度支持的最大数据深度不同。所以当数据深度超过以上最大值时,多出的部分主板就会认不出了,比如把256M认成128M就是这个原因,但是一般还是可以正常使用。 第9位——由一个字符表示采用的电压标准,Q:SSTL-1.8V (1.8V,1.8V)。与DDR的2.5V电压相比,DDR2的1.8V是内存功耗更低,同时为超频留下更大的空间。 第10位——由一个字符代表校订版本,表示所采用的颗粒所属第几代产品,M 表示1st,A-F表示2nd-7th。目前,长方形的内存颗粒多为A、B、C三代颗粒,而现在主流的FBGA颗粒就采用E、F居多。靠前的编号并不完全代表采用的颗粒比较老,有些是由于容量、封装技术要求而不得不这样做的。 第11位——连线“-”。 第12位——由一个字符表示颗粒的封装类型,有G,S:FBGA(Leaded)、Z,Y:FBGA(Leaded-Free)。目前看到最多的是TSOP和FBGA两种封装,而FBGA是主流(之前称为mBGA)。其实进入DDR2时代,颗粒的封装基本采用FBGA了,因为TSOP封装的颗粒最高频率只支持到550MHz,DDR最高频率就只到400MHz,像DDR2 667、800根本就无法实现了。 第13位——由一个字符表示温控和电压标准,“C”表示Commercial Temp.( 0°C ~ 85°C) & Normal Power,就是常规的1.8V电压标准;“L”表示Commercial Temp.( 0°C ~ 85°C) & Low Power,是低电压版,适合超频,

服务器集群设计

服务器集群设计 服务器集群技术随着服务器硬件系统与网络操作系统的发展而产生的,在可用性、高可靠性、系统冗余等方面越来越发挥重要中用,是核心系统必不可少的。数据库保存者抄表系统的数据,是整个信息系统的关键所在。 解决系统可靠性的措施通常是备份和群集。备份不能快速恢复,主要用于安全保存,数据库和系统的快速故障恢复通常采用HA(高可用)群集模式, HA 能提供不间断的系统服务,在线系统发生故障时,离线系统能立即发现故障并立即进行接管,继续对外提供服务。HA技术可以有效防止关键业务主机宕机而造成的系统停止运行,被广泛采用。HA技术有两种模式: 具有公共存储系统的HA 数据存储在公共的存储系统上,服务器1为活动服务器,服务器2为待机服务器(备份服务器),当服务器1发生故障时(软或硬件故障),服务器2通过私有网络(心跳路径)侦测到服务器1的故障并自动接管服务器1上所有的资源(如IP地址、存储系统、数据库服务、计算机名等),继续为客户机提供数据或其他应用服务。 独立存储系统的HA数据存储在各自服务器的独占存储设备上(内置磁盘或磁盘阵列) ,没有共享存储系统,数据保存在每个服务器独占的存储设备上。通过镜像技术使每台服务器的数据保持同步,切换时间更短,可靠性比共享存储系统的方案更高,并避免了单点崩溃的可能性,增加了数据的安全性及系统的可用性。两台服务器之间的距离不受外部存储设备连接线的限制,因而可以将两台服务器放置在不同位置。

根据上述分析、系统要求、应用软件采用三层结构的优势以及艾因泰克在发电企业几十家的建设经验,方案采用独立存储系统的HA模式。 由于两套数据库服务器只有一台在线工作,方案本着最大限度节约资源的原则,充分高性能服务器的性能,在备用服务器上运行系统的WEB应用。采用双机双应用,互为备用结构。即在线数据库服务器是 WEB应用服务器的备用服务器,在线WEB应用服务器是数据库服务器的备用服务器。这种结构不但充分发挥性能服务器的优势,又保证关键服务器具有自动备用服务器。不但节约了成本,而且避免了采用共用存储设备单点故障带来的数据丢失的灾难,是最佳的选择。 数据库和应用服务器集群结构如下图: 服务器采用2台PowerEdge R900,配置7块146G磁盘,2块磁盘组成RAID 1镜像,作为操作系统盘。5块组成磁盘组成RAID 5,作为数据盘。 集群镜像软件选用RoseMirrorHA。RoseMirrorHA是一个可靠的、稳定的、高性能的应用高可用保护解决方案,实现应用程序的保护,保证了业务的持续运

两台服务器集群巧搭建

服务器集群系统中,服务器不再分布在各处,而是集中在一起统一进行管理和维护。它保持了分布式客户机/服务器模式的开发性、可扩展性的优点,同时又具备了终端/主机模式的资源共享和集中易于管理的优点。 服务器集群系统中,服务器不再分布在各处,而是集中在一起统一进行管理和维护。它保持了分布式客户机/服务器模式的开发性、可扩展性的优点,同时又具备了终端/主机模式的资源共享和集中易于管理的优点。相对集中的集群系统,降低了系统管理的成本,而且还提供了和大型服务器系统相媲美的处理能力。 在传统的终端/主机的网络模式时代,终端功能简单,无需维护工作,在主机一端进行专门的管理与维护,具有资源共享、便于管理的特点。但是,主机造价昂贵,终端没有处理能力,限制了网络的规模化发展。之后的客户机/服务器模式推进了计算产业的标准化和开发化的发展,为系统提供了相当大的灵活性,但是随着分布系统规模的规模扩大,系统的维护和管理带来了巨大的开销。 面向Internet的服务型应用,需要高性能的硬件平台作为支持,将并行技术应用在服务器领域中,是计算机发展的必然趋势。并行处理技术在高性能计算领域中,高可用和高性能是集群服务器系统发展的两个重要方向。 集群的概念 集群英文名称是CLUSTER,是一组相互独立的、通过高速网络互联的计算机,它们构 成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。集群配置是用于提高可用性和可缩放性。 和传统的高性能计算机技术相比,集群技术可以利用各档次的服务器作为节点,系统造价低,可以实现很高的运算速度,完成大运算量的计算,具有较高的响应能力,能够满足当今日益增长的信息服务的需求。 #P# 集群技术应用的需求 Internet用户数量呈几何级数增长和科学计算的复杂性要求计算机有更高的处理能力,而CPU的发展无法跟上不断增长的需求,于是我们面临以下问题: ●大规模计算如基因数据的分析、气象预报、石油勘探需要极高的计算性能。

内存数据库介绍

常用内存数据库介绍(一) 博客分类: 内存数据库 数据结构Oracle企业应用网络应用设计模式 (注:部分资料直接来源于Internet) 1. 内存数据库简介 1.1 概念 一、什么是内存数据库 传统的数据库管理系统把所有数据都放在磁盘上进行管理,所以称做磁盘数据库(DRDB:Disk-Resident Database)。磁盘数据库需要频繁地访问磁盘来进行数据的操作,由于对磁盘读写数据的操作一方面要进行磁头的机械移动,另一方面受到系统调用(通常通过CPU中断完成,受到CPU时钟周期的制约)时间的影响,当数据量很大,操作频繁且复杂时,就会暴露出很多问题。 近年来,内存容量不断提高,价格不断下跌,操作系统已经可以支持更大的地址空间(计算机进入了64位时代),同时对数据库系统实时响应能力要求日益提高,充分利用内存技术提升数据库性能成为一个热点。 在数据库技术中,目前主要有两种方法来使用大量的内存。一种是在传统的数据库中,增大缓冲池,将一个事务所涉及的数据都放在缓冲池中,组织成相应的数据结构来进行查询和更新处理,也就是常说的共享内存技术,这种方法优化的主要目标是最小化磁盘访问。另一种就是内存数据库 (MMDB:Main Memory Database,也叫主存数据库)技术,就是干脆重新设计一种数据库管理系统,对查询处理、并发控制与恢复的算法和数据结构进行重新设计,以更有效地使用CPU周期和内存,这种技术近乎把整个数据库放进内存中,因而会产生一些根本性的变化。两种技术的区别如下表:

内存数据库系统带来的优越性能不仅仅在于对内存读写比对磁盘读写快上,更重要的是,从根本上抛弃了磁盘数据管理的许多传统方式,基于全部数据都在内存中管理进行了新的体系结构的设计,并且在数据缓存、快速算法、并行操作方面也进行了相应的改进,从而使数据处理速度一般比传统数据库的数据处理速度快很多,一般都在10倍以上,理想情况甚至可以达到1000倍。 而使用共享内存技术的实时系统和使用内存数据库相比有很多不足,由于优化的目标仍然集中在最小化磁盘访问上,很难满足完整的数据库管理的要求,设计的非标准化和软件的专用性造成可伸缩性、可用性和系统的效率都非常低,对于快速部署和简化维护都是不利的。 2. 内存数据库历史和发展 一、雏形期 从上个世纪60年代末到80年代初。在这个时期中,出现了主存数据库的雏形。1969年IBM公司研制了世界上最早的数据库管理系统------基于层次模型的数据库管理系统IMS,并作为商品化软件投入市场。在设计IMS时,IBM考虑到基于内存的数据管理方法,相应推出了IMS/VS Fast Path。Fast Path是一个支持内存驻留

服务器内存冗余技术-内存热备和镜像

信息化的年代离不开网络,服务器是网络不可缺少的部件,所以造就了近代服务器业的迅速发展。而在服务器硬件故障中,内存故障列举首位。内存故障导致服务器数据永久丢失或系统宕机。这样会给企业或个人带来无法估计的灾难。所以近来服务器厂商在采用越来越多的技术来保障内存的稳定性。我们所知道的主要有奇偶校验技术、ECC技术和IBM的Chipkill-correct ECC技术。现在我 给大家简单介绍两种内存冗余技术:内存热备和内存镜像。 内存热备—Sparing 进行内存热备时,做热备份的内存在正常情况下是不使用的,也就是说系统是看不到这部分内存容量的。每个内存通道中有一个DIMM不被使用,预留为热备内存。芯片组中设置有内存校验错误次数的阈值, 即每单位时间发生错误的次数。当工作内存的故障次数达到这个“容错阈值”,系统开始进行双重写动作,一个写入主内存,一个写入热备内存,当系统检测到两个内存数据一致后,热备内存就代替主内存工作,故障内存被禁用,这样就完成了热备内存接替故障内存工作的任务,有效避免了系统由于内存故障而导致数据丢失或系统宕机。这个做热备的内存容量应大于等于所在通道的最大内存条的容量,以满足内存数据迁移的最大容量需求。 内存镜像—Mirroring 内存镜像是将内存数据做两个拷贝,分别放在主内存和镜像内存中。系统工作时会向两个内存中同时写入数据,因此使得内存数据有两套完整的备份。由于采用通道间交叉镜像的方式,所以每个通道都有一套完整的内存数据拷贝。 在系统芯片组中设置有“容错阈值”。如果任意内存达到了“容错阈值”,其所在通道就被标示出来,另一个通道单独工作。但仍然保持双通道的内存带宽。

两台服务器的集群方案

本文由szg81贡献 doc1。 七台服务器的集群方案 在传统的终端/主机的网络模式时代,终端功能简单,无需维护工作,在主机一端进行专门的管理与维护,具有资源共享、便于 管理的特点。但是,主机造价昂贵,终端没有处理能力,限制了网络的规模化发展。之后的客户机/服务器模式推进了计算产业 的标准化和开发化的发展,为系统提供了相当大的灵活性,但是随着分布系统规模的规模扩大,系统的维护和管理带来了巨大 的开销。面向 Internet 的服务型应用,需要高性能的硬件平台作为支持,将并行技术应用在服务器领域中,是计算机发展的必然 趋势。并行处理技术在高性能计算领域中,高可用和高性能是集群服务器系统发展的两个重要方向。 集群的概念 集群英文名称是 CLUSTER,是一组相互独立的、通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管 理。一个客户与集群相互作用时,集群像是一个独立的服务器。集群配置是用于提高可用性和可缩放性。和传统的高性能计算 机技术相比,集群技术可以利用各档次的服务器作为节点,系统造价低,可以实现很高的运算速度,完成大运算量的计算,具 有较高的响应能力,能够满足当今日益增长的信息服务的需求。 集群技术应用的需求 Internet 用户数量呈几何级数增长和科学计算的复杂性要求计算机有更高的处理能力,而 CPU 的发展无法跟上不断增长的需求, 于是我们面临以下问题: ●大规模计算如基因数据的分析、气象预报、石油勘探需要极高的计算性能。 ●应用规模的发展使单个服务器难以承担负载。 ●不断增长的需求需要硬件有灵活的可扩展性。 ●关键性的业务需要可靠的容错机制。 IA 集群系统(CLUSTER)的特点 ●由若干完整的计算机互联组成一个统一的计算机系统; ●可以采用现成的通用硬件设备或特殊应用的硬件设备,例如专用的通讯设备; ●需要特殊软件支持,例如支持集群技术的操作系统或数据库等等; ●可实现单一系统映像,即操作控制、IP 登录点、文件结构、存储空间、I/O 空间、作业管理系统等等的单一化; ●在集群系统中可以动态地加入新的服务器和删除需要淘汰的服务器, 从而能够最大限度地扩展系统以满足不断增长的应用的需 要; ●可用性是集群系统应用中最重要的因素,是评价和衡量系统的一个重要指标; ●能够为用户提供不间断的服务,由于系统中包括了多个结点,当一个结点出现故障的时候,整个系统仍然能够继续为用户提供 服务; ●具有极高的性能价格比,和传统的大型主机相比,具有很大的价格优势; ●资源可充分利用,集群系统的每个结点都是相对独立的机器,当这些机器不提供服务或者不需要使用的时候,仍然能够被充分 利用。而大型主机上更新下来的配件就难以被重新利用了。 实现服务器集群的硬件配置 ●网络服务器 七台 ●服务器操作系统硬盘 七块 ●ULTRA 160 LVD SCSI 磁盘阵列 一个 ●18G SCSI 硬盘 十块 ●网络服务网卡 十四块 服务器集群的实践步骤 ●在安装机群服务之前的准备: 1、 十四块 18G SCSI 硬盘组成磁盘阵列,做 RAID5。 2、 两台服务器要求都配置双网卡,分别安装 Microsoft Windows Server2008 操作系统,并配置网络。 3、 所有磁盘必须设置成基本盘,阵列磁盘分区必须大于 7 个。 4、 每台服务器都要加入域当中,成为域成员,并且在每台服务器上都要有管理员权限。 ●安装配置服务器网络要点 1、在这一部分,每个服务器需要两个网络适配器,一个连接公众网,一个连接内部网(它只包含了群集节点) 内部网适配器 。 建立点对点的通信、群集状态信号和群集管理。每个节点的公众网适配器连接该群集到公众网上,并在此驻留客户。 2、安装 Microsoft Windows 2000 Adwance Server 操作系统后,开始配置每台服务器的网络。在网络连接中我们给连接公众网的 命名为"外网",连接内部网的命名为"内网"并分别指定 IP 地址为:节点 1:内网:ip:10.10.10.11 外网 ip:192.168.0.192 子网 掩码:255.255.255.0 网关:192.168.0.191(主域控制器 ip) ;节点 2:内网:ip:10.10.10.12 外网 ip:192.168.0.193 子网掩码: 255.255.255.0 网关:192.168.0.191;节点 3:内网:ip:10.10.10.13 外网 ip:192.168.0.194 子网掩码:255.255.255.0 网关: 192.168.0.191;节点 4:内网:ip:10.10.10.14 外网 ip:192.168.0.195 子网掩码:255.255.255.0 网关:192.168.0.191;节点 5: 内

数据库系统综合概论

第一章数据库系统概论 本章目的在于使读者对数据库系统的基本知识能有一个较为全面的了解,为今后的学习和工作打下基础。本章重点介绍了有关数据库结构和数据库系统组织的基本知识和基本概念,以及常见的三种类型的数据库系统的特点。重点介绍关系数据库的有关知识。 1.1 数据管理技术发展史 随着生产力的不断发展,社会的不断进步,人类对信息的依赖程度也在不断地增加。数据作为表达信息的一种量化符号,正在成为人们处理信息时重要的操作对象。所谓数据处理就是对数据的收集、整理、存储、分类、排序、检索、维护、加工、统计和传输等一系列工作全部过程的概述。数据处理的目的就是使我们能够从浩瀚的信息数据海洋中,提取出有用的数据信息,作为我们工作、生活等各方面的决策依据。数据管理则是指对数据的组织、编码、分类、存储、检索和维护,它是数据处理的一个重要内容中心。数据处理工作由来以久,早在1880 年美国进行人口普查统计时,就已采用穿孔卡片来存储人口普查数据,并采用机械设备来完成对这些普查数据所进行的处理工作。电子计算机的出现以及其后其硬件、软件的迅速发展,加之数据库理论和技术的发展,为数据管理进入一个革命性阶段提供有力的支持。根据数据和应用程序相互依赖关系、数据共享以及数据的操作方式,数据管理的发展可以分为三个具有代表性的阶段,即人工管理阶段、文件管理阶段和数据库管理阶段。 【1 】人工管理阶段 这一阶段发生于六十年代以前,由于当时计算机硬件和软件发展才刚刚起步,数据管理中全部工作,都必须要由应用程序员自己设计程序完成去完成。由于需要与计算机硬件以及

各外部存储设备和输入输出设备直接打交道,程序员们常常需要编制大量重复的数据管理基 本程序。数据的逻辑组织与它的物理组织基本上是相同的,因此当数据的逻辑组织、物理组织或存储设备发生变化时,进行数据管理工作的许多应用程序就必须要进行重新编制。这样就给数据管理的维护工作带来许多困难。并且由于一组数据常常只对应于一种应用程序,因此很难实现多个不同应用程序间的数据资源共享。存在着大量重复数据,信息资源浪费严重。【2 】文件管理阶段 这一阶段发生于六十年代,由于当时计算机硬件的发展,以及系统软件尤其是文件系统的出现和发展,人们开始利用文件系统来帮助完成数据管理工作,具体讲就是:数据以多种组织结构(如顺序文件组织、索引文件文件组织和直接存取文件组织等)的文件形式保存在外部存储设备上,用户通过文件系统而无需直接与外部设备打交道,以此来完成数据的修改、插入、删除、检索等管理操作;使用这种管理方式,不仅减轻进行数据管理的应用程序工作量,更重要地是,当数据的物理组织或存储设备发生变化时,数据的逻辑组织可以不受任何影响,从而保证了基于数据逻辑组织所编制的应用程序也可以不受硬件设备变化的影响。这样就使得程序和数据之间具有了一定的相互独立性。 但由于数据文件的逻辑结构完全是根据应用程序的具体要求而设计,它的管理与维护完全是由应用程序本身来完成,因此数据文件的逻辑结构与应用程序密切相关,当数据的逻辑结构需要修改时,应用程序也就不可避免地需要进行修改;同样当应用程序需要进行变动时,常常又会要求数据的逻辑结构进行相应的变动。在这种情况下,数据管理中的维护工作量也是较大的。更主要的是由于采用文件的形式来进行数据管理工作,常常需要将一个完整的、相互关联的数据集合,人为地分割成若干相互独立的文件,以便通过基于文件系统的编程来实现来对它们的管理操作。这样做同样会导致数据的过多冗余和增加数据维护工作的复杂性。例如人事部门、教务部门和医务部门对学生数据信息的管理,这三个部门中有许多数据是相同的,如姓名、年龄、性别等,由于是各部门均是根据自己的要求,建立各自的数据文件和应用程序,这样不仅造成了大量的相同数据重复存储,而且在修改时,常常需要同时修改三个文件中的数据项,如修改学生年龄,此外若需要增加一个描述学生的数据项,如通讯地址,那么所有的应用程序就必须都要进行相应的修改。除此之外,采用文件系统来帮助进行数据管理工作,在数据的安全和保密等方面,也难以采取有效的措施加以控制。 3 】数据库管理阶段 1在不断改进和完善文件系统的过程中,从六十年代后期开始,人们逐步研究和发展了以数据的统一管理和数据共享为主要特征的数据库系统。即在数据在统一控制之下,为尽可能多的应用和用户服务,数据库中的数据组织结构与数据库的应用程序相互间有较大的相对独立性等。与以往前数据管理方法和技术相比,利用数

搭建一个服务器集群

搭建一个服务器集群 包含负载均衡,HA高可用,MySQL主从复制,备份服务器,和监控服务器,服务用discuz 论坛演示 服务器配置如下 服务器名服务器ip服务器作用 backup192.168.199.180备份+zabbix监控+NFS Nginx1192.168.199.142主Director Nginx2192.168.199.145从Director Apache1192.168.199.200Apache1 Apache2192.168.199.210Apache2 Apache3192.168.199.233Apache3 Mysql1192.168.199.126主mysql Mysql2192.168.199.131从mysql Mysql3192.168.199.197从mysql VIP192.168.199.3Apache负载均衡VIP 在所有服务器上操作 #关闭selinux sed-i's/SELINUX=enforcing/SELINUX=disabled/'/etc/selinux/config&&setenforce0; #清空iptables iptables-F&&service iptables save; #安装nfs服务 yum install-y nfs-utils epel-release 配置backup服务器 mkdir-p/data/discuz#建立discuz应用目录 mkdir/opt/backup#建立backup目录 #设置目录的属主和属组 chown-R shared:shared/data/discuz chown-R shared:shared/opt/backup vi/etc/exports#设置共享目录 /data/discuz/192.168.199.0/24(rw,sync,all_squash,anonuid=500,anongid=500) /opt/backup/192.168.199.0/24(rw,sync,all_squash,anonuid=500,anongid=500) /etc/init.d/rpcbind start;/etc/init.d/nfs start#启动NFS服务 配置mysql服务器 #挂载NFS服务器backup目录 mount-t nfs-onolock192.168.199.180:/opt/backup/opt vi/etc/fstab 192.168.199.180:/opt/backup/opt nfs nolock00 安装MySQL #在3台mysql服务器上下载mysql5.7的二进制安装文件

反射内存简介

反射内存网络(RFM网络)是基于环状/星状、高速复制的共享内存网络。它支持不同总线结构的多计算机系统,并且可以使用不同的操作系统来共享高速的,稳定速率的实时数据。 反射内存可广泛用于各种领域,例如实时的飞行仿真器、核电站仿真器、电讯、高速过程控制(轧钢厂和制铝厂)、高速测试和测量以及军事系统。 与那些需要为附加的软件开发时间,测试,维护,文档,以及额外的CPU要求提供开销的传统的连接方法相比,RFM产品的网络提供了性价比极为优越的高性能的选择。 反射内存的优点: ■ 高速的、基于2.12G波特率的网络,最大传输速率可达174Mbyte/s; ■ 简单易用; ■ 与操作系统和处理器无关; ■ 彻底省去软件开发开销和周期; ■ 可以实现实时连接的稳定的数据传输; ■ 可以与通用的计算机和总线连接; ■ 比标准通信和技术更为优越; ■ 极短的数据传输延迟; ■ 简单的软件,较低的管理费用和较高的抗干扰能力; ■ 节点间距离可达10公里(单模)/300米(多模)。 反射内存实时网的特点 VMIC反射内存是一种通过局域网在互连的计算机间提供高效的数据传输的技术,强实时网络设计人员已经越来越多地采用这种技术。VMIC反射内存实时局域网的概念十分简单,就是设计一种网络内存板,在分布系统中实现内存至内存的通信,并且没有软件开销。每台结点机上插一块反射内存卡,卡上带有双口内存,各层软件既可以读也可以写这些内存,当数据被写入一台机器的反射内存卡的内存中后,反射内存卡自动地通过光纤传输到其他连在网络上的反射内存卡的内存里,通常,只需几百纳秒的时间延迟,所有的反射内存卡上的内存将写入同样的内容。而各成员在访问数据时,只要访问本地的反射内存卡中的内存即可。VMIC反射内存具有以下主要特点:(1)高速度和高性能 VMIC5565系列,传输速度达到174M字节/秒。使用光纤,可以连接更多节点(最大到256个节点),具有很高的抗干扰能力。测试结果表明,从数据写入RAM到传到另一个结点的反射内存卡上,只有不到400纳秒的时延。 (2)使用方便 反射内存卡通过向每个节点机提供一套相同的数据备份使得各节点可以并发的访问相同的内

计算机集群技术的解释

【赛迪网独家特稿】集群技术是使用特定的连接方式,将相对于超级计算机便宜许多的计算机设备结合起来,提供与超级计算机性能相当的并行处理技术。早在七十年代就有人提出可以使用这种集群技术完成并行处理,但是由于受到当时网络交换技术的限制,集群系统在性能上与其他并行处理系统相距甚远,直到网络技术逐渐成熟的今天,它才具备了与超级计算机相匹敌的能力。 什么是集群 集群(Cluster)技术是指一组相互独立的计算机,利用高速通信网络组成一个计算机系统,每个群集节点(即集群中的每台计算机)都是运行其自己进程的一个独立服务器。这些进程可以彼此通信,对网络客户机来说就像是形成了一个单一系统,协同起来向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。一个客户端(Client)与集群相互作用时,集群像是一个独立的服务器。 计算机集群技术的出发点是为了提供更高的可用性、可管理性、可伸缩性的计算机系统。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一个节点发生故障时,它所运行的应用程序将由其他节点自动接管。在大多数模式下,集群中所有的节点拥有一个共同的名称,集群内的任一节点上运行的服务都可被所有的网络客户所使用。 集群的特点 1.提供强大处理能力的高性能计算机系统:计算机集群可以通过负载均衡、并行处理、时间片处理等多种形式,将多台计算机形成高性能计算机集群。对用户端(Client)而言,计算机集群则是一个单一的系统,可以为用户提供高性能的计算机系统,而用户不用关心有多少计算机承担了系统实现的任务,而只需要关注系统的整体处理能力。因此,计算机集群可以用多台普通性能的计算机组成具有高性能的计算机系统,承担只有超级计算机才能胜任的工作。 2.提供高可用性的计算机系统:通过计算机集群技术组成的系统,可以确保数据和应用程序对最终用户的高可用性,而不管故障属于什么类型。即当计算机集群中的节点计算机出现软硬件故障的时候,高可用性集群提供了对软件和硬件失败后的接替。它将服务器镜像到备用系统或节点中,当主节点上的系统崩溃时,冗余节点就从替补角色转换到正式角色,并自动投入应用,从而保证了系统运行的不间断。

内存芯片参数介绍

内存芯片参数介绍 具体含义解释: 例:SAMSUNG K4H280838B-TCB0 主要含义: 第1位——芯片功能K,代表是内存芯片。 第2位——芯片类型4,代表DRAM。 第3位——芯片的更进一步的类型说明,S代表SDRAM、H代表DDR、G代表SGRAM。 第4、5位——容量和刷新速率,容量相同的内存采用不同的刷新速率,也会使用不同的编号。64、62、63、65、66、67、6A代表64Mbit的容量;28、27、2A代表128Mbit 的容量;56、55、57、5A代表256MBit的容量;51代表512Mbit的容量。 第6、7位——数据线引脚个数,08代表8位数据;16代表16位数据;32代表32位数据;64代表64位数据。 第11位——连线“-”。 第14、15位——芯片的速率,如60为6ns;70为7ns;7B为7.5ns (CL=3);7C 为7.5ns (CL=2) ;80为8ns;10 为10ns (66MHz)。 知道了内存颗粒编码主要数位的含义,拿到一个内存条后就非常容易计算出它的容量。例如一条三星DDR内存,使用18片SAMSUNG K4H280838B-TCB0颗粒封装。颗粒编号第4、5位“28”代表该颗粒是128Mbits,第6、7位“08”代表该颗粒是8位数据带宽,这样我们可以计算出该内存条的容量是128Mbits(兆数位)× 16片/8bits=256MB(兆字节)。 注:“bit”为“数位”,“B”即字节“byte”,一个字节为8位则计算时除以8。关于内存容量的计算,文中所举的例子中有两种情况:一种是非ECC内存,每8片8位数据宽度的颗粒就可以组成一条内存;另一种ECC内存,在每64位数据之后,还增加了8位的ECC 校验码。通过校验码,可以检测出内存数据中的两位错误,纠正一位错误。所以在实际计算容量的过程中,不计算校验位,具有ECC功能的18片颗粒的内存条实际容量按16乘。在购买时也可以据此判定18片或者9片内存颗粒贴片的内存条是ECC内存。 Hynix(Hyundai)现代 现代内存的含义: HY5DV641622AT-36 HY XX X XX XX XX X X X X X XX 1 2 3 4 5 6 7 8 9 10 11 12 1、HY代表是现代的产品 2、内存芯片类型:(57=SDRAM,5D=DDR SDRAM); 3、工作电压:空白=5V,V=3.3V,U=2.5V 4、芯片容量和刷新速率:16=16Mbits、4K Ref;64=64Mbits、8K Ref;65=64Mbits、4K Ref;128=128Mbits、8K Ref;129=128Mbits、4K Ref;256=256Mbits、16K Ref; 257=256Mbits、8K Ref 5、代表芯片输出的数据位宽:40、80、16、32分别代表4位、

服务器内存安装方法

内存安装方法 本文主要简要介绍FlexServer服务器内存安装的方法,分为R390机架式服务器与B390刀片式服务器两部分。 总体上说,服务器内存安装依照编号顺序进行即可。服务器的所有内存插槽编号均由“数字+字母”的形式组成,实际安装时需要关注的仅仅是编号中的字母部分。扩容时按照A,B,C,D,……的顺序进行,同时兼顾多个CPU对应内存尽量均衡。 首先说机架式服务器,机架式服务器中R390为两路CPU,其每个CPU有4个通道12个内存。插槽机架式服务器的内存插槽上会盖有一个导风盖,盖子上会具体记录内存插槽编号: 简单说机架式服务器的主要扩容顺序如下: 12A-9B-1C-4D-11E-8F-2G-5H-10I-7J-3K-6L 只要看好对应的插槽进行安装即可。特别提醒的是在服务器中每个CPU两侧各有6个插槽,图中红线两侧的插槽分属两个不同CPU,扩容时请兼顾两个CPU的内存数量均衡。如果遇到奇数个数的内存,建议插在CPU1(主CPU)上。

内存条具体的形态如上图所示,进行安装前请先确保内存条本身完好,不应有任何的弯曲损坏。 安装时,先将插槽两侧的小卡扣向下按下,再将内存插入插槽中即可,插好后内存条应该无松动。由于内存下方一边较长一边较短,需要按照正确的方向进行放置。 小卡扣 较短一侧 对于刀片式服务器,扩容方法类似,只是刀片服务器中内存插槽数有所缩减。每个CPU只有4通道8个插槽,每个通道减为两个插槽。需要注意的是CPU与内存插槽的对应关系仍然没有改变,内存插槽分布在CPU两侧。 在扩容时,现将刀片从刀框上取下:

如上图所示,拔出刀片时请先开启卡扣。

服务器虚拟化集群技术方案

XX科研院所 服务器虚拟集群系统 技术方案

目录 1前言 (1) 2项目建设必要性分析 (1) 3方案设计 (3) 3.1总体拓扑 (3) 3.2方案概述 (3) 3.3VM WARE 服务器虚拟化方案 (5) 3.3.1服务器虚拟化方案概述 (5) 3.3.2方案架构及描述 (7) 3.3.3方案优势 (15) 3.4C ITRIX X EN DE SKTOP桌面虚拟化方案 (16) 3.4.1桌面虚拟化概述 (16) 3.4.2方案架构及描述 (29) 3.4.3Citrix产品及功能描述 (36) 3.5V F OGLIGHT虚拟环境监控方案 (40) 3.5.1虚拟环境监控方案概述 (40) 3.5.2方案介绍 (44) 3.6接入网络解决方案 (54) 3.6.1方案描述 (54) 3.6.2物理布局设计 (58) 3.6.3方案优势 (59) 3.6.4业务服务器区接入层设计的创新发展 (60) 3.6.5基于Nexus产品的创新设计总结 (64) 4配置方案 (65)

1前言 广泛采用的IT 平台在应用范围和复杂性方面急速发展,服务器数量、网络复杂程度和存储容量也随着一波波的技术变革而激增。由此导致的诸多问题目前仍在困扰着各信息化部门。如:服务器利用率低下、多应用并存导致系统不稳定、整机备份还原困难、计划内或计划外的停机导致服务中断等。 服务器虚拟化技术,经过数十年的发展,成功的解决了这些问题,为基础资源整合提供了理想的解决方案。通过部署服务器虚拟集群,将多个服务器、网络存储设备、备份系统等作为一个资源池,从资源池中灵活的分配适当的资源给相应的应用,使得上述问题迎刃而解。今天,服务器虚拟化技术已经被广泛应用在各个领域,作为绿色数据中心的核心技术手段,发挥着重大的作用。 2项目建设必要性分析 随着信息化工作的不断推进,XX科研院所已建立若干重要应用系统等。这些系统的正常运行切实保障了XX科研院所的科研生产顺利开展,大大提高了工作效率和科研能力。这些应用无不需要良好的服务器环境作为支撑,而且随着应用数量及性能要求的不断提高,对服务器环境资源的要求也将越来越高。同时,随着科研生产对信息化的依赖性增强,保障数据中心稳定、不间断的运行显得越来越重要。 数据中心现有多台服务器,每台服务器都运行多个应用服务。目前主要存在以下几个问题: 1.服务器资源使用率不均匀平均使用率低于40%。 2.计划外或计划内停机维护,影响应用服务的不间断运行。 3.部署新应用的成本较高。 这些问题越来越严重的影响着数据中心安全稳定的运行,解决这些问题迫在眉睫。

linux服务器集群的详细配置

l i n u x服务器集群的详细 配置 This model paper was revised by the Standardization Office on December 10, 2020

linux服务器集群的详细配置 一、计算机集群简介 计算机集群简称集群是一种计算机系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作。在某种意义上,他们可以被看作是一台计算机。集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式。集群计算机通常用来改进单个计算机的计算速度和/或可靠性。一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多。 二、集群的分类 群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同。集群计算机按功能和结构可以分成以下几类: 高可用性集群 High-availability (HA) clusters 负载均衡集群 Load balancing clusters 高性能计算集群 High-performance (HPC) clusters 网格计算 Grid computing 高可用性集群 一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行。 负载均衡集群

负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务器上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)。一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。 Linux虚拟服务器(LVS)项目在Linux操作系统上提供了最常用的负载均衡软件。 高性能计算集群 高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费软件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库 集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。 网格计算 网格计算或网格集群是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机。还有,网格通常比集群支持更多不同类型的计算机集合。 网格计算是针对有许多独立作业的工作任务作优化,在计算过程中作业间无需共享数据。网格主要服务于管理在独立执行工作的计算机间的作业分配。资源如存储可以被所有结点共享,但作业的中间结果不会影响在其他网格结点上作业的进展。

服务器集群技术方案

服务器集群技术方案 集群(Cluster )技术是发展高性能计算机的一项技术。它是一组相互独立的计算机,利用高速通信网络组成一个单一的计算机系统,并以单一系统的模式加以管理。其出发点是提供高可靠性、可扩充性和抗灾难性。一个集群包含多台拥有共享数据存储空间的服务器,各服务器通过内部局域网相互通信。当一台服务器发生故障时,它所运行的应用程序将由其它服务器自动接管。在大多数模式 下,集群中所有的计算机拥有一个共同的名称,集群内的任一系统上运行的服务 都可被所有的网络客户使用。采用集群系统通常是为了提高系统的稳定性和网络中心的数据处理能力及服务能力。 当前主流的集群方式包括以下几种: 1. 服务器主备集群方式 服务器主-备方式由一台服务器在正常运行状态提供对外服务,其它集群节点作为备份机,备份机在正常状态下不接受外部的应用请求,实时对生产机进行检测,当生产机停机时才会接管应用服务,因此设备利用率最高可达50%主备 方式集群如下图所示,节点2为正常提供服务的服务器,运行多个应用 (pkgA,pkgB..),节点1平时只监控节点2的状态,不对外提供服务,当节点2 出现故障时,节点1将把两个应用接管过来,并对外提供服务。 图表错误!文档中没有指定样式的文字。-1主备方式集群 2. 服务器互备份集群方式 多台服务器组成集群,每台服务器运行独立的应用,同时作为其它服务器的 备份机,当主应用中断,服务将被其它集群节点所接管,接管服务的节点将运行自身应用和

故障服务器的应用,这种方式各集群节点的硬件资源均可被应用于对外服务。互备方式集群如下图所示,节点1和节点2分别运行1个或多个不同的应用,但只对外提供本地的主应用,两个节点之间互相进行监控,集群中任何一个节点出现故障后,另一个节点把故障节点的主应用接管过来,所有应用服务由一台服务器完成。 图表错误!文档中没有指定样式的文字。-2互备份方式集群 这种方式的主要缺点在于: 由于需要重新启动数据库核心进程,无法保证数据库系统连续不间断地运行 在系统切换的过程中,客户端与服务器之间的数据库连接会中断,需要重新进行数 据库的连接和登录工作 由于数据库系统只能在一台服务器上运行,另一台服务器无法分担系统的负载,实 际上造成了客户投资的浪费。在有些系统中,为了解决双机负载分担的问题,将应 用系统人为分割为两个数据库系统,分别在两台服务器上运行。这种方式在一定程 度上解决了负载分担的问题,但给系统管理、统计分析等业务处理带来了很多额外 的复杂性 3. 服务器并行集群方式 集群有多台服务器构成,同时提供相同的应用,可以实现多台服务器之间的负载均衡, 提供大访问量的应用需求,如Web访问及数据库等应用,服务器并行集群方式一般由应用系 统自身(如OracleRAC中间件负载均衡等)或外部专用服务器负载均衡设备实现。 jL# R?i uat Hiti.iEMXff DLM珀心XM4子耳 vVLH Ctid TW

相关主题
文本预览
相关文档 最新文档