5-建立_RAID5_提高磁盘利用率实训.
- 格式:doc
- 大小:116.00 KB
- 文档页数:2
随着PC硬件的不断发展,以前多见于服务器等高端应用的RAID5技术也出现在PC机上。
许多玩家开始接触到这种提升速同时也能确保数据安全性的良好的解决方案。
RAID 5 模式的入门知识RAID 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。
它既能实现RAID 0的高速存储读取功能也能够实现RAID 1的数据恢复功能,可以说是RAID 0和RAID 1的折衷方案。
RAID 5为系统提供数据安全保障,但保障程度要比磁盘镜像低而磁盘空间利用率要比磁盘镜像高。
同时RAID 5还具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,而且存储成本相对较低。
RAID 5至少需要三块硬盘才能实现阵列,在阵列当中有三块硬盘时,RAID控制器将会把需要存储的数据按用户定义的分割大小把文件分成碎片再分别存储到其中的两块硬盘上,此时另一块硬盘不接收文件碎片,只用来存储其它两块硬盘的校验信息,这个校验信息是通过RAID控制器上的单独的芯片运算产生的,而且可以通过这个校验信息来恢复存储在两块硬盘上的数据。
另外,这三块硬盘的任务也是随机的,也就是说在这次存储当中可能是1号硬盘和2好硬盘用来存储分割后的文件碎片,那么在下次存储的时候可能就是2号硬盘和3号硬盘来完成这个任务了。
可以说,在每次存储操作当中,每块硬盘的任务是不一样的,不过,不管任务怎么随机分配也是两块硬盘用来存储数据信息,另一块硬盘用来存储校验信息。
RAID 5可以利用三块硬盘同时实现RAID 0的加速功能也实现RAID 1的数据备份功能,并且当其中的一块硬盘损坏之后,加入一块新的硬盘也可以实现数据的还原。
RAID 5模式并不是完全没有缺点,如果阵列当中某块硬盘上的信息发生了改变的话,那么就需要重新计算文件分割碎片,并且,校验信息也需要重新计算,这时,三个硬盘都需要重新调用那么整个系统性能将会降下来。
如果要做RAID 5阵列的话,最好使用相同容量相同速度的硬盘,RAID 5模式的有效容量是阵列中容量最小的硬盘容量乘上阵列中硬盘数减一后的数目,这是因为其中有一块硬盘用来存放校验信息。
对RAID进行操作很可能会导致数据丢失,请在操作之前务必将重要数据妥善备份,以防万一。
名称解释:Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VDPD(Physical Disk):物理磁盘HS:Hot Spare 热备Mgmt:管理【一】,创建逻辑磁盘1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。
选择不同的级别,选项会有所差别。
选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。
4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。
有X标志为选中的硬盘。
选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。
如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。
VD Name根据需要设置,也可为空。
注:各RAID级别最少需要的硬盘数量,RAID0=1 RAID1=2 RAID5=3 RAID10=4 RAID50=65、修改高级设置,选择完VD Size后,可以按向下方向键,或者Tab键,将光标移至Advanced Settings 处,按空格键开启(禁用)高级设置。
车检数据入库服务器数据存储备份方案一、概述出于安全性考虑,对车检数据采用三重备份,即,车检数据文件备份、数据库备份和存储设备备份,以避免人为非人为灾难对数据的破坏。
操作系统,数据库软件,以及其他文件,应与数据文件分别存储在不同的设备上,即,将车检数据备份、数据库存储空间单独放置在独立的存储设备上,以便对数据存储空间实施硬件备份。
根据总队以及各地区数据量实际情况,建议总队使用磁盘阵列柜作为储存设备,使用3到5块SATA 1Tb硬盘组成RAID-5组;各地区支队使用2至4块SATA 硬盘组成RAID-5(或RAID-1)组。
对数据库,定期进行一次完全备份,每日进行增量备份,以确保数据库文件安全性,同时尽可能节省磁盘空间。
二、存储设备备份RAID-5 卷是数据和奇偶校验间断分布在三个或更多物理磁盘的容错卷。
如果物理磁盘的某一部分失败,可以用余下的数据和奇偶校验重新创建磁盘上失败的那一部分上的数据。
对于多数活动由读取数据构成的计算机环境中的数据冗余来说,RAID-5 卷是一种很好的解决方案。
可使用基于硬件或基于软件的解决方案来创建 RAID-5卷。
通过基于硬件的 RAID,智能磁盘控制器处理组成 RAID-5 卷的磁盘上的冗余信息的创建和重新生成。
Windows Server 2003 操作系统提供基于软件的 RAID,其中RAID-5 卷中的磁盘上的信息的创建和重新生成将由"磁盘管理"来处理,两种情况下数据都将跨磁盘阵列中的所有成员进行存储。
硬件RAID解决方案速度快、稳定性好,可以有效地提供高水平的硬盘可用性和冗余度。
软RAID的性能和效率是不能与硬RAID相提并论的,但实现上非常方便。
由于硬RAID根据所用硬件不同,操作界面也有所不同,故只对软RAID的实现与维护进行介绍以供参考。
建议使用硬件RAID。
(一)、创建动态磁盘在安装Windows 2003 Server时,硬盘将自动初始化为基本磁盘。
2003系统下raid5的组建
步骤:
1.建立好2003server系统,并且准备至少3块大小同样的硬盘连接在电脑上,打开磁盘
管理,如图:
2.在磁盘1上单击鼠标右键,点击新建卷,如图:
3.在创建卷中选择RAID-5,单击下一步:
4.双击左边的的磁盘2和3添加到RAID-5中,如图:
5.安装完成后等待格式化,RAID格式化是多块硬盘同时进行的,如图:
6.格式化后,进行同步计算,软RAID此计算式靠CPU完成,因此配置决定速度:
7.同步后raid-5组建完成,磁盘管理中如图:
8.在我的电脑中,raid-5如图:
其中上图中的E盘为RAID-5卷
注意:组建RAID-5的三块硬盘必须都是动态磁盘,转换动态磁盘的方法参见RAID-0制作第一步。
indows VM中RAID5的创建实训报告一、【实验目的】(1)学会在windows和Linux环境下构建软件RAID环境,并且实现RAID1和RAID5。
(2)比较理解RAID1和RAID5的异同,深刻掌握不同RAID的性能比较。
二、【实验设备】Windows Server2016系统、Linux三、【实验要求】学会在Windows server系统下创建RAID环境,掌握用命令行在Linux系统下创建RAID环境。
四、【实验步骤】(一)在Windows server系统下创建RAID环境,并实现RAID1和RAID5。
首先建立五个5g的磁盘。
打开虚拟机设置。
硬件——设备——硬盘——添加选择SCSI。
创建新虚拟磁盘。
磁盘大小设为5g,选择将虚拟磁盘存储为单个文件。
选择一个合适的地方存储,命名为experience Windows Server 2016-0这样就完成了一个磁盘的建立,接下来再按照上述方法创建四个。
打开磁盘管理,发现这五个磁盘属于脱机状态。
右键——联机再次右键——初始化磁盘。
这时就可以建立卷了。
除了这样直接用之外,还可以输入命令让磁盘脱机和清除磁盘属性。
打开cmd,进入diskpart界面,list disk 表示查看磁盘状态,select disk 2表示选择磁盘2进行操作,online disk表示使磁盘2联机,attr disk clear readonly表示删除磁盘属性。
这样设置完再进入磁盘管理,会自动弹出弹窗,让你进行初始化。
我们直接点击确认即可。
右键选择磁盘0——新建镜像卷。
(要注意此时要有两个已经初始化好的磁盘才可以建立镜像卷,因为RAID 1最少要两个磁盘。
从左边再选择一个磁盘,这样右边就有两个,符合建立RAID1的标准。
随便选一个磁盘驱动器号。
命名为RAID1,并且勾选快速格式化。
成功创建。
接下来创建RAID5,首先要有三个初始化好的磁盘,因为RAID5的建立至少要3个磁盘。
创建磁盘陈列(RAID5)使用经验与原则一些单位的服务器,在创建磁盘陈列时,大多是把服务器上所有的硬盘创建RAID5,并且只划分了一个“逻辑磁盘”,这样从理论上来讲没有任何问题,在实际中也可以可以使用的,但是这种方法并不可取,原因:现在服务器集成的SCSI、RAID卡、SAS卡等,操作系统大多没有集成相关的驱动程序,这样在安装操作系统的时候,如果使用Windows Server 2003(或Windows Server 2008)安装光盘,从光盘启动安装,在安装的时候,需要按F6,并在软驱中插入相关的SCSI、RAID 卡驱动程序。
而现在一些服务器并不带软驱(或者虽然服务器都带软驱,但现在软盘,不说也罢,一些软盘质量太次了)。
这个时候,就需要使用服务器带的“引导光盘”启动,使用服务器的引导光盘来安装系统,而采用这种方法的时候,要把第1个逻辑磁盘重新划分分区,这样,在第一次安装系统的时候没有问题,但如果你的服务器在使用一段时间之后,需要重新安装系统,并且你的D分区、E分区有数据的时候,如果你还用这种方法----你就想办法恢复数据吧!所以,上面这种方法,只是“能用”并不“实用”。
我个人的经验:在创建RAID5的磁盘陈列时,创建两个逻辑磁盘,第一个逻辑磁盘大小为30~50GB,第二个逻辑磁盘是RAID5的剩余空间。
这样,即使是使用服务器带的“引导光盘”安装系统,也只是把第一个逻辑磁盘重新划分分区,并不会影响第2个逻辑磁盘上的数据。
另外,在使用服务器带的光盘划分第一个逻辑磁盘时,我就把所有的空间都划分出来,这样第一个逻辑磁盘只安装系统,不做他用。
现在服务器大多安装了4~6个硬盘,这个时候,这些硬盘可以创建RAID5.如果服务器上有10块硬盘,不建议把这10个硬盘创建一个RAID5,而是每5个硬盘一组,分别创建RAID5。
并且,第一组的5个硬盘,创建两个逻辑磁盘(30~50GB第一个,第2个剩余空间),而第二组的5个硬盘,只需要创建一个逻辑磁盘专门存数据就行了。
(完整word版)DELL服务器做RAID5磁盘阵列图文教程编辑整理:尊敬的读者朋友们:这里是精品文档编辑中心,本文档内容是由我和我的同事精心编辑整理后发布的,发布之前我们对文中内容进行仔细校对,但是难免会有疏漏的地方,但是任然希望((完整word版)DELL服务器做RAID5磁盘阵列图文教程)的内容能够给您的工作和学习带来便利。
同时也真诚的希望收到您的建议和反馈,这将是我们进步的源泉,前进的动力。
本文可编辑可修改,如果觉得对您有帮助请收藏以便随时查阅,最后祝您生活愉快业绩进步,以下为(完整word版)DELL服务器做RAID5磁盘阵列图文教程的全部内容。
磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能.磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量. ·RAID 的种类及应用IDE和SCSI是计算机的两种不同的接口,前者普遍用于PC机,后者一般用于服务器。
基于这两种接口,RAID分为两种类型:基于IDE接口的RAID应用,称为IDE RAID;而基于SCSI 接口的RAID应用则相应称为SCSI RAID。
基于不同的架构,RAID 又可以分为:● 软件RAID (软件 RAID)● 硬件RAID (硬件 RAID)● 外置RAID (External RAID)·软件RAID很多情况下已经包含在系统之中,并成为其中一个功能,如Windows、Netware 及Linux。
软件RAID中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。
软件RAID是不需要另外添加任何硬件设备,因为它是靠你的系统——主要是中央处理器的功能—-提供所有现成的资源.·硬件RAID通常是一张PCI卡,你会看到在这卡上会有处理器及内存。
2003系统下raid5的组建
步骤:
1.建立好2003server系统,并且准备至少3块大小同样的硬盘连接在电脑上,打开磁盘管
理,如图:
2.在磁盘1上单击鼠标右键,点击新建卷,如图:
3.在创建卷中选择RAID-5,单击下一步:
4.双击左边的的磁盘2和3添加到RAID-5中,如图:
5.安装完成后等待格式化,RAID格式化是多块硬盘同时进行的,如图:
6.格式化后,进行同步计算,软RAID此计算式靠CPU完成,因此配置决定速度:
7.同步后raid-5组建完成,磁盘管理中如图:
8.在我的电脑中,raid-5如图:
其中上图中的E盘为RAID-5卷
注意:组建RAID-5的三块硬盘必须都是动态磁盘,转换动态磁盘的方法参见RAID-0制作第一步。
对RAID进行操作很可能会导致数据丢失,请在操作之前务必将重要数据妥善备份,以防万一。
名称解释:Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VDPD(Physical Disk):物理磁盘HS:Hot Spare 热备Mgmt:管理【一】,创建逻辑磁盘1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。
选择不同的级别,选项会有所差别。
选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。
4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。
有X标志为选中的硬盘。
选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。
如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。
VD Name根据需要设置,也可为空。
注:各RAID级别最少需要的硬盘数量,RAID0=1 RAID1=2 RAID5=3 RAID10=4 RAID50=65、修改高级设置,选择完VD Size后,可以按向下方向键,或者Tab键,将光标移至Advanced Settings 处,按空格键开启(禁用)高级设置。
第4套 真考题库试题一、单选题((1)~(20)每题1分,(21)~(30)每题2分,共40分)1.在数据模型三个要素中,表述客观世界中数据对象之间关联的是()。
A)数据操作B)数据结构C)数据视图D)完整性约束2.数据库系统的三级模式结构从数据库系统管理角度考虑数据的组织与存储。
下列不属于数据库三级模式结构的是()。
A)逻辑模式B)物理模式C)外模式D)应用模式3.在信息系统的需求分析中,目前广为使用的结构化分析与功能建模方法主要有DFD、IDEF0等。
其中,DFD建模方法也被称为过程建模和功能建模方法,其核心是()。
A)数据B)软件C)数据流D)分析过程4.设有关系模式R(A,B,C,D),存在函数依赖集:{A→B,C→D},则R最高可属于()。
A)1NFB)2NFC)3NFD)BCNF5.数据库设计主要包括概念设计、逻辑设计和物理设计三个步骤。
设有下列活动:Ⅰ.设计ER图Ⅱ.将ER图转换为关系模式Ⅲ.定义数据的约束条件Ⅳ.用SQL语句描述事务活动上述活动中,属于逻辑设计所包含活动的是()。
A)仅Ⅰ、Ⅱ和ⅢB)仅Ⅱ、Ⅲ和ⅣC)仅Ⅱ和ⅢD)仅Ⅱ和Ⅳ6.从功能上讲,数据库应用系统设计包括四个层次。
下列层次中包含索引设计的是()。
A)表示层B)业务逻辑层C)数据访问层D)数据持久层7.在数据库应用系统生命周期中,当逻辑设计阶段完成后进入到物理设计阶段。
下列不属于物理设计阶段活动的是()。
A)确定关系表的文件组织形式B)进行关系规范化设计C)创建必要的索引D)设置存储分配参数8.查询处理器和存储管理器是数据库管理系统中的核心模块。
下列关于查询处理器和存储管理器的说法,错误的是()。
A)查询处理器中的DML编译器会对用户提交的DML语句进行优化,并将其转换成能够执行的底层数据库操作指令B)存储管理器中的查询执行引擎会根据编译器产生的指令完成具体数据库数据访问功能C)存储管理器中的缓冲区管理器负责将从磁盘读出的数据块放入内存缓冲区,同时也负责对缓冲区中的数据块进行维护D)查询处理器中的DDL编译器编译或解释用户提交的DDL语句,并将生成的元数据存储在数据库的数据字典中9.下列简化UML关系图中,最不恰当的是()。
两种方法做R A I D5本页仅作为文档封面,使用时可以删除This document is for reference only-rar21year.March本文将分两种方法介绍如何做RAID5,其中第一种方法是在Adaptec磁盘阵列控制器上创建Raid(容器),第二种方法是在AIM/LSI磁盘阵列控制器上创建Logical Drive(逻辑磁盘)。
1. 在Adaptec磁盘阵列控制器上创建Raid(容器)在这种阵列卡上创建容器的步骤如下(注意:请预先备份您服务器上的数据,配置磁盘阵列的过程将会删除服务器硬盘上的所有数据!):如何做RAID5第1步,首先当系统在自检的过程中出现如(图1)提示时,同时按下“Ctrl+A”组合键。
进入如(图2)所示的磁盘阵列卡的配置程序界面。
(图一)(图二)如何做RAID5第2步,然后选择“Container configuration utility”,进入如(图3)所示配置界面。
(图三)如何做RAID5第3步,选择“Initialize Drivers“选项去对新的或是需要重新创建容器的硬盘进行初始化(注意: 初始话硬盘将删去当前硬盘上的所有数据),按回车后进入如(图4)所示界面。
在这个界面中出现了RAID卡的通道和连接到该通道上的硬盘,使用“Insert”键选中需要被初始化的硬盘(具体的使用方法参见界面底部的提示,下图)。
(图四)如何做RAID5第4步,全部选择完成所需加入阵列的磁盘后,按加车键,系统键弹出如(图5)所示警告提示框。
提示框中提示进行初始化操作将全部删除所选硬盘中的数据,并中断所有正在使用这些硬盘的用户。
(图五)如何做RAID5第5步,按“Y”键确认即可,进入如(图6)所示配置主菜单(Main Menu)界面。
硬盘初始化后就可以根据您的需要,创建相应阵列级别(RAID1,RAID0等)的容器了。
这里我们以RAID5为例进行说明。
在主菜单界面中选择“Create container”选项。
磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能。
磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量。
·RAID 的种类及应用IDE和SCSI是计算机的两种不同的接口,前者普遍用于PC机,后者一般用于服务器。
基于这两种接口,RAID分为两种类型:基于IDE接口的RAID应用,称为IDE RAID;而基于SCSI接口的RAID应用则相应称为SCSI RAID。
基于不同的架构,RAID 又可以分为:● 软件RAID (软件RAID)● 硬件RAID (硬件RAID)● 外置RAID (External RAID)·软件RAID很多情况下已经包含在系统之中,并成为其中一个功能,如Windows、Net ware及Linux。
软件RAID中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。
软件RAID是不需要另外添加任何硬件设备,因为它是靠你的系统——主要是中央处理器的功能——提供所有现成的资源。
·硬件RAID通常是一张PCI卡,你会看到在这卡上会有处理器及内存。
因为这卡上的处理器已经可以提供一切RAID所需要的资源,所以不会占用系统资源,从而令系统的表现可以大大提升。
硬件RAID可以连接内置硬盘、热插拔背板或外置存储设备。
无论连接何种硬盘,控制权都是在RAID卡上,亦即是由系统所操控。
在系统里,硬件RAID P CI卡通常都需要安驱动程序,否则系统会拒绝支持。
·外置式RAID也是属于硬件RAID的一种,区别在于RAID卡不会安装在系统里,而是安装在外置的存储设备内。
而这个外置的储存设备则会连接到系统的SCSI卡上。
系统没有任何的RAID功能,因为它只有一张SCSI卡;所有的RAID功能将会移到这个外置存储里。
一步步做raid5+lvm实验实验目的:1。
将sdb,sdc,sdd3块硬盘组成raid5模式2。
建立LVM3。
模拟故障,sdc出故障,删除该硬盘,再重新添加硬盘,恢复raid54。
增加LVM容量实验步骤1,格式化3块硬盘[root@RHEL5-1 ~]# fdisk /dev/sdb //格式化/dev/sdbDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel Building a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) Command (m for help): n //增加一个新的分区Command actione extendedp primary partition (1-4)p //创建主分区Partition number (1-4): 1 //分区号为1First cylinder (1-130, default 1): //设置分区大小Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-130, default 130):Using default value 130Command (m for help): t //改变系统的IDSelected partition 1Hex code (type L to list codes): fd //设置系统HEX为fd,即raid模式Changed system type of partition 1 to fd (Linux raid autodetect)Command (m for help): w //保存The partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@RHEL5-1 ~]# fdisk /dev/sdc //格式化/dev/sdcDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel Building a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) Command (m for help): nCommand actione extendedp primary partition (1-4)pPartition number (1-4): 1First cylinder (1-130, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-130, default 130):Using default value 130Command (m for help): tSelected partition 1Hex code (type L to list codes): fdChanged system type of partition 1 to fd (Linux raid autodetect)Command (m for help): wThe partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@RHEL5-1 ~]# fdisk /dev/sdd//格式化/dev/sddDevice contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel Building a new DOS disklabel. Changes will remain in memory only,until you decide to write them. After that, of course, the previouscontent won't be recoverable.Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) Command (m for help): nCommand actione extendedp primary partition (1-4)pPartition number (1-4): 1First cylinder (1-130, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-130, default 130):Using default value 130Command (m for help): tSelected partition 1Hex code (type L to list codes): fdChanged system type of partition 1 to fd (Linux raid autodetect)Command (m for help): wThe partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@RHEL5-1 ~]# fdisk -l//查看分区情况Disk /dev/sda: 8589 MB, 8589934592 bytes255 heads, 63 sectors/track, 1044 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sda1 * 1 13 104391 83 Linux/dev/sda2 14 268 2048287+ 83 Linux/dev/sda3 269 395 1020127+ 83 Linux/dev/sda4 396 1044 5213092+ 5 Extended/dev/sda5 396 522 1020096 82 Linux swap / Solaris /dev/sda6 523 1044 4192933+ 83 LinuxDisk /dev/sdb: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sdb1 1 130 1044193+ fd Linux raid autodetect Disk /dev/sdc: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sdc1 1 130 1044193+ fd Linux raid autodetect Disk /dev/sdd: 1073 MB, 1073741824 bytes255 heads, 63 sectors/track, 130 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sdd1 1 130 1044193+ fd Linux raid autodetect 建立raid5[root@RHEL5-1 ~]# mdadm --create /dev/md0 --level=5 --raid-device=3 /dev/sdb1 /d ev/sdc1 /dev/sdd1 //创建raid5,/dev/md0阵列设备名,level=5阵列模式raid5,raid-device=3raid有3块硬盘mdadm: array /dev/md0 started.[root@RHEL5-1 ~]# cat /proc/mdstat//查看数据同步情况Personalities : [raid6] [raid5] [raid4]md0 : active raid5 sdd1[3] sdc1[1] sdb1[0]2088192 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_][========>............] recovery = 40.0% (419060/1044096) finish=1.4min speed=7423K/secunused devices: <none>[root@RHEL5-1 ~]# cat /proc/mdstat //看到这个说明同步结束Personalities : [raid6] [raid5] [raid4]md0 : active raid5 sdd1[2] sdc1[1] sdb1[0]2088192 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]unused devices: <none>[root@RHEL5-1 ~]# tail /var/log/messages//查看系统日志Jun 1 11:34:10 RHEL5-1 kernel: md: syncing RAID array md0Jun 1 11:34:13 RHEL5-1 kernel: md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.Jun 1 11:34:15 RHEL5-1 kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.Jun 1 11:34:19 RHEL5-1 kernel: md: using 128k window, over a total of 1044096 blocks.Jun 1 11:36:01 RHEL5-1 kernel: md: md0: sync done.Jun 1 11:36:01 RHEL5-1 kernel: RAID5 conf printout:Jun 1 11:36:01 RHEL5-1 kernel: --- rd:3 wd:3 fd:0Jun 1 11:36:01 RHEL5-1 kernel: disk 0, o:1, dev:sdb1Jun 1 11:36:01 RHEL5-1 kernel: disk 1, o:1, dev:sdc1Jun 1 11:36:01 RHEL5-1 kernel: disk 2, o:1, dev:sdd1建立raid5的配置文件[root@RHEL5-1 ~]# echo device /dev/sdb1 /dev/sdc1 /dev/sdd1 > /etc/mdadm.conf [root@RHEL5-1 ~]# mdadm --detail --scan >> /etc/mdadm.conf[root@RHEL5-1 ~]# cat /etc/mdadm.confdevice /dev/sdb1 /dev/sdc1 /dev/sdd1ARRAY /dev/md0 level=raid5 num-devices=3UUID=36f261b7:4899a54c:9edf36d1:9eb86529[root@RHEL5-1 ~]# mdadm -S /dev/md0//停止阵列mdadm: stopped /dev/md0[root@RHEL5-1 ~]# mdadm -As /dev/md0//启动阵列mdadm: /dev/md0 has been started with 3 drives.2 建立LVM[root@RHEL5-1 ~]# pvcreate /dev/md0//建立PVPhysical volume "/dev/md0" successfully created[root@RHEL5-1 ~]# vgcreate lvm1 /dev/md0//建立VGVolume group "lvm1" successfully created[root@RHEL5-1 ~]# vgdisplay//查看VG--- Volume group ---VG Name lvm1System IDFormat lvm2Metadata Areas 1Metadata Sequence No 1VG Access read/writeVG Status resizableMAX LV 0Cur LV 0Open LV 0Max PV 0Cur PV 1Act PV 1VG Size 1.99 GBPE Size 4.00 MBTotal PE 509Alloc PE / Size 0 / 0Free PE / Size 509 / 1.99 GBVG UUID h7d74U-S38z-rQrw-ecGG-ePlg-48b5-87sbC1[root@RHEL5-1 ~]# lvcreate -L 500m -n web1 lvm1//建立LV ,名为web1,大小为500M Logical volume "web1" created[root@RHEL5-1 ~]# lvcreate -L 500m -n web2 lvm1//建立LV ,名为web2,大小为500M Logical volume "web2" created[root@RHEL5-1 ~]# mke2fs -j /dev/lvm1/web1//格式化web1mke2fs 1.39 (29-May-2006)Filesystem label=OS type: LinuxBlock size=1024 (log=0)Fragment size=1024 (log=0)128016 inodes, 512000 blocks25600 blocks (5.00%) reserved for the super userFirst data block=1Maximum filesystem blocks=6763315263 block groups8192 blocks per group, 8192 fragments per group2032 inodes per groupSuperblock backups stored on blocks:8193, 24577, 40961, 57345, 73729, 204801, 221185, 401409Writing inode tables: doneCreating journal (8192 blocks): doneWriting superblocks and filesystem accounting information: doneThis filesystem will be automatically checked every 26 mounts or180 days, whichever comes first. Use tune2fs -c or -i to override.[root@RHEL5-1 ~]# mke2fs -j /dev/lvm1/web2//格式化web1mke2fs 1.39 (29-May-2006)Filesystem label=OS type: LinuxBlock size=1024 (log=0)Fragment size=1024 (log=0)128016 inodes, 512000 blocks25600 blocks (5.00%) reserved for the super userFirst data block=1Maximum filesystem blocks=6763315263 block groups8192 blocks per group, 8192 fragments per group2032 inodes per groupSuperblock backups stored on blocks:8193, 24577, 40961, 57345, 73729, 204801, 221185, 401409Writing inode tables: doneCreating journal (8192 blocks): doneWriting superblocks and filesystem accounting information: doneThis filesystem will be automatically checked every 39 mounts or180 days, whichever comes first. Use tune2fs -c or -i to override.[root@RHEL5-1 ~]# mkdir /web1[root@RHEL5-1 ~]# mkdir /web2[root@RHEL5-1 ~]# mount /dev/lvm1/web1 /web1//挂载[root@RHEL5-1 ~]# mount /dev/lvm1/web2 /web2[root@RHEL5-1 ~]# vi /etc/fstab//编辑/etc/fstab,让系统启动时自动挂载LABEL=/ / ext3 defaults 1 1 LABEL=/var /var ext3 defaults 1 2 LABEL=/tmp /tmp ext3 defaults 1 2 LABEL=/boot /boot ext3 defaults 1 2 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0LABEL=SWAP-sda5 swap swap defaults 0 0 /dev/lvm1/web1 /web1 ext3 defaults 0 0 /dev/lvm1/web2 /web2 ext3 defaults 0 0 [root@RHEL5-1 ~]# reboot查看/web1的容量[root@RHEL5-1 ~]# df -h /web1Filesystem Size Used Avail Use% Mounted on/dev/mapper/lvm1-web1485M 11M 449M 3% /web1[root@RHEL5-1 ~]# pvdisplay--- Physical volume ---PV Name /dev/md0VG Name lvm1PV Size 1.99 GB / not usable 3.25 MBAllocatable yesPE Size (KByte) 4096Total PE 509Free PE 259Allocated PE 250PV UUID HSyAfx-Qxdv-b6id-01sZ-eRVC-HWAj-By3ctA3模拟故障[root@RHEL5-1 ~]# mdadm /dev/md0 -f /dev/sdc1//标记/dev/sdc1为故障盘mdadm: set /dev/sdc1 faulty in /dev/md0[root@RHEL5-1 ~]# more /proc/mdstatPersonalities : [raid6] [raid5] [raid4]md0 : active raid5 sdd1[2] sdc1[3](F) sdb1[0] //[F]表示为故障盘2088192 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]unused devices: <none>[root@RHEL5-1 ~]# mdadm /dev/md0 -r /dev/sdc1//移除故障盘mdadm: hot removed /dev/sdc1[root@RHEL5-1 ~]# more /proc/mdstat //查看阵列情况Personalities : [raid6] [raid5] [raid4]md0 : active raid5 sdd1[2] sdb1[0]unused devices: <none>[root@RHEL5-1 ~]# pvdisplay /dev/md0//查看PV情况,发现容量没减少 --- Physical volume ---PV Name /dev/md0VG Name lvm1PV Size 1.99 GB / not usable 3.25 MBAllocatable yesPE Size (KByte) 4096Total PE 509Free PE 259Allocated PE 250PV UUID HSyAfx-Qxdv-b6id-01sZ-eRVC-HWAj-By3ctA [root@RHEL5-1 ~]# fdisk /dev/sdc//重新格式化sdc,重新添加进阵列Command (m for help): nCommand actione extendedp primary partition (1-4)pPartition number (1-4): 1Partition 1 is already defined. Delete it before re-adding it. Command (m for help): tSelected partition 1Hex code (type L to list codes): fdCommand (m for help): wThe partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@RHEL5-1 ~]# mdadm /dev/md0 -a /dev/sdc1//增加mdadm: re-added /dev/sdc1[root@RHEL5-1 ~]# more /proc/mdstat //开始同步数据Personalities : [raid6] [raid5] [raid4]md0 : active raid5 sdc1[1] sdd1[2] sdb1[0][==>..................] recovery = 12.2% (128796/1044096) finish=2.1min speed=7155K/secunused devices: <none>[root@RHEL5-1 ~]# pvdisplay--- Physical volume ---PV Name /dev/md0VG Name lvm1PV Size 1.99 GB / not usable 3.25 MBAllocatable yesPE Size (KByte) 4096Total PE 509Free PE 259Allocated PE 250PV UUID HSyAfx-Qxdv-b6id-01sZ-eRVC-HWAj-By3ctA[root@RHEL5-1 ~]# vgdisplay lvm1--- Volume group ---VG Name lvm1System IDFormat lvm2Metadata Areas 1Metadata Sequence No 3VG Access read/writeVG Status resizableMAX LV 0Cur LV 2Open LV 2Max PV 0Cur PV 1Act PV 1VG Size 1.99 GBPE Size 4.00 MBTotal PE 509Alloc PE / Size 250 / 1000.00 MBFree PE / Size 259 / 1.01 GBVG UUID h7d74U-S38z-rQrw-ecGG-ePlg-48b5-87sbC1[root@RHEL5-1 ~]# df -h /web1Filesystem Size Used Avail Use% Mounted on/dev/mapper/lvm1-web1485M 11M 449M 3% /web14。
raid模式虽多,但以我的理解其实就是把2个以上的硬盘组合在一起,一块用,以达到更快的速度和更高的安全性,大家不需要了解太多raid模式,只要知道raid0、raid1和raid5就足够在服务器行业混饭了(其实什么也不知道照样混饭的人也很多),所谓raid0就是两块硬盘合成一块硬盘用,例如两个80G的硬盘,做成raid0模式,就变成一块160G的大硬盘,理论上硬盘传输速度也加倍,但是这种模式安全性很低,一旦一个硬盘坏了,两个硬盘里的所有数据都会报销,因此服务器上最好不用这种模式。
所谓raid1就是两块硬盘互相做同步备份(镜像),例如两块80G的硬盘,做成raid1模式,总容量还是80G没变化,硬盘传输速度也没变化,但是两个硬盘里的数据保持同步,完全一样,一旦其中一个硬盘坏了,靠另一个硬盘,服务器依然能正常运行,这种模式很安全,所以现在很多中低端服务器采取这种raid模式,这种模式简单实用,用不高的硬件成本即可实现,我很喜欢。
至于raid5,则过去一直是高档服务器的专利,即使是在今天,你翻翻许多名牌服务器的价目表,在1-2万元的产品里也很难觅到raid5的身影,采用raid5可以兼顾raid0的速度、容量和raid1的安全性,是个听起来很完美的磁盘阵列方案。
硬件raid5组建:最近又亲手给一个朋友组装了一台采用双核心P4 820D处理器的8硬盘的1U机架式存储型服务器,在组装过程中,分别组建了硬件Raid5和软件Raid5的磁盘阵列,过程很值得玩味,现在写出详细的设置过程,以期抛砖引玉,给大家带来更多一点启发。
首先将服务器组装好,然后给硬盘插上SATA的数据线,插入主板上的四个SATA接口,用并口线连接好我的LG 刻录机当光驱用,这个主板只提供了1个并口IDE接口用来接光驱正好,连上显示器、键盘、鼠标,开机测试,启动顺利,按DEL键进入bios。
在BIOS里看到,主板已经识别出四块西数250G大容量硬盘和LG刻录机。
创建Raid5
实验目的:
创建Raid5
实验器材:一台PC机,三块硬盘,最好是一样大的,若三块不同大小。
以最小的作为Raid5
实验步骤:
1.添加三块硬盘,用fdisk –l 查看添加硬盘的情况。
2.然后,用fdisk dev/sdb、sdc、sdb.进行磁盘分区(只演示一个)。
3.将raidtools复制到/etc/raidtab下(系统默认raid5配置文件)。
4.编辑/etc/raidtab文件
5.创建一个raid5设备。
6.对raid5进行格式化.
7.创建一个raid5目录,并对其进行挂载。
8.用df –h 进行查看
9.利用lsraid –a /dev/md0查看raid5.
10.再次利用fdisk –l 查看磁盘情况
11.修改/etc/fstab文件,开机实现自动挂载。
实验总结:
通过对Raid5的创建了解了Raid5的创建。
吴传奇
二〇〇八年十一月三日星期
一。
一、数据盘RAID5的制作方法(以500GB*16为例说明)第一步:开机后根据提示CTRL+H进入RAID卡设置界面如下图第二步:点击Configuration Wizard进入RAID制作界面,选择New Configuration第三步:选择Yes第四步:选择Custom Configuration第五步:选中硬盘,上面一组里面编号从1:0-1:6共7块硬盘编号1:7号硬盘(即第8块硬盘)不选,留着做热备盘,然后点击AddtoArray第六步:点击Accept DG第七步:上图点击Next到此界面,选中”DG:0,R0,R5,R6,475883MB”点击Add to SPAN,然后点击Next进入下一步第八步:按照下图设置RAID各个选项.请注意最下边容量要根据右边红框里面相应的RAID模式标明的容量填写,注意单盘容量不要超过2T,所以我们要把容量平均分成2部分,输入1427649,点击Accept,弹出界面选择Yes第九步:点击Accept弹出界面选择Yes第十步:选择“Slow Initialize”,点“Go”弹出界面选择“Yes”,做完全初始化第十一步:返回主界面,点击Configuration Wizard 进入RAID 制作界面,选择Add Configuration,选择我们刚刚操作的第一组硬盘,按照第4,7,8,9,10步骤把剩余容量也做成RAID5然后返回主界面,点击Configuration Wizard 进入RAID 制作界面,选择Add Configuration,使用同样的方法把第二组硬盘也成两组RAID5第十二步:点击制作好的RAID显示如下第十三步:点击第一组里面的编号为1:7的硬盘(即第8块硬盘),选中Make Global MSP然后点击Go。
使用同样的方法把第二组里面的编号为1:7的硬盘(即第8块硬盘)也是如此处理做完后显示如下初始化完成后到WIN2003SERVER下,把它们做成带区,盘符为E二、数据盘RAID5的掉盘处理3个磁盘RAID5中,手动使其中2个磁盘的状态为offline后,再插入磁盘,webbios中的磁盘状态如下。
创建磁盘陈列RAID5使用经验与原则一些单位的服务器,在创建磁盘陈列时,大多是把服务器上所有的硬盘创建RAID5,并且只划分了一个“逻辑磁盘”,这样从理论上来讲没有任何问题,在实际中也可以可以使用的,但是这种方法并不可取,原因:现在服务器集成的SCSI、RAID卡、SAS卡等,操作系统大多没有集成相关的驱动程序,这样在安装操作系统的时候,如果使用WindowServer2003(或WindowServer2022)安装光盘,从光盘启动安装,在安装的时候,需要按F6,并在软驱中插入相关的SCSI、RAID卡驱动程序。
而现在一些服务器并不带软驱(或者虽然服务器都带软驱,但现在软盘,不说也罢,一些软盘质量太次了)。
这个时候,就需要使用服务器带的“引导光盘”启动,使用服务器的引导光盘来安装系统,而采用这种方法的时候,要把第1个逻辑磁盘重新划分分区,这样,在第一次安装系统的时候没有问题,但如果你的服务器在使用一段时间之后,需要重新安装系统,并且你的D分区、E分区有数据的时候,如果你还用这种方法----你就想办法恢复数据吧!所以,上面这种方法,只是“能用”并不“实用”。
我个人的经验:在创建RAID5的磁盘陈列时,创建两个逻辑磁盘,第一个逻辑磁盘大小为30~50GB,第二个逻辑磁盘是RAID5的剩余空间。
这样,即使是使用服务器带的“引导光盘”安装系统,也只是把第一个逻辑磁盘重新划分分区,并不会影响第2个逻辑磁盘上的数据。
另外,在使用服务器带的光盘划分第一个逻辑磁盘时,我就把所有的空间都划分出来,这样第一个逻辑磁盘只安装系统,不做他用。
现在服务器大多安装了4~6个硬盘,这个时候,这些硬盘可以创建RAID5、如果服务器上有10块硬盘,不建议把这10个硬盘创建一个RAID5,而是每5个硬盘一组,分别创建RAID5。
并且,第一组的5个硬盘,创建两个逻辑磁盘(30~50GB第一个,第2个剩余空间),而第二组的5个硬盘,只需要创建一个逻辑磁盘专门存数据就行了。
建立 RAID5 提高磁盘利用率实训
【实训名称】
建立 RAID5 提高磁盘利用率
【实训目的】
通过本实训,熟悉 RAID5 功能原理,以及在 RG-iS-LAB 中实现 RAID5 的操作。
【背景描述】
某学校存储设备中有多块硬盘,在使用一段时间后,网络中心管理员提出,学校部分论文及科研成果重要等级较高,对这部分数据希望能够保证数据的高安全性,即使在部分磁盘损坏的情况下,也能保证数据的完整性。
前期工程师提出可以做 RAID1 提供磁盘高冗余性。
但是校方表示,如果采用 RAID1 的方案,磁盘利用率太低,而且可用磁盘空间也无法满足需求。
【需求分析】
需求 1:保证数据的高安全性,在部分磁盘损坏的情况下不会造成数据丢失。
分析 1:磁盘一旦损坏,如果没有保护,那么磁盘上所有的数据都会丢失,为了解决这一问题,把所有磁盘做成具有容错能力的磁盘阵列。
需求 2:在提供冗余性的同时能提供较高的磁盘利用率。
分析 2:可以采用 RAID5 来满足此需求,对磁盘做 RAID5 时,在提供磁盘冗余的同时,磁盘的利用效率是(n-1)/n,相对于 RAID1 有更高的磁盘利用率。
【实训拓扑】
【实训设备】
RG-iS-LAB 1 台;
PC 1 台;
二层交换机 1 台。
【预备知识】
网络存储基础知识、RAID 技术原理
【实训要求】
对学校存储设备中有多块硬盘进行建立 RAID5处理,提高磁盘利用率。
【实训流程】
……。