raid实验报告
- 格式:doc
- 大小:6.08 MB
- 文档页数:39
实验四磁盘阵列●实验目的通过磁盘阵列的配置,达到通过实践去学习网络存储技术中磁盘阵列RAID0、RAID1、RAID5标准的相关知识。
●实验要求要求各位同学在理解存储技术中磁盘阵列相关基础知识后能够独立动手完成此实验●实验原理介绍RAID:廉价冗余磁盘阵列,是Redundant Arrays of Independent Disks的简称,是在阵列控制器(软件或阵列卡硬件)的管理下,将多个磁盘集成到一起,形成一个整体存储系统的技术。
磁盘阵列可以分为软阵列和硬阵列两种。
软阵列就是通过软件程序来完成,要由计算机的CPU提供控制和运算能力,只能提供最基本的RAID容错功能。
而硬阵列是由独立操作的硬件(如磁盘阵列卡)提供整个磁盘阵列的控制和计算功能,卡上具备独立的处理器,不占用系统的CPU资源,所有需要的容错机制均可以支持,所以现实当中硬阵列所提供的功能和性能均比软阵列好。
作为高性能的存储技术,RAID的级别已经发展了很多种,但大多都是基于最常用的0、1、3、5四个级别(其他的RAID级别请各位实验完毕参考教材进行自学),本次重点介绍这四个级别。
RAID 0:是将多个磁盘(至少2个硬盘)并列起来,形成一个大的硬盘,不具有冗余功能,执行并行I/O读写,速度最快。
RAID0总容量=(磁盘数量)*(成员的磁盘容量)在存放数据时,其首先将数据按磁盘的个数来进行分段,然后同时将这些数据并行写进这些磁盘中。
如果发挥一下想象力,你就会觉得数据像一条带子一样横跨过所有的阵列磁盘,所以RAID0 又叫条带磁盘阵列目前在所有的RAID级别中,RAID 0的读写速度是最快的,但其没有任何冗余功能,即如果有一个磁盘(物理)损坏,则所有的数据都无法使用。
RAID1:两组相同的磁盘(至少2个硬盘)互作镜像,以镜像作为冗余手段,读写速度没有提高,但是可靠性最高,100%的数据冗余,它是在追求最高的安全性的基础上牺牲了大部分的性能,RAID 1就是镜像,其原理为在主硬盘上存放数据的同时也会在镜像硬盘上拷贝写入一份同样的数据。
研发部测试报告 raid卡功能测试验证文件编号:201912021517产品名称: RAID卡检验类别:研发测试受控状态:受控测试人:测试时间:2019/11/29 -2019/12/03测试地点:研发测试室测试产品:RAID 卡测试数量: 2测试型号及供应商: 9260-8I (SN:SV43882489)、9271-8I(SN:SK73972352)测试项目:质量及性能测试测试依据: 《产品配件入厂检验规范》《产品通用技术要求及交收检验规范》GB/T9813-2000《微型计算机通用规范》一、测试环境二、测试工具restart.sh、restart_write.sh、zftesthdspeed、zftesthdspeedwrite、a.txt、Burnin Test for Linux三、外观检查9260-8I:整体外观无脏污、破损、撞件9271-8I:整体外观无脏污;C2B11电容掉件、C416电容附近变色C2B11掉件:局部变色:整体外观:四、功能测试9271-8I :使用三块硬盘做Raid5;Raid 设置配置为write through 无cache ;安装系统到raid 硬盘组后安装Testhdspeed 、burnin test 进行raid 硬盘组的速度及稳定性测试,测试时间12H读取速度:写入速度:9260-8i:在启动界面及BIOS界面均识别不到raid卡,卡上报警红灯常亮。
五、测试结论9271-8i卡有掉件及过热局部变色现象;I/O速度测试正常,压力12H后稳定无死机、重启现象,此板卡功能性、稳定性均正常,可以正常使用。
9260-8i卡外观无损坏,在超微、Intel、华硕平台均识别不到,为个例不良品。
实验环境:Domain: IP: 192.168.2.0/24Server: FQDN: IP:192.168.2.254 Provide:DNS、DHCP、FTP,etc. Station1:FQDN: IP:192.168.2.1共有9块硬盘,sda 10GB为系统磁盘,sdb~sdi各1G,进行RAID实验。
如下图:对其分区(此步骤可省略)结果如下图:Station2:FQDN: IP:192.168.2.2下面的部分实验将会把Station1的RAID硬盘迁移到Station2中组装。
实验一:本地的RAID组装描述:在/etc/mdadm.conf文件损坏或丢失的情况下,并已知原raid的类型及所组成的硬盘名,来进行组装,使其正常运行。
步骤:1st: 首先创建一个RAID5.将sdb1,sdc1,scd1,sdf1组装一个包含一个热备盘的RAID5。
2ed: 使用命令查看RAID的状态。
3rd:生成/etc/mdadm.conf文件。
4th:手动停掉md0,再尝试启动。
成功启动。
5th:再次停掉md0,并将/etc/mdadm.conf改名,尝试启动6th:无法启动,因为已知RAID名为md0,且组成的硬盘为sdb1,sdc1,scd1,sdf1故可进行重新组装。
如下图:查看状态实验成功。
实验二:事件通知。
描述:当RAID出现问题时,发送邮件给指定帐户,这里我们将实验1中的RAID5损坏一块硬盘进行测试。
步骤:1st: 将邮件通知的命令写入/etc/mdadm.conf2ed:强制损坏/dev/sdc1实验成功。
如果RAID没有损坏,也可以测试邮件通知是否成功。
如下图:实验三:在线拉伸RAID。
描述:通常在实际生产环境中,随着数据量的不断增加,原有的RAID设备空间不足,所以要进行扩展,而又要保证服务器的正常运行,所以要在不中断服务器运行的情况下对RAID设备进行在线的拉伸。
同样在实验一的环境下进行,将该RAID5的大小由2GB扩大到3GB。
湖北文理学院《网络存储》实验报告专业班级:计科1211姓名:***学号:***任课教师:李学峰2014年11月16日实验01 Windows 2003的磁盘阵列技术一、实验目的1.掌握在Windows 2003环境下做磁盘阵列的条件和方法。
2.掌握在Windows 2003环境下实现RAID0的方法。
3. 掌握在Windows 2003环境下实现RAID1的方法。
4. 掌握在Windows 2003环境下实现RAID5的方法。
5. 掌握在Windows 2003环境下实现恢复磁盘阵列数据的方法。
二、实验要求1.在Windows 2003环境下实现RAID02.在Windows 2003环境下实现RAID13.在Windows 2003环境下实现RAID54.在Windows 2003环境下实现恢复磁盘阵列数据三、实验原理(一)磁盘阵列RAID技术的概述RAID是一种磁盘容错技术,由两块以上的硬盘构成冗余,当某一块硬盘出现物理损坏时,换一块同型号的硬盘即可自行恢复数据。
RAID有RAID0、RAID1、RAID5等。
RAID 技术是要有硬件来支持的,即常说的RAID卡,如果没RAID卡或RAID芯片,还想做RAID,那就要使用软件RAID技术,微软Windows系统只有服务器版本才支持软件RAID技术,如Windows Server 2003等。
(二)带区卷(RAID0)带区卷是将多个(2-32个)物理磁盘上的容量相同的空余空间组合成一个卷。
需要注意的是,带区卷中的所有成员,其容量必须相同,而且是来自不同的物理磁盘。
带区卷是Windows 2003所有磁盘管理功能中,运行速度最快的卷,但带区卷不具有扩展容量的功能。
它在保存数据时将所有的数据按照64KB分成一块,这些大小为64KB的数据块被分散存放于组成带区卷的各个硬盘中。
(三)镜像卷(RAID1)镜像卷是单一卷的两份相同的拷贝,每一份在一个硬盘上。
第1篇一、实验背景数据结构是计算机科学中一个重要的基础学科,其中队列作为一种常用的数据结构,在计算机科学和实际应用中具有广泛的应用。
队列是一种先进先出(FIFO)的线性表,它允许在表的一端进行插入操作,在另一端进行删除操作。
本实验旨在通过实现队列的基本操作,加深对队列数据结构概念和特性的理解,并掌握其在实际应用中的运用。
二、实验目的1. 理解队列数据结构的概念和特性。
2. 掌握队列的存储结构,包括顺序存储和链式存储。
3. 熟悉队列的基本操作,如入队、出队、队列长度、队列状态判断等。
4. 通过实际编程,提高数据结构应用能力。
三、实验内容1. 队列的顺序存储结构实现:- 定义队列结构体,包含队列长度、队列最大长度、队列首尾指针等。
- 实现队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。
2. 队列的链式存储结构实现:- 定义队列节点结构体,包含队列数据、指针等。
- 实现队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。
3. 队列的实际应用:- 使用队列实现广度优先搜索(BFS)算法。
- 使用队列实现单链表反转。
- 使用队列实现表达式求值。
四、实验步骤1. 创建队列结构体,定义队列的基本属性和操作函数。
2. 实现队列的顺序存储结构,包括队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。
3. 实现队列的链式存储结构,包括队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。
4. 通过实际编程,验证队列的基本操作是否正确。
5. 使用队列实现实际应用,验证队列在解决问题中的应用价值。
五、实验结果与分析1. 顺序存储结构实现:- 队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作均能正常进行。
- 队列的顺序存储结构在插入和删除操作时,需要移动队列中的元素,因此时间复杂度为O(n)。
2. 链式存储结构实现:- 队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作均能正常进行。
RAID实验的结果分析和实验未完成事项以及收获和感想通过以上实验的理论依据和实际操作,我们在团队的配合和努力下,顺利的完成了Matrix RAID的安装,并通过以上数据和图表记录的信息,得到了以下几点结论:1.BIOS的设置至关重要,首先把磁盘设置成为Matrix RAID格式,才可进行下面的实验。
2.Windows XP安装盘上必须有RAID驱动程序,否则无法安装。
在确保以上前提下,我们最终得到了以下数据在windows XPprofessional安装程序启动后,程序先开始格式化,然后系统将进行大约15分钟的格式化过程,完成该过程后,便是系统的安装读取过程,该过程中我们组做的比较顺利,该过程之后,便是xp系统的正式安装,如图1-2所示,在五步中,系统的安装花时间较长,约10分钟左右,之后,完成者五步便完成了基本的安装,下面需要对xp系统进行优化。
完成一系列的安装之后,重启电脑,便可以顺利的进入xp系统。
之后需要对RAID进行测试,测试结果如图1-3 1-4所示测试一从图中的数据中,我们可以看出,随机访问是11.9ms,CPU的占用率是0%,平均读盘速度是111.1MB/s,突发传输速度是227.2MB/s。
与普通的想比较我们可以看到,平均读盘比普通高56MB/S.超出一倍。
突发速度比普通高99MB/s,超出88%左右。
可以明显的看出,该模式优于普通模式。
测试二从该表我们可以看到,随机访问的时间是15.4ms,平均传输是55.3MB/s突发传输速度是128.6MB/s。
测试三从该图中我们可以看出,平均读取时间17ms cpu使用率o%,平均读取速度65.9MB/s,突发速度为136.5Mb/s。
比普通的大2mb/s。
可见效果佳于普通。
以上几组测试都说明了RAID模式下的优越性。
可以明显的感觉到速度的提升。
完成该实验重要点在于1、BIOS设置2、Intel Matrix Storage Manager Option ROM设置3、盘上是否有RAID驱动程序4、Matrix RAID 性能测试实验需要团队的配合和分工,也需要很好的耐心和信心。
计算机系统结构实验报告班级实验日期实验成绩学号实验名称计算机系统结构实验5(磁盘、固态盘仿真)实验目的、要求编译Disksim,测试单个磁盘的性能(Response time)配置RAID0、RAID1、RAID5并做性能测试探究性实验(2选1)实验容、步骤及结果一、编译D ISKSIM,测试单个磁盘的性能(R ESPONSE TIME)测试某个磁盘,cheetah4LP.parv../src/disksim cheetah4LP.parv cheetah4LP.outv validate cheetah4LP.trace 0 查看相应的outv文件,获取响应时间结果,使用grep命令得到grep "IOdriver Response time average" cheetah4LP.outv二、配置RAID0、RAID1、RAID5并做性能测试(1)RAID5:为了方便对性能进行比较,进行如下的参数修改:保存为synthraid5.parv,并进行测试(2)RAID0:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid0.parv,并进行测试(3)RAID1:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid1.parv,并进行测试结论:通过测试我们可以发现在有效存储容量相同的情况下,RAID0使用的时间最少,速度最快。
三、探究性实验(2选1)设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性参数包括盘数,条带大小。
◎敏感性指:给定负载,其性能是否会随着参数变化而剧烈变化?◎看上去完全没变化?注意负载强度是否足够。
这里我们选择RAID5模式进行测试。
(1)条带大小一定,磁盘数改变此时(Stripe unit = 64,Parity stripe unit = 64)磁盘个数7个8个9个10个11个设备有效容量12336048 14392056 16448064 18504072 20560080 Synthetic结21.657719 20.865686 20.332438 19.923599 19.728367果2014.436976 1355.984474 1019.857911 882.827067 676.563854 Financial结果从一二两幅图中我们可以看到性能受磁盘个个数影响明显,对参数磁盘个数敏感,随着磁盘个数的增加,花费的时间减少。
indows VM中RAID5的创建实训报告一、【实验目的】(1)学会在windows和Linux环境下构建软件RAID环境,并且实现RAID1和RAID5。
(2)比较理解RAID1和RAID5的异同,深刻掌握不同RAID的性能比较。
二、【实验设备】Windows Server2016系统、Linux三、【实验要求】学会在Windows server系统下创建RAID环境,掌握用命令行在Linux系统下创建RAID环境。
四、【实验步骤】(一)在Windows server系统下创建RAID环境,并实现RAID1和RAID5。
首先建立五个5g的磁盘。
打开虚拟机设置。
硬件——设备——硬盘——添加选择SCSI。
创建新虚拟磁盘。
磁盘大小设为5g,选择将虚拟磁盘存储为单个文件。
选择一个合适的地方存储,命名为experience Windows Server 2016-0这样就完成了一个磁盘的建立,接下来再按照上述方法创建四个。
打开磁盘管理,发现这五个磁盘属于脱机状态。
右键——联机再次右键——初始化磁盘。
这时就可以建立卷了。
除了这样直接用之外,还可以输入命令让磁盘脱机和清除磁盘属性。
打开cmd,进入diskpart界面,list disk 表示查看磁盘状态,select disk 2表示选择磁盘2进行操作,online disk表示使磁盘2联机,attr disk clear readonly表示删除磁盘属性。
这样设置完再进入磁盘管理,会自动弹出弹窗,让你进行初始化。
我们直接点击确认即可。
右键选择磁盘0——新建镜像卷。
(要注意此时要有两个已经初始化好的磁盘才可以建立镜像卷,因为RAID 1最少要两个磁盘。
从左边再选择一个磁盘,这样右边就有两个,符合建立RAID1的标准。
随便选一个磁盘驱动器号。
命名为RAID1,并且勾选快速格式化。
成功创建。
接下来创建RAID5,首先要有三个初始化好的磁盘,因为RAID5的建立至少要3个磁盘。
Linux下RAID实验【实验环境】Linux实验台【实验内容】创建RAID 0和RAID 1创建RAID 5并测试其有效性【实验原理】一、Linux下的RAIDLinux系统在安装的过程中就可以使用RAID。
在使用当中,利用一些工具,可以实现比Windows还要强大得多的功能,比如RAID 0+1和RAID 0+5。
在Linux下既可以对整块硬盘做RAID,也可以对其某一个分区做RAID。
Linux下常用来做软RAID的工具主要有两个:一个是mdadm,另一个是raidtools。
在本实验中我们选用了mdadm。
在Linux下利用mdadm为非启动盘做软RAID比较简单。
在实验步骤中,分别给出了Linux 下RAID 0、RAID 1和RAID 5的制作过程,希望学生根据RAID 0+1的原理和提示,自己完成RAID 0+1和RAID 0+5的制作。
与Windows不同,Linux的主硬盘(系统所在硬盘)也支持软RAID 1,但相对非主硬盘来说制作过程要复杂得多。
它不但要详细设置mdadm,还要设置启动管理器GRUB。
在制作过程中还要将主硬盘上的内容完全复制到它的镜像盘,时间较长。
二、mdadm说明(一)m dadm的7种主要操作方式(1)create创建一个带超级块的磁盘阵列。
(2)assemble将之前建立的磁盘阵列变为活跃的(active)。
(3)build用于创建没有超级块的磁盘阵列。
(4)manage用于对在一个磁盘阵列上的一个或多个设备做一些操作,如添加(add)、移除(remove)和使失败(fail),还包括以下功能:run/stop/readonly/readwrite。
(5)misc用于对单个设备的操作,它们可能是磁盘阵列的几部分,所以是零超级块,检测可能是适当的。
它们可能是md阵列,因此run,stop,rw,ro,detail这些操作也是可以的。
(6)monitor查看磁盘阵列并显示改变。
课程实验报告课程名称:计算机组成原理专业班级:计算机科学与技术1107班学号:姓名:指导老师:报告日期: 2013-11-2计算机科学与技术学目录【实验环境】 (1)【实验内容】 (1)【实验原理】 (1)【实验步骤】 (3)(1)创建RAID 0 (5)Raid0的速度测试 (9)创建RAID 1 (10)Raid1的使用 (13)Raid1的速度测试 (14)Raid1故障测试: (16)创建RAID 5 (19)Raid5的使用 (21)Raid5的速度测试 (22)RAID5故障测试 (24)Raid阵列速度的说明。
(31)【实验思考】 (32)Raid0+1 (32)查看raid (33)速度测试 (34)Raid0+5 (34)查看Raid0+5信息 (35)Raid0+5速度测试 (36)实验体会 (36)【实验环境】Linux虚拟机【实验内容】创建RAID 0和RAID 1创建RAID 5并测试其有效性【实验原理】一、Linux下的RAIDLinux系统在安装的过程中就可以使用RAID。
在使用当中,利用一些工具,可以实现比Windows还要强大得多的功能,比如RAID 0+1和RAID 0+5。
在Linux 下既可以对整块硬盘做RAID,也可以对其某一个分区做RAID。
Linux下常用来做软RAID的工具主要有两个:一个是mdadm,另一个是raidtools。
在本实验中我选用了mdadm。
在Linux下利用mdadm为非启动盘做软RAID比较简单。
在实验步骤中,分别给出了Linux下RAID 0、RAID 1和RAID 5的制作过程。
RAID0:RAID0并不是真正的RAID结构,没有数据冗余,RAID0连续地分割数据并并行地读/写于多个磁盘上。
因此具有很高的数据传输率,但RAID0在提高性能的同时,并没有提供数据可靠性,如果一个磁盘失效,将影响整个数据。
因此RAID0不可应用于需要数据高可用性的关键应用。
RAID1:RAID1通过数据镜像实现数据冗余,在两对分离的磁盘上产生互为备份的数据。
RAID1可以提高读的性能,当原始数据繁忙时,可直接从镜像中读取数据。
RAID1是磁盘阵列中费用最高的,但提供了最高的数据可用率。
当一个磁盘失效,系统可以自动地交换到镜像磁盘上,而不需要重组失效的数据。
RAID5:RAID5没有单独指定的奇偶盘,而是交叉地存取数据及奇偶校验信息于所有磁盘上。
在RAID5上,读/写指针可同时对阵列设备进行操作,提供了更高的数据流量。
RAID5更适合于小数据块,随机读写的数据。
RAID3与RAID5相比,重要的区别在于RAID3每进行一次数据传输,需涉及到所有的阵列盘。
而对于RAID5来说,大部分数据传输只对一块磁盘操作,可进行并行操作。
在RAID5中有“写损失”,即每一次写操作,将产生四个实际的读/写操作,其中两次读旧的数据及奇偶信息,两次写新的数据及奇偶信息。
二、mdadm说明(一)mdadm的7种主要操作方式(1)create创建一个带超级块的磁盘阵列。
(2)assemble将之前建立的磁盘阵列变为活跃的(active)。
(3)build用于创建没有超级块的磁盘阵列。
(4)manage用于对在一个磁盘阵列上的一个或多个设备做一些操作,如添加(add)、移除(remove)和使失败(fail),还包括以下功能:run/stop/readonly/readwrite。
(5)misc用于对单个设备的操作,它们可能是磁盘阵列的几部分,所以是零超级块,检测可能是适当的。
它们可能是md阵列,因此run,stop,rw,ro,detail这些操作也是可以的。
(6)monitor查看磁盘阵列并显示改变。
(7)grow允许改变一个磁盘阵列的关键属性,比如大小,设备数量等。
(二)create/build常用操作create/build常用操作如下表所示。
参数或选项说明--add或-a 添加或热添加磁盘--fail或-f 将RAID中的磁盘标记为已坏--remove或-r 从RAID中移除磁盘(注意:只有先将磁盘标识为已坏,才能移除) --set-faulty --fail功能相同--run或-R 开始运行一个已创建的阵列--stop或-S 停止运行一个阵列,释放它所有的磁盘资源--readonly或-o 标记阵列为只读--readwrite或-w 标记阵列为可读写--zero-supterblock 从一个设备中去掉MD超级块--raid-disks 创建RAID时需要用到的硬盘或分区数--spare-disks 创建RAID时作用侯补的硬盘或分区数,当组RAID的硬盘或分区出现问题被取下时,被设定为修补的硬盘或分区会自动补缺。
三、mdadm命令示例(1)利用sdb1,sdc1,sdd1创建一个RAID 1名为md0,其中sdb1和sdd1是组成md0的磁盘,sdc1是md0的备份盘,如果sdb1或sdd1出现问题,系统会自动将sdc1顶替该磁盘,使md0重归于完整。
具体命令如图所示。
(2)停止md0的运行,并释放它的所有资源:mdadm --stop /dev/md0。
(3)查看md0详情:mdadm --detail /dev/md0。
(4)将md0中的sdb1标记为已坏:mdadm /dev/md0 --fail /dev/sdb1。
(5)将sdb1移除出md0:mdadm /dev/md0 --remove /dev/sdb1。
(三)mdadm配置文件为了保证在每次重启系统时,RAID都能正常运行,需要创建或修改/etc/mdadm.conf文件,将RAID的信息写入文件的最下方。
写入信息包括RAID用到的硬盘和组成方式,上面示例的配置文件写法如图2.5.5-2所示。
【实验步骤】一、添加磁盘进入Linux虚拟机界面,点击“虚拟机硬盘设置”。
然后以相同的方式添加七块硬盘。
在弹出的对话框中设置添加硬盘的路径并设置磁盘大小442G(学号),如图所示,然后单击“下一步”直到完成。
相同方法,共添加七块虚拟硬盘。
完成后如下图:六块硬盘添加完成后,点击“开启此虚拟机”,进入Linux系统。
注意在实验过程中不要关闭虚拟机。
(1)创建RAID 0(1)Raid的搭建用到mdadm命令,因此我们先获取权限。
终端输入 sudo su 。
然后在控制台中输入命令:fdisk -l,查看当前系统硬盘情况。
观察各盘大小。
发现显示为47.2G ,和我们创建时的44G有点差别。
(2)为了用起来方便,我们采用sdb和sdc来创建RAID0。
首先对sdb和sdc格式化为创建raid的磁盘格式。
终端输入:fdisk /dev/sdb输入n进行选择。
输入t选择格式fd,不要忘记w保存。
对sdc同样操作。
格式。
(3)在控制台中输入命令:mdadm -C -v /dev/md127 -l0 -n2 /dev/sdb1/dev/sdc1如图所示。
Raid建立完成后会自动启动,因此不需要额外的操作。
(4)输入命令mdadm -D /dev/md0查看 RAID0 的信息。
如下图:(5)输入命令:cat /proc/mdstat查看目前磁盘阵列的运行情况,如图所示。
Raid0的使用(1)输入:fdisk -l /dev/md127,查看/dev/md127 设备是否存在,以及它的容量,它应该接近sdb和sdc两块硬盘大小之和,如图所示。
图中显示md127大小为94.5GB(2)创建文件系统。
输入mkfs.ext3 /dev/md127(3):挂载文件系统并使用输入命令:mkdir /softraid0mount /dev/md127 /softraid0df –l /dev/md127(4):RAID 的自动挂载,输入命令:gedit /etc/fstab 编辑文件,在下面加入:/dev/md127 /softraid0 ext3 defaults 0 0这样系统重新启动后会自动将/dev/md127 挂接到 /softraid0 目录下!Raid0的速度测试1.采用hdparm测试。
输入命令:hdparm -tT /dev/md127 经过多次测试,硬盘的读取效率稳定在540MB/sec左右,硬盘快取的读取效率稳定在2550M/sec左右。
2.采用系统自带的软件测试。
注:方法1和方法2测试的数据不一样。
RAID0的随机读取性能:很好RAID0的随机写入性能:很好RAID0的持续读取性能:很好RAID0的持续写入性能:很好RAID0的优点:最快的读写性能,如果每块硬盘拥有独立的控制器性能将会更好。
RAID0的缺点:任何一块硬盘出现故障所有的数据都会丢失,大部分的控制器都是通过软件实现的,所以效能并不好。
创建RAID 11.格式化磁盘sdd,sde。
2.在终端中输入命令:mdadm -C -v /dev/md126 -l1 -n2 /dev/sdd1 /dev/sde1。
如图所示。
3.输入命令mdadm -D /dev/md126查看 RAID1 的信息。
如下图:4.输入命令:cat /proc/mdstat查看目前磁盘阵列的运行情况,如图所示。
以RAID阵列有一个冗余组数据同步的初始化过程(resync)。
Raid1的使用(1)输入:fdisk -l /dev/md126,查看/dev/md126 设备是否存在,以及它的容量,它应该接近一块硬盘大小,如图所示。
图中显示md126大小为47.2GB(2)创建文件系统。
输入mkfs.ext3 /dev/md126(3):挂载文件系统并使用输入命令:mkdir /softraid1 ; mount /dev/md126 /softraid1df –l /dev/md126 将raid1挂载到softraid1文件夹下(4):RAID 的自动挂载。
输入命令gedit /etc/fstab 编辑文件,在下面加入:/dev/md126 /softraid1 ext3 defaults 0 0这样系统重新启动后会自动将/dev/md126 挂接到 /softraid1 目录下!Raid1的速度测试1.命令测试输入命令hdparm –tT /dev/md126 经过多次测试,速度稳定在500MB/sec左右。
2.软件测试RAID1的随机读取性能:好RAID1的随机写入性能:好RAID1的持续读取性能:一般RAID1的持续写入性能:好RAID1的优点:数据高可靠性,易于实现,设计简单。
RAID1的缺点:比RAID0相比速度较慢,特别是写入速度,另外就是我们仅仅能使用一半的硬盘容量。
Raid1故障测试:首先我们在raid1挂载的盘里面写入一个测试文档。