软RAID5阵列LVM逻辑卷实战数据恢复和阵列扩容
- 格式:pdf
- 大小:869.90 KB
- 文档页数:15
数据恢复需求2.1Linux IO存储栈图(1)Linux IO 存储栈Linux 的存储相关的栈包括如图1所示,最下方为各种硬件存储器,例如SATA,SAS,SSD等硬盘和磁带库等。
2.2存储故障2.2.1介质故障•磁盘消失,例如由于线缆或者网络问题造成的磁盘丢失或者ISCSI磁盘链接失败•磁盘坏道•偶发的硬件错误2.2.2错误操作包括误删除,格式化,重新分区等操作。
2.2.3RAID故障服务器上的硬盘比较多的应用了RAID(冗余磁盘阵列)来实现数据保护。
以多块硬盘环境下常使用的RAID 5为例,当损坏一块硬盘时数据不会受到影响,而这种情况下如果第二块硬盘再损坏(或者更换硬盘时拔错)就会丢失数据。
此时要注意硬盘掉线的先后顺序,如果将2块硬盘同时上线则会导致部分数据访问出错,正确的方法是先上线最后出问题的硬盘,看数据是不是我们想要的,再尝试之前掉线的硬盘进行比较。
有些RAID卡在插入掉线的硬盘时会自动尝试Rebuild(重建),这样就会损坏我们需要的数据,因此企业级数据恢复最好还是找专业的公司/人士来进行。
有的RAID卡还会出现硬盘完好,而RAID信息丢失的问题。
如果用户在运输服务器/磁盘阵列时,将硬盘拆出来单独运输,没有记录安装的顺序,也可能会导致数据无法访问。
2.2.4文件或者文件系统故障这部分属于高端的数据恢复技术,比如ext2、ext3、reiserfs、XFS…文件系统。
Linux/Unix的数据恢复难度较大一方面是由于这些文件系统结构复杂,另一方面则是有些厂商的相关资料不公开,比如IBM的AIX系统。
这样我们只能通过不断的摸索,积累经验来“破解”它们的结构,最终能够恢复上面的数据,或者提取出修改文件(属性)的访问记录等。
2.3存储部署对数据丢失的考虑•通常需要引入冗余(REDUNDANT)和备份(BAKUP)两种机制。
•RAID和MIRROR和最常见的存储冗余的实现方式,可以容忍介质故障等问题。
Linux RAID5 数据库恢复方案【故障描述】Red Hat RAID5,两块硬盘出现故障,导致RAID5崩溃,进入不了系统,上层数据库不能正常使用。
【解决方案】1、商务流程1、与北亚数据恢复中心签订数据安全救援服务协议、保密协议。
2、实施数据安全救援工作(见技术流程)。
3、进行数据验收A、验收成功:客户签字确认;在约定周期内,完成付款及开具发票流程。
提供后续数据保管、服务跟踪及技术咨询服务。
B、验收不成功,销毁中转数据及已恢复数据,移交设备。
2、技术流程1、前期备份流程A、在备份服务器中准备足够的空间,并将拔出的硬盘以只读方式接入到备份服务器中。
B、使用dd,Winhex等专业备份工具将完好的物理硬盘做全部镜像。
C、使用专业硬件工具对离线的两块硬盘进行只读镜像,两块离线硬盘可能是坏道较多或者是固件损坏,需要先跳过坏道或者修复固件在进行备份;如果这两块硬盘彻底损坏,请跳转到步骤5查看解决方案D、做完全部镜像后,之后的数据恢复操作均不对原始硬盘做任何操作2、重组RAIDA、分析损坏的RAID镜像文件,并依据数据在所有硬盘中的分布规律,找出RAID 条带大小及RAID走向。
B、根据分析得到的RAID信息,结合北亚自主开发的虚拟RAID程序将原始RAID 重组出来。
C、RAID重组完成后,分析数据逻辑卷情况利用开发的程序导出数据逻辑卷。
3、解析文件系统,导出数据库A、对导出的逻辑卷进行分析,并利用自主开发的文件系统解析程序对其进行文件系统解析。
B、校验文件系统是否完整,并对不完整的文件系统进行修复。
C、修复完成后,利用自主开发的程序将所有数据库文件全部导出。
D、把数据库文件移交数据库工程师检测和验证。
4、数据验证A、由用户主导对数据本身进行详细验证。
B、如发现新问题,重新检验上述所有恢复过程。
5、其他情况如果两块硬盘彻底损坏,无法进行只读镜像备份,就是只能从两块正常的硬盘中提取数据库的表结构、记录,以文件的方式存放在恢复服务器上,在重新建立oracle数据库环境,在把提取出来表结构、记录重新导入新的数据库中,这种情况提取出来的记录可能会有缺失,因为两块硬盘故障,会导致条带缺失。
RAID5扩容与数据还原RAID 5使用至少三块硬盘来实现阵列,它既能实现RAID 0的加速功能也能够实现RAID 1的备份数据功能,在阵列当中有三块硬盘的时候,它将会把所需要存储的数据按照用户定义的分割大小分割成文件碎片存储到两块硬盘当中,此时,阵列当中的第三块硬盘不接收文件碎片。
RAID 5也被叫做带分布式奇偶位的条带。
每个条带上都有相当于一个“块”那么大的地方被用来存放奇偶位。
与RAID 3不同的是,RAID 5把奇偶位信息也分布在所有的磁盘上,而并非一个磁盘上,大大减轻了奇偶校验盘的负担。
尽管有一些容量上的损失,RAID 5却能提供较为完美的整体性能,因而也是被广泛应用的一种磁盘阵列方案。
它适合于输入/输出密集、高读/写比率的应用程序,如事务处理等。
RAID 5使用至少三块硬盘来实现阵列,它既能实现RAID 0的加速功能也能够实现RAID 1的备份数据功能,在阵列当中有三块硬盘的时候,它将会把所需要存储的数据按照用户定义的分割大小分割成文件碎片存储到两块硬盘当中,此时,阵列当中的第三块硬盘不接收文件碎片,它接收到的是用来校验存储在另外两块硬盘当中数据的一部分数据,这部分校验数据是通过一定的算法产生的,可以通过这部分数据来恢复存储在另外两个硬盘上的数据。
另外,这三块硬盘的任务并不是一成不变的,也就是说在这次存储当中可能是1号硬盘和2好硬盘用来存储分割后的文件碎片,那么在下次存储的时候可能就是2号硬盘和3号硬盘来完成这个任务了。
可以说,在每次存储操作当中,每块硬盘的任务是随机分配的,不过,肯定是两块硬盘用来存储分割后的文件碎片另一块硬盘用来存储校验信息。
这个校验信息一般是通过RAID控制器运算得出的,通常这些信息是需要一个RAID控制器上有一个单独的芯片来运算并决定将此信息发送到哪块硬盘存储。
RAID 5同时会实现RAID 0的高速存储读取并且也会实现RAID 1的数据恢复功能,也就是说在上面所说的情况下,RAID 5能够利用三块硬盘同时实现RAID 0的速度加倍功能也会实现RAID 1的数据备份功能,并且当RAID 5当中的一块硬盘损坏之后,加入一块新的硬盘同样可以实现数据的还原。
RAID5的数据恢复(Windows)
应用场景:服务器的阵列信息丢失,如RAID控制器故障,服务器意外掉电,RAID成员盘物理故障或离线,人为误操作等导致的RAID 信息错误。
该数据恢复技术的市场价格:
一家数据恢复公司的报价(2020年8月10日)
我使用了四个600G磁盘,RAID5崩溃恢复的价格为4×1500 = 6000,而没有考虑其他情况。
希望这个市场价格能使您更有耐心地阅读本文。
本文需要使用以下四个知识点:
1. raid的基本概念(简单)
2. Windows下的文件系统结构(耗时)
3. Winhex的一些基本用法(简单)
4. RAID5重组需要手动计算以下信息(常规)
突袭起始扇区,磁盘顺序,条带大小,检查方向和数据方向。
实验场景:
将公司服务器与四个硬盘一起使用以形成RAID5。
安装系统后,在D 和E盘中存储一些文件后删除阵列,或者在服务器工作时拔出两个硬盘,可以实现RAID5崩溃。
恢复过程:服务器的RAID崩溃。
正常过程的第一步是删除RAID,即删除硬盘并将其与PC连接,然后对其进行分析。
但是,实验条件不允许这样做。
我是一台来自远程公司的服务器,在这种情况下,我不允许将硬盘移至其他计算机上进行分析。
在服务器阵列崩溃的前提下,我首先删除服务器的阵列信息,然后将所有四个硬盘的工作状态更改为JBOD。
此方法等效于对RAID使用软方法,其目的是检测PE下的四个硬盘。
(由远程强制,无奈。
此方法仅用于测试,请勿模仿)
重点是RAID5的数据恢复。
为了创建RAID5并重新安装系统,我将使用一些图片跳过它。
RAID5磁盘阵列数据恢复作者:李清来源:《中国新通信》2013年第10期【摘要】当只有一块磁盘损坏时,RAID5磁盘阵列能通过其它正常运行的磁盘进行异或运算换算出故障磁盘的数据信息,从而保证磁盘阵列存贮信息的完整。
通过研究RAID5结构和数据重组的规律,发现两个以上磁盘同时出现故障或RAID卡失效,也可以恢复故障磁盘阵列的数据。
本文尝试了将RAID5故障磁盘阵列中的磁盘分别制作为磁盘镜像文件,对有故障的磁盘镜像文件进行数据恢复后,按照数据重组原理将这些磁盘镜像文件重组为RAID5镜像盘,成功恢复了图书馆文献管理服务器RAID5故障磁盘阵列中的数据。
【关键词】RAID5数据重组磁盘镜像数据恢复RAID5是一种存储性能、数据安全和存储成本兼顾的存储解决方案,被广泛应用于较重要数据存贮。
RAID5校验位算法原理为:假设RAID5由以块磁盘组成,那么校验位P=D1 XOR D2 XOR D3…XOR Dn(D1,D2,D3…Dn为数据块,P为校验块,XOR为异或运算),如果i号磁盘失效,也就是Di数据块的数据丢失,则通过D1,D2,D3…P,Dn它们之间的异或运算重新计算出来,即Di=D1 XOR D2 XOR D3…XOR P XOR Dn一1[1]。
该原理论证了一个驱动器失效状态下,RAID5磁盘阵列的数据是可以恢复的。
为了挽救数据,对RAID5的结构和数据重组原理进行了深入研究,发现以扇区为单位来描述磁盘数据时,同一扇区的错误小于或等于1,该扇区的完整信息可以通过数据重组和异或运算得以恢复。
据此原理,采用磁盘镜像技术将RAID5故障阵列的磁盘分别制作为磁盘镜像文件,利用磁盘恢复软件对有故障的磁盘镜像文件进行扇区故障修复,最后根据数据重组原理将磁盘镜像文件重组为RAID5镜像盘,可以恢复两个以上驱动器同时出现故障或RAID卡失效的原阵列数据。
一、RAID5结构和数据重组1.1RAID5结构RAID5阵列中的数据是分布到每块硬盘上,RAID5中每个条带组中总有一个条带是校验块[2]。
通过RHEL 5实现软RAID及LVM - [Linux service]版权声明:转载时请以超链接形式标明文章原始出处和作者信息及本声明/logs/34006500.html文章出于:IT168RAID是Redundant Array of Inexpensive Disk的缩写,意为廉价冗余磁盘阵列,是磁盘阵列在技术上实现的理论标准,其目的在于减少错误、提高存储系统的性能与可靠度。
常用的等级有0、1、5级等。
◆RAID 0RAID 0将数据分条,存储到多个磁盘中,不带任何冗余信息。
数据被分割成块,继续分布到磁盘中。
这一级别也被认为是纯粹的数据分条。
创建RAID 0 需要一个或多个磁盘。
也就是说,单独的一个磁盘可以被认为是一个RAID 0 阵列。
不幸的是,数据分条降低了数据的可用性,如果一个磁盘发生错误,整个阵列将会瘫痪。
优点:易于实现、无容量损失-所有的存储空间都可用缺点:无容错能力、一个磁盘出错导致损失所有阵列内的数据◆RAID 1RAID 1适合性能要求较高又需要容错功能的阵列。
另外,RAID 1是在只有少于2个磁盘的环境下支持容错功能的唯一选择。
RAID 1至少要有两个(只能两个)硬盘才能组成,因此也称为镜像(Mirroring)方式。
所谓镜像就是每两个硬盘的内容一模一样,但是对操作系统而言只呈现一个硬盘,以便于管理。
由此可见,RAID 1对数据进行了完全的备份,其可靠性是最高的。
当然,其数据的写入时间可能会稍长一点,但因为两个镜象硬盘可以同时读取数据,故读数据与RAID 0一样。
磁盘阵列的总容量为其中N/2块硬盘的容量在RAID 级别中,RAID 1通过数据镜像提供了最高的信息可用性。
另外,如果阵列支持数据和镜像的同时读取,读取信息的性能将会提高。
优点:读取性能较单磁盘高缺点:需要2倍的存储空间◆RAID 5RAID 5 是在多用户,对数据写入的性能要求不高的环境下的最好选择。
然而,它要求至少3个磁盘来执行。
RAID磁盘阵列数据恢复Write by kernel()RAID技术是目前服务器使用较多的一种数据存储技术,它在存储容量、存储安全和存储速度上都有一定的优势。
但是RAID磁盘阵列一旦出现故障,给用户带来的损失也往往最为惨重。
对于服务器来说最常见的就是磁盘物理故障和RAID卡故障。
一旦发现RAID阵列出现故障,不要轻易尝试Rebuild、同步等操作,更不要初始化硬盘。
通过正确的操作是可以帮助你把损失降到最低的。
运气好还可以让服务器“起死回生”。
尽管各个厂家RAID卡的操作界面不一样,但是恢复原理基本是一样的。
下面是我对HP LH3服务器RAID损坏后的一次数据恢复经历,希望能对大家有所帮助。
这是一台HP LH3的PC服务器,磁盘阵列为RAID-5。
超期服役5年多了,相信有不少网管也和我一样每天都在为这些“老爷车”提心吊胆,因为时间长了,不定哪天就死翘翘了,这样的“好事”还就让我碰到了。
上周四这台跑SQLSERVER应用的HP LH3服务器突然宕机了。
鼠标、键盘均无响应,没有任何错误提示,以为是正常的死机了,Reset重新启动,服务器自检的时候提示“Logic disk failed”,硬盘都没有发现,看来是RAID出问题了。
于是就决定查看RAID配置是否正常,重新启动当系统自检到RAID卡时,按照提示按CTRL+M进入HP NETRAID Express Tool界面,不同品牌的服务器RAID卡不一样,进入的方式也不一样,,需要自己注意。
下图是进入HP NETRAID Express Tool界面的提示:“Objects”---->“Physical Drive”如下图:的是可以去买彩票了。
RAID5两块硬盘同时损坏的情况是不常见的,因为RAID卡通常都有自保护动作的。
比如RAID-5阵列,当阵列卡发现有一块硬盘出现问题的时候,会自动 Degrade(降低RAID级别),系统自检的时候也会出现Degrade提示,这样可以降低风险。
raid5数据恢复应用场景:服务器的阵列信息丢失,比如RAID控制器故障,服务器因意外断电导致RAID信息出错,RAID成员盘出现物理故障或离线,人为误操作等。
该文需要用到以下4个知识点:1. RAID的基本概念(简单)2. Windows下文件系统结构(费时)3. Winhex的一些基本用法(简单)4. 重组RAID5需要手工计算以下信息(一般)Raid开始扇区,盘序,条带大小,校验方向,数据方向。
实验场景:使用公司一台服务器,4块硬盘组成RAID5,安装好系统,在D,E 盘存放一些文件后,删除阵列,或者在服务器工作时,拔出两块硬盘,即可实现RAID5崩溃。
恢复流程:一个服务器的RAID崩溃了,正常流程第一步是去RAID化,也就是将硬盘拆下与PC机连接,然后进行分析。
但实验条件不允许,我是在家远程公司的服务器,条件不允许我将硬盘拆下到其他机器进行分析。
在服务器阵列已经崩溃的前提下,我先删除服务器的阵列信息,然后将4块硬盘的工作状态全部更改为JBOD(直通),这个办法相当于使用软方法去RAID了,这么做的目的是为了在PE下检测到4块硬盘。
(迫于远程,无奈。
该办法仅为测试所用,切勿模仿)简单阐述下RAID5,熟悉的小伙伴可以跳过。
实际接触过RAID5的小伙伴应该知道组成一个RAID5至少需要三块盘,RAID5支持一块盘故障,不丢失数据。
三块有1T的盘组成RAID5实际空间为2T。
为了更好的理解RAID5,先思考以下两个问题。
1:为什么组成一个RAID5至少需要3块?2:为什么任意一块盘故障,数据不丢失?想要理解这两个问题,必须要了解XOR校验。
逻辑盘指的就是通过RAID5组成的磁盘,物理盘中的P指的是XOR 校验数据,校验数据是每块磁盘分别存放,这样就是实现了任意一块硬盘故障,都可以通过剩余磁盘计算出故障盘的数据。
这也就是3块1T组成的RAID5为什么只有两T的。
为什么RAID5至少需要三块,XOR校验计算两块盘根本无法实现。
数据恢复需求2.1Linux IO存储栈图(1)Linux IO 存储栈Linux 的存储相关的栈包括如图1所示,最下方为各种硬件存储器,例如SATA,SAS,SSD等硬盘和磁带库等。
2.2存储故障2.2.1介质故障•磁盘消失,例如由于线缆或者网络问题造成的磁盘丢失或者ISCSI磁盘链接失败•磁盘坏道•偶发的硬件错误2.2.2错误操作包括误删除,格式化,重新分区等操作。
2.2.3RAID故障服务器上的硬盘比较多的应用了RAID(冗余磁盘阵列)来实现数据保护。
以多块硬盘环境下常使用的RAID 5为例,当损坏一块硬盘时数据不会受到影响,而这种情况下如果第二块硬盘再损坏(或者更换硬盘时拔错)就会丢失数据。
此时要注意硬盘掉线的先后顺序,如果将2块硬盘同时上线则会导致部分数据访问出错,正确的方法是先上线最后出问题的硬盘,看数据是不是我们想要的,再尝试之前掉线的硬盘进行比较。
有些RAID卡在插入掉线的硬盘时会自动尝试Rebuild(重建),这样就会损坏我们需要的数据,因此企业级数据恢复最好还是找专业的公司/人士来进行。
有的RAID卡还会出现硬盘完好,而RAID信息丢失的问题。
如果用户在运输服务器/磁盘阵列时,将硬盘拆出来单独运输,没有记录安装的顺序,也可能会导致数据无法访问。
2.2.4文件或者文件系统故障这部分属于高端的数据恢复技术,比如ext2、ext3、reiserfs、XFS…文件系统。
Linux/Unix的数据恢复难度较大一方面是由于这些文件系统结构复杂,另一方面则是有些厂商的相关资料不公开,比如IBM的AIX系统。
这样我们只能通过不断的摸索,积累经验来“破解”它们的结构,最终能够恢复上面的数据,或者提取出修改文件(属性)的访问记录等。
2.3存储部署对数据丢失的考虑•通常需要引入冗余(REDUNDANT)和备份(BAKUP)两种机制。
•RAID和MIRROR和最常见的存储冗余的实现方式,可以容忍介质故障等问题。
软RAID5阵列LVM逻辑卷实战数据恢复和阵列扩容
VMware6+RHEL5
先在虚拟机VMware6下配置6块SCSI硬盘,并在第一块硬盘上安装好Red Hat AS5操作系统,软RAID5阵列的创建和维护通过命令行操作,因此没有配置X-Windows窗口操作在ssh 终端完成。
用fdisk -l 命令查看一机器已识别出来的硬盘情况,可以看到/dev/sdb[c、d、e、f]盘还没有进行分区;
用其中的3块(sdb、sdc、sdd)盘组建一个RAID5阵列,软RAID是建立在磁盘分区上的,因此在创建RAID阵列前先要给磁盘分区,且分区类型是Linux的软RAID分区;使用fdisk /dev/sdb[c、d]分别给三块盘进行分区,并指定分区类型为Linux raid autodetect分区。
键入命令fdisk /dev/sdb 提示一些信息,然后键入m查看fdisk区分命令帮助。
这里要创建分区,键入n,提示创建分区类型e扩展分区p主分区,键入p创建主分区,键入1创建第一个主分区,这里只创建一个主分区使用全部磁盘空间,因此分区的起始位置默认;
将创建的主分区设置为软RAID分区类型,因此键入t命令,提示输入分区类型16进制代码,没有人能记住键入L查看一下,Linux raid atuo区分类型的16进制代码是fd;
键入fd,最后键入w保存并退出fdisk,分区完成,重复操作完成其它磁盘的分区创建;
分区完成后再键入fdisk -l 命令看一下分区是否已创建,DOS下可能提示你需要重新启动分区才有效,如果你不放心可重新启动一下,Linux不用重启可继续下面的任务;
可以看到/dev/sdb1[c1、d1、e1、f1]的分区已创建,下面开始创建软RAID阵列;这里创建RAID5阵列先使用/dev/sdb1[c1、d1]三个盘(实际是分区);键入mdadm -–create /dev/md0 –-level=5 –-raid-devices=3 –c128 /dev/sdb1 /dev/sdc1 /dev/sdd1命令;
命令详见:mdadm 是软RAID的管理工具,--create 参数指定创建的阵列,后边跟要创建的阵列设备名/dev/md0 ,--level 参数指定阵列的级别,5(RAID5)或1(RAID1),--raid-devices 参数指定组成阵列组的设备数量和设备列表,=3表示由3个设备组成,后边跟设备名列表,每个设备之间用空格分开/dev/sdb1 /dev/sdc1 /dev/sdd1 ;创建成功提示array /dev/md0 started.并自动开始同步;
键入mdadm --detail /dev/md0 命令查看阵列的当前详细状况,给出阵列组创建时间,当前状态等信息;clean状态良好,degraded状态降级,recovering状态恢复;图中给出的创建后同步状态,Rebuild Statues 完成3%.
键入watch –n 3 ‘cat /proc/mdstat’命令每隔3秒(如果你盘比较大重建过程会较长,自己掌握刷新时间)刷新打印一次/proc/mdstat文件(RAID阵列的当前状态),可实时监视重建过程,键入Ctrl+C退出。
同步完成后再次键入mdadm -–detail /dev/md0 命令查看一下RAID5阵列的状态,已经是clean良好状态了,下面就可以在md0设备上建文件系统了;
如果你感觉每次启动都执行mount命令太麻烦的话,修改/etc/fstab文件,把/dev/raid5vg/raid5lv的挂载信息写进去吧,这样启动后就自动挂载了;
下面我们模拟一个磁盘损坏/dev/sdc1设置为fail或在虚拟机上把它删了(注意直接删可能重排列SCSI设备,最好是删了重新再添加一个新的虚拟磁盘,这样你应该放心了,一个盘的数据丢失,看看软RAID5是否能找回来);如图/dev/sdc的确是一个新磁盘,还没有任何分区
此时查看一下RAID5阵列的状态,键入mdadm --detail /dev/md0命令;发现/dev/sdc1设备被删除,阵列状态为clean,degraded状态;文件没有丢失,/raid目录下的文件可用,阵列组仍处于工作状态;
给新的/dev/sdc设备进行分区(略),然后添加到阵列组中,恢复RAID5阵列;将已分好区的/dev/sdc1分区添加到阵列中,
#mdadm [--manage] /dev/md0 --add /dev/sdc1 //添加sdc1到阵列;
软RAID阵列在运行状态能进行热维护,[--manage]参数省略认为是阵列的管理
操作;
重看阵列恢复状态,/dev/sdc1磁盘的状态为spare rebuilding,阵列状态为clean,degraded,recovering状态;
用户watch命令监视恢复进度;完成后再次查看阵列状态阵列已恢复到clean状态;
某些情况下磁盘的空间可能不够用了需要扩充容量,这里介绍如何向已建好的RAID5阵列中添加磁盘的操作(数据很多时没有实践过,不过我建议如果你能备份数据的话,最好在扩容前备份数据);准备好扩容的磁盘分区(略),键入mdadm /dev/md0 --add /dev/sde1[f1]命令,添加设备到阵列,这里一次添加了两个其中一个做备用;
这时阵列一共有5个磁盘组成,其中3块处于active sync状态,剩下两块处于spare状态(说明:在创建阵列时使用--spare-devices参数可指定备用盘);
#mdadm --grow /dev/md0 --raid-devices=4命令,使阵列设备由原来的3个增加到4个;
--grow更改参数模式;
详见man mdadm.
键入mdadm --detail /dev/md0 命令查看阵列状态;可以看到阵列已经有4个设备了,当前处于clean,recovering状态,reshape重建阵列中;
使用watch命令监视reshape重建进度;完成后阵列的容量已扩充
RAID5组的容量由原来的4GB扩充到6GB了,文件系统是建立在LVM上的,因此还需要对逻辑卷进行扩容,最后使文件系统在线(mount状态下)进行容量扩充;用pvdisplay命令查看物理卷的情况(重启一下系统否则pv看不到容量扩充),可以看到还有剩余没有分配的空间(RAID5扩容后),键入pvresize /dev/md0 命令将剩余的空间全部(可加参数指定再分配的空间大小)分配给物理卷;
#pvresize /dev/md0
然后要调整逻辑卷的大小:
#lvresize –l +512 /dev/raid5vg/raid5lv
//使逻辑卷再增加512块(2GB空间);
最后就是调整文件系统的大小了,使用resize2fs /dev/raid5vg/raid5lv 命令(可能提示你先
运行e2fsck先进行检测),调整逻辑卷上文件系统大小;
#resize2fs /dev/raid5vg/rai
d5lv
完成回再用df -h命令看一下磁盘空间,/raid空间已就增加到6GB了,还可以再看看你的文件是否可用;
#df -h
至此,在Linux AS5上配置RAID5并创建LVM,实现阵列扩容和存储容量扩充就介绍完。
附录:
删除md0后,需要重新建立,使用下面命令
#mknod /dev/md0 b 9 0
删除raid的操作过程
1.删除所有raid对应的磁盘或分区
#mdadm /dev/md0 --fail /dev/sdb --remove /dev/sdb1
#mdadm /dev/md0 --fail /dev/sdc --remove /dev/sdc1
#mdadm /dev/md0 --fail /dev/sde --remove /dev/sde1
#mdadm /dev/md0 --fail /dev/sdf --remove /dev/sdf1
2.停止raid
#mdadm --stop /dev/md0
3.清空磁盘(分区)超级块中的raid信息
#mdadm --misc --zero-superblock /dev/sdb1
#mdadm --misc --zero-superblock /dev/sdc1
#mdadm --misc --zero-superblock /dev/sdd1
#mdadm --misc --zero-superblock /dev/sdf1。