Linux 软raid 1如何规划与灾难恢复方案

1.为何是软raid呢?
Linux 十分适合在中小企业应用,因为价格、系统的稳定性、硬件的成本比起其它操作系统都是十分有优势的,但是管理Linux的人才比较缺,或者这么说吧中小企业要请个Linux管理员不好找。(当然是薪金的问题)其实软raid对于CPU的性能要求比较厉害,但以现在的硬件发展速度,软raid绝对有优势。
2.软raid的优点
我总结了软raid的一些优点:廉洁的数据安全方案、适合各种硬件设备、Linux核心自带功能,不像硬raid重新安装启动程序,不用当心是否支持操作系统、有管理工具查看软raid的状态。
3.软raid的缺点
CPU占用率高、读写速度不如硬raid、灾难恢复复杂、灾难恢复速度不如硬raid。
一  以软raid1方式安装EMOS 1.5 (内部版本)
先看看这篇文章,我觉得还不错哦~~
http://blog.chinaunix.net/u2/82278/showart_2018616.html
看看我的分区
我在VirtualBox下虚拟了两个10G硬盘打算安装Extmail邮件系统,划分如下。
/dev/sda1   /boot
/dev/sdb4   /boot1
/dev/md0   (swap)   [/dev/sda2(512MB)]  [/dev/sdb3 (512MB)]
/dev/md1   (/)          [/dev/sda3(2GB)]      [/dev/sdb2(2GB)]
/dev/md2   (/home) [/dev/sda4(7.2GB)]   [/dev/sdb1(7.2GB)]
Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        1293        1305      104422+  83  Linux
/dev/sda2            1228        1292      522112+  fd  Linux raid autodetect
/dev/sda3             967        1227     2096482+  fd  Linux raid autodetect
/dev/sda4               1         966     7759363+  fd  Linux raid autodetect
Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1         966     7759363+  fd  Linux raid autodetect
/dev/sdb2             967        1227     2096482+  fd  Linux raid autodetect
/dev/sdb3            1228        1292      522112+  fd  Linux raid autodetect
/dev/sdb4   *        1293        1305      104422+  83  Linux
二 备份boot loder
# dd if=/dev/sda1 of=/dev/sdb4
三 模拟磁盘故障
这里我们模拟第一支硬盘故障坏掉了,我们的 “/” “/home” 都制作了raid1 所以如果第一支硬盘故障坏掉对于操作系统是没有特别影响。
mdadm –manage /dev/md1 -f /dev/sda3
mdadm –manage /dev/md1 -r /dev/sda3
mdadm –manage /dev/md2 -f /dev/sda4
mdadm –manage /dev/md2 -r /dev/sda4
umount /boot
哈哈~~彻底把第一只硬盘搞死了,然后做的是改变grub启动
# groub
> root (hd1,3)
> setup (hd1)
>quit
# shutdown -h now
把坏掉的第一只硬盘拔掉,然后把后备的硬盘(同样是10G的)安装上去。这时候磁盘如下
/dev /sda (全新的硬盘)
/dev /sdb  (原来的硬盘)
启动服务器,进入bios 选择由第二块硬盘/dev /sdb启动系统
在开机菜单中把 root (hd0,0) => root (hd1,3)
但你会发现系统出现错误:(原因是刚刚挂上的新硬盘还未进行分区,固然没有/dev/sda1给你报错啦~)
输入root 密码进入单人维护
# mount -n -o remount,rw /
# vi /etc/fstab
/dev/md1                /                       ext3    defaults        1 1
/dev/md2                /home                   ext3    defaults        1 2
/dev/sda1               /boot                   ext3    defaults        1 2
/dev/sdb4               /boot1                   ext3    defaults        1 2
改为
/dev/md1                /                       ext3    defaults        1 1
/dev/md2                /home                   ext3    defaults        1 2
/dev/sdb4               /boot                   ext3    defaults        1 2
# 然后重启服务器
#这时你可以完全正常地进入操作系统
发现现在的raid状态如下:
Personalities : [raid1] [raid0]
md2 : active raid1 sdb1[1]
7759296 blocks [2/1] [_U]
md0 : inactive sdb3[1]
522048 blocks
md1 : active raid1 sdb2[1]
2096384 blocks [2/1] [_U]
unused devices: <none>
md1 md2 都再缺硬盘的状态
md0 已经挂掉了 “inactive”
把新挂上的硬盘安装之前的顺序分区,然后重新rebuid raid
fdisk /dev/sda
Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        1293        1305      104422+  83  Linux
/dev/sda2            1228        1292      522112+  fd  Linux raid autodetect
/dev/sda3             967        1227     2096482+  fd  Linux raid autodetect
/dev/sda4               1         966     7759363+  fd  Linux raid autodetect
#partprobe
1. 把 rebuid raid “/”  /dev/md1
#mdadm –manage /dev/md1 -a /dev/sda3
# mdadm -D /dev/md1
Rebuild Status : 26% complete
Number   Major   Minor   RaidDevice State
2       8        3        0      spare rebuilding   /dev/sda3
1       8       18        1      active sync   /dev/sdb2
2. 把 rebuid raid “/home”  /dev/md2
#mdadm –manage /dev/md2 -a /dev/sda4
#mdadm -D /dev/md1
Rebuild Status : 4% complete
Number   Major   Minor   RaidDevice State
2       8        4        0      spare rebuilding   /dev/sda4
1       8       17        1      active sync   /dev/sdb1
3. 重新建立”swap” raid
# mdadm -S /dev/md0
# mdadm -Cv /dev/md0 –level=0 –raid-devices=2 /dev/sda2 /dev/sdb3
# mkswap /dev/md0
# swapon /dev/md0
# free -m
total       used       free     shared    buffers     cached
Mem:          4054        354       3700          0          3        106
-/+ buffers/cache:        244       3810
Swap:         1019          0       1019
4. 同步”/boot” 分区
# dd if=/dev/sdb4 of=/dev/sda1
# vi /etc/fstab   转回由第一只硬盘启动
/dev/sdb4               /boot => /dev/sda1               /boot
#grub
>root (hd0,0)
>setup (hd0)
>quit
5. Reboot 看看~~! 所有都十分正常~~~

转自EMOS: enjoyunix

1.为何是软raid呢?

Linux 十分适合在中小企业应用,因为价格、系统的稳定性、硬件的成本比起其它操作系统都是十分有优势的,但是管理Linux的人才比较缺,或者这么说吧中小企业要请个Linux管理员不好找。(当然是薪金的问题)其实软raid对于CPU的性能要求比较厉害,但以现在的硬件发展速度,软raid绝对有优势。

2.软raid的优点

我总结了软raid的一些优点:廉洁的数据安全方案、适合各种硬件设备、Linux核心自带功能,不像硬raid重新安装启动程序,不用当心是否支持操作系统、有管理工具查看软raid的状态。

3.软raid的缺点

CPU占用率高、读写速度不如硬raid、灾难恢复复杂、灾难恢复速度不如硬raid。

一  以软raid1方式安装EMOS 1.5 (内部版本)

先看看这篇文章,我觉得还不错哦~~

http://blog.chinaunix.net/u2/82278/showart_2018616.html

看看我的分区

我在VirtualBox下虚拟了两个10G硬盘打算安装Extmail邮件系统,划分如下。

/dev/sda1   /boot

/dev/sdb4   /boot1

/dev/md0   (swap)   [/dev/sda2(512MB)]  [/dev/sdb3 (512MB)]

/dev/md1   (/)          [/dev/sda3(2GB)]      [/dev/sdb2(2GB)]

/dev/md2   (/home) [/dev/sda4(7.2GB)]   [/dev/sdb1(7.2GB)]

Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *        1293        1305      104422+  83  Linux

/dev/sda2            1228        1292      522112+  fd  Linux raid autodetect

/dev/sda3             967        1227     2096482+  fd  Linux raid autodetect

/dev/sda4               1         966     7759363+  fd  Linux raid autodetect

Device Boot      Start         End      Blocks   Id  System

/dev/sdb1               1         966     7759363+  fd  Linux raid autodetect

/dev/sdb2             967        1227     2096482+  fd  Linux raid autodetect

/dev/sdb3            1228        1292      522112+  fd  Linux raid autodetect

/dev/sdb4   *        1293        1305      104422+  83  Linux

二 备份boot loder

# dd if=/dev/sda1 of=/dev/sdb4

三 模拟磁盘故障

这里我们模拟第一支硬盘故障坏掉了,我们的 “/” “/home” 都制作了raid1 所以如果第一支硬盘故障坏掉对于操作系统是没有特别影响。

mdadm –manage /dev/md1 -f /dev/sda3

mdadm –manage /dev/md1 -r /dev/sda3

mdadm –manage /dev/md2 -f /dev/sda4

mdadm –manage /dev/md2 -r /dev/sda4

umount /boot

哈哈~~彻底把第一只硬盘搞死了,然后做的是改变grub启动

# groub

> root (hd1,3)

> setup (hd1)

>quit

# shutdown -h now

把坏掉的第一只硬盘拔掉,然后把后备的硬盘(同样是10G的)安装上去。这时候磁盘如下

/dev /sda (全新的硬盘)

/dev /sdb  (原来的硬盘)

启动服务器,进入bios 选择由第二块硬盘/dev /sdb启动系统

在开机菜单中把 root (hd0,0) => root (hd1,3)

但你会发现系统出现错误:(原因是刚刚挂上的新硬盘还未进行分区,固然没有/dev/sda1给你报错啦~)

输入root 密码进入单人维护

# mount -n -o remount,rw /

# vi /etc/fstab

/dev/md1                /                       ext3    defaults        1 1

/dev/md2                /home                   ext3    defaults        1 2

/dev/sda1               /boot                   ext3    defaults        1 2

/dev/sdb4               /boot1                   ext3    defaults        1 2

改为

/dev/md1                /                       ext3    defaults        1 1

/dev/md2                /home                   ext3    defaults        1 2

/dev/sdb4               /boot                   ext3    defaults        1 2

# 然后重启服务器

#这时你可以完全正常地进入操作系统

发现现在的raid状态如下:

Personalities : [raid1] [raid0]

md2 : active raid1 sdb1[1]

7759296 blocks [2/1] [_U]

md0 : inactive sdb3[1]

522048 blocks

md1 : active raid1 sdb2[1]

2096384 blocks [2/1] [_U]

unused devices: <none>

md1 md2 都再缺硬盘的状态

md0 已经挂掉了 “inactive”

把新挂上的硬盘安装之前的顺序分区,然后重新rebuid raid

fdisk /dev/sda

Device Boot      Start         End      Blocks   Id  System

/dev/sda1   *        1293        1305      104422+  83  Linux

/dev/sda2            1228        1292      522112+  fd  Linux raid autodetect

/dev/sda3             967        1227     2096482+  fd  Linux raid autodetect

/dev/sda4               1         966     7759363+  fd  Linux raid autodetect

#partprobe

1. 把 rebuid raid “/”  /dev/md1

#mdadm –manage /dev/md1 -a /dev/sda3

# mdadm -D /dev/md1

Rebuild Status : 26% complete

Number   Major   Minor   RaidDevice State

2       8        3        0      spare rebuilding   /dev/sda3

1       8       18        1      active sync   /dev/sdb2

2. 把 rebuid raid “/home”  /dev/md2

#mdadm –manage /dev/md2 -a /dev/sda4

#mdadm -D /dev/md1

Rebuild Status : 4% complete

Number   Major   Minor   RaidDevice State

2       8        4        0      spare rebuilding   /dev/sda4

1       8       17        1      active sync   /dev/sdb1

3. 重新建立”swap” raid

# mdadm -S /dev/md0

# mdadm -Cv /dev/md0 –level=0 –raid-devices=2 /dev/sda2 /dev/sdb3

# mkswap /dev/md0

# swapon /dev/md0

# free -m

total       used       free     shared    buffers     cached

Mem:          4054        354       3700          0          3        106

-/+ buffers/cache:        244       3810

Swap:         1019          0       1019

4. 同步”/boot” 分区

# dd if=/dev/sdb4 of=/dev/sda1

# vi /etc/fstab   转回由第一只硬盘启动

/dev/sdb4               /boot => /dev/sda1               /boot

#grub

>root (hd0,0)

>setup (hd0)

>quit

5. Reboot 看看~~! 所有都十分正常~~~

18 thoughts on “Linux 软raid 1如何规划与灾难恢复方案”

Leave a Comment