實驗想法
1.我創建的5塊硬盤/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sdd1 /dev/sdf1
2.用3塊硬盤作raid5陣列,其他2塊作冗餘spare盤
3.打破raid5關係,從新創建raid陣列用4塊硬盤,其他1塊作冗餘spare
4.模擬一塊硬盤的損壞,冗餘盤容許頂替並做數據恢復機制
5.監控raid5的運行情況並轉發給root
實驗環境
1.操做系統RedHat Linux Enterprise 5.5
2.VMWare WorkStation 7.0
3.mdadm管理工具(linux自帶)
實驗步驟
1.查看硬盤情況
2.硬盤分區並轉化成Linux raid auto
3.建立raid5的設備文件
4.建立raid5
5.看看簡易的狀態和信息
6.看看複雜的狀態和信息
7.建立配置文件並查看了一下,若是沒有配置文件在你停掉raid5後將沒法再次啓動
8.我如今把配置文件刪除或重命名,只要/dev/md5找不到配置文件就能夠了,咱們看看能不能在啓動
9.如今我把配置文件有正確的名字和路徑,再次啓動raid5
10.如今咱們格式化raid5設備
11.掛載raid5設備
12.查看raid的掛載狀況
13.我如今想在添加一塊冗餘盤
這是我原來的raid信息看到只有sde1是冗餘盤
我添加新盤/dev/sdf1到/dev/md5的raid信息,sdf1也變成冗餘了
14.如今我有5塊硬盤了分別是/dev/sdb1---/dev/sdc1----/dev/sdd1---/dev/sde1---/dev/sdf1
我想用4塊硬盤作raid5而後1塊硬盤作冗餘,由於我先前作過一次raid5,因此我再次建立時候會提示之前的硬盤已經有文件系統並屬於其餘raid了,我強制重建了,最後我看了一下raid5的狀態沒有問題
15.我在新的已掛載的raid5設備上寫一些空數據,
16.我打算建立個後臺任務監控raid5的情況
17.而後我讓raid5設備中的/dev/sde1損壞
那麼此時冗餘盤應該馬上接替損壞的磁盤並開始創建數據恢復機制,/dev/sdf1代替了/dev/sde1了
18.咱們來看看監控信息有沒有發給管理員郵箱
至此咱們的raid演示結束了,請蝦哥蝦姐有必要的補充就留言給我吧,無論是已實現的實驗步驟仍是未實現的需求均可以,我會不遺餘力補充和完善
我如今是用4塊硬盤作raid5,忽然想改爲3塊硬盤作了,看資料說
mdadm -A --run /dev/sdb1 /dev/sdc1 /dev/sdd1 不知道是否能夠,我作實驗了竟然最後1塊盤冗餘盤/dev/sdf1代替了第1塊硬盤/dev/sdb1,實在搞不懂了,請高手賜教