[TOC]linux
磁盤陣列(Redundant Arrays of Independent Drives,RAID),有「獨立磁盤構成的具備冗餘能力的陣列」之意。
磁盤陣列是由不少塊獨立的磁盤,組合成一個容量巨大的磁盤組,利用個別磁盤提供數據所產生加成效果提高整個磁盤系統效能。利用這項技術,將數據切割成許多區段,分別存放在各個硬盤上。
磁盤陣列還能利用同位檢查(Parity Check)的觀念,在數組中任意一個硬盤故障時,仍可讀出數據,在數據重構時,將數據經計算後從新置入新硬盤中算法
常見的服務器硬件有:cpu,內存,網卡,硬盤,遠程管理口,陣列卡,電源,主板
cpu通常是雙芯的,即安裝兩個cpushell
內存:支持內存容量很高,基本上都在4TBwindows
硬盤:一般都會對硬盤作raid,來保證數據的高效傳輸和數據安全可靠centos
RAID 0連續以位或字節爲單位分個數據,並行同時讀/寫於多個磁盤上,所以具備很高的數據傳輸率,但他沒有數據冗餘(即沒有備份),所以並不能算是真正的RAID結構數組
RAID 0只是單純地提升性能,並無爲數據的可靠性提供保證,可靠性低並且其中的一個磁盤失效將影響到全部數據緩存
RAID 0不能應用於數據安全性要求高的場合,常應用於多讀寫的場景安全
RAID 0 在windows中叫作帶區卷(linux叫條帶券),服務器
容量總和是兩個磁盤相加app
4)RAID 5磁盤陣列介紹
5)RAID 6磁盤陣列介紹
6) RAID 1+0磁盤陣列介紹
N(偶數,N>=4)塊盤兩兩鏡像後,再組合成一個RAID 0
陣列卡就是用來實現RAID功能的板卡,一般是由I/O(imput輸入/output輸出)處理器、硬盤控制器、硬盤鏈接器和緩存等一系列零組件構成的
不一樣的RAID卡支持的RAID功能不一樣,例如支持RAID0、RAID一、RAID五、RAID10等
RAID卡的接口類型
IDE接口、SCSI接口、SATA接口和SAS接口
緩存(Csche)是RAID卡與外部總線交換數據的場所,RAID卡先將數據傳送到緩存,在由緩存和外邊數據總線交換數據
緩存的大小與速度是直接關係到RAID卡的實際傳輸速度的重要因素
不一樣的RAID卡出廠時配備的內存容量不一樣,一半爲幾兆到數百兆容量不等
需求描述:
思路:
[root@localhost ~]# rpm -q mdadm 查看madadam工具是否已安裝 mdadm-4.0-5.el7.x86_64 顯示安裝
接下來開始配置硬盤
當前磁盤狀況
[root@localhost ~]# fdisk -l 查看全部磁盤信息 磁盤 /dev/sda:42.9 GB, 42949672960 字節,83886080 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤標籤類型:dos 磁盤標識符:0x000a55e9 設備 Boot Start End Blocks Id System /dev/sda1 * 2048 12584959 6291456 83 Linux /dev/sda2 12584960 79710207 33562624 8e Linux LVM 磁盤 /dev/mapper/centos-root:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤 /dev/mapper/centos-swap:2147 MB, 2147483648 字節,4194304 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤 /dev/mapper/centos-home:10.7 GB, 10737418240 字節,20971520 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節
[root@localhost ~]# init 6 重啓系統
[root@localhost ~]# fdisk -l 從新查看全部磁盤信息,發現新增的四塊磁盤 磁盤 /dev/sdb:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤 /dev/sdc:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤 /dev/sdd:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤 /dev/sde:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節
開始依次給每塊磁盤進行分區
[root@localhost ~]# fdisk /dev/sdb 建立分區, 歡迎使用 fdisk (util-linux 2.23.2)。 更改將停留在內存中,直到您決定將更改寫入磁盤。 使用寫入命令前請三思。 Device does not contain a recognized partition table 使用磁盤標識符 0x2ed1de1d 建立新的 DOS 磁盤標籤。 命令(輸入 m 獲取幫助):n Partition type: p primary (0 primary, 0 extended, 4 free) e extended Select (default p): Using default response p 分區號 (1-4,默認 1): 起始 扇區 (2048-41943039,默認爲 2048): 將使用默認值 2048 Last 扇區, +扇區 or +size{K,M,G} (2048-41943039,默認爲 41943039): 將使用默認值 41943039 分區 1 已設置爲 Linux 類型,大小設爲 20 GiB 命令(輸入 m 獲取幫助):t 已選擇分區 1 Hex 代碼(輸入 L 列出全部代碼):l 0 空 24 NEC DOS 81 Minix / 舊 Linu bf Solaris 1 FAT12 27 隱藏的 NTFS Win 82 Linux 交換 / So c1 DRDOS/sec (FAT- 2 XENIX root 39 Plan 9 83 Linux c4 DRDOS/sec (FAT- 3 XENIX usr 3c PartitionMagic 84 OS/2 隱藏的 C: c6 DRDOS/sec (FAT- 4 FAT16 <32M 40 Venix 80286 85 Linux 擴展 c7 Syrinx 5 擴展 41 PPC PReP Boot 86 NTFS 卷集 da 非文件系統數據 6 FAT16 42 SFS 87 NTFS 卷集 db CP/M / CTOS / . 7 HPFS/NTFS/exFAT 4d QNX4.x 88 Linux 純文本 de Dell 工具 8 AIX 4e QNX4.x 第2部分 8e Linux LVM df BootIt 9 AIX 可啓動 4f QNX4.x 第3部分 93 Amoeba e1 DOS 訪問 a OS/2 啓動管理器 50 OnTrack DM 94 Amoeba BBT e3 DOS R/O b W95 FAT32 51 OnTrack DM6 Aux 9f BSD/OS e4 SpeedStor c W95 FAT32 (LBA) 52 CP/M a0 IBM Thinkpad 休 eb BeOS fs e W95 FAT16 (LBA) 53 OnTrack DM6 Aux a5 FreeBSD ee GPT f W95 擴展 (LBA) 54 OnTrackDM6 a6 OpenBSD ef EFI (FAT-12/16/ 10 OPUS 55 EZ-Drive a7 NeXTSTEP f0 Linux/PA-RISC 11 隱藏的 FAT12 56 Golden Bow a8 Darwin UFS f1 SpeedStor 12 Compaq 診斷 5c Priam Edisk a9 NetBSD f4 SpeedStor 14 隱藏的 FAT16 <3 61 SpeedStor ab Darwin 啓動 f2 DOS 次要 16 隱藏的 FAT16 63 GNU HURD or Sys af HFS / HFS+ fb VMware VMFS 17 隱藏的 HPFS/NTF 64 Novell Netware b7 BSDI fs fc VMware VMKCORE 18 AST 智能睡眠 65 Novell Netware b8 BSDI swap fd Linux raid 自動 1b 隱藏的 W95 FAT3 70 DiskSecure 多啓 bb Boot Wizard 隱 fe LANstep 1c 隱藏的 W95 FAT3 75 PC/IX be Solaris 啓動 ff BBT 1e 隱藏的 W95 FAT1 80 舊 Minix Hex 代碼(輸入 L 列出全部代碼):fd 已將分區「Linux」的類型更改成「Linux raid autodetect」 命令(輸入 m 獲取幫助):p 磁盤 /dev/sdb:21.5 GB, 21474836480 字節,41943040 個扇區 Units = 扇區 of 1 * 512 = 512 bytes 扇區大小(邏輯/物理):512 字節 / 512 字節 I/O 大小(最小/最佳):512 字節 / 512 字節 磁盤標籤類型:dos 磁盤標識符:0x2ed1de1d 設備 Boot Start End Blocks Id System /dev/sdb1 2048 41943039 20970496 fd Linux raid autodetect 命令(輸入 m 獲取幫助):w The partition table has been altered! Calling ioctl() to re-read partition table. 正在同步磁盤。
用fdisk /dev/sdc,fidsk /dev/sdd,fdisk /dev/sde命令去配置另外三塊磁盤,
設備 Boot Start End Blocks Id System /dev/sdc1 2048 41943039 20970496 fd Linux raid autodetect 設備 Boot Start End Blocks Id System /dev/sdd1 2048 41943039 20970496 fd Linux raid autodetect 設備 Boot Start End Blocks Id System /dev/sde1 2048 41943039 20970496 fd Linux raid autodetect
接下來就能夠以這四塊磁盤爲素材,去配置raid,先配置個raid
能夠先試一下raid0條帶卷,也叫作跨區卷
[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1 #/dev/md0就是raid0名字,-C 建立,-v顯示過程 -l肯定raid等級,-n肯定幾塊盤, 還有一個備用選項-x mdadm: chunk size defaults to 512K mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. [root@localhost ~]# mdadm -D /dev/md0 #mdadm -D 顯示raid信息 /dev/md0: Version : 1.2 Creation Time : Mon Nov 4 12:49:59 2019 Raid Level : raid0 Array Size : 41908224 (39.97 GiB 42.91 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Mon Nov 4 12:49:59 2019 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Chunk Size : 512K Consistency Policy : none Name : localhost.localdomain:0 (local to host localhost.localdomain) UUID : d531230c:c4e71b72:00f695a1:f9ce404c Events : 0 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 [root@localhost ~]# cat /proc/mdstat #還能夠從/proc硬件信息目錄中查看 raid對應的文件/proc/mdstat Personalities : [raid0] md0 : active raid0 sdc1[1] sdb1[0] 41908224 blocks super 1.2 512k chunks
raid0 卷製做完畢,接下來格式化以後就能夠掛載使用
[root@localhost ~]# mkfs.xfs /dev/md0 #格式化/dev/md0 meta-data=/dev/md0 isize=512 agcount=16, agsize=654720 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=0, sparse=0 data = bsize=4096 blocks=10475520, imaxpct=25 = sunit=128 swidth=256 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=1 log =internal log bsize=4096 blocks=5120, version=2 = sectsz=512 sunit=8 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 [root@localhost ~]# mkdir /md0 #建立掛載點目錄 [root@localhost ~]# mount /dev/md0 /md0 #掛載 [root@localhost ~]# df -Th #查看 文件系統 類型 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root xfs 20G 3.3G 17G 17% / devtmpfs devtmpfs 977M 0 977M 0% /dev tmpfs tmpfs 993M 0 993M 0% /dev/shm tmpfs tmpfs 993M 9.0M 984M 1% /run tmpfs tmpfs 993M 0 993M 0% /sys/fs/cgroup /dev/sda1 xfs 6.0G 161M 5.9G 3% /boot /dev/mapper/centos-home xfs 10G 50M 10G 1% /home tmpfs tmpfs 199M 12K 199M 1% /run/user/42 tmpfs tmpfs 199M 0 199M 0% /run/user/0 /dev/md0 xfs 40G 33M 40G 1% /md0 #已掛載
接下來取消掛載,中止md0
[root@localhost dev]# umount /md0 [root@localhost dev]# mdadm --stop /dev/md0 mdadm: stopped /dev/md0 [root@localhost dev]# cat /proc/mdstat Personalities : [raid0] unused devices: <none> [root@localhost dev]# ls 查看發現沒有md0 agpgart log sdc tty18 tty45 urandom autofs loop-control sdc1 tty19 tty46 usbmon0 block lp0 sdd tty2 tty47 usbmon1 bsg lp1 sdd1 tty20 tty48 usbmon2 btrfs-control lp2 sde tty21 tty49 vcs bus lp3 sde1 tty22 tty5 vcs1 cdrom mapper sg0 tty23 tty50 vcs2 centos mcelog sg1 tty24 tty51 vcs3 char mem sg2 tty25 tty52 vcs4 console mqueue sg3 tty26 tty53 vcs5 core net sg4 tty27 tty54 vcs6 cpu network_latency sg5 tty28 tty55 vcsa cpu_dma_latency network_throughput shm tty29 tty56 vcsa1 crash null snapshot tty3 tty57 vcsa2 disk nvram snd tty30 tty58 vcsa3 dm-0 oldmem sr0 tty31 tty59 vcsa4 dm-1 port stderr tty32 tty6 vcsa5 dm-2 ppp stdin tty33 tty60 vcsa6 dri ptmx stdout tty34 tty61 vfio fb0 pts tty tty35 tty62 vga_arbiter fd random tty0 tty36 tty63 vhci full raw tty1 tty37 tty7 vhost-net fuse rfkill tty10 tty38 tty8 vmci hidraw0 rtc tty11 tty39 tty9 vsock hpet rtc0 tty12 tty4 ttyS0 zero hugepages sda tty13 tty40 ttyS1 hwrng sda1 tty14 tty41 ttyS2 initctl sda2 tty15 tty42 ttyS3 input sdb tty16 tty43 uhid kmsg sdb1 tty17 tty44 uinput
開始製做raid1,rai1d俗稱鏡像卷
[root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1 #-C建立 -v顯示詳細過程 要建立的raid名稱 -l raid等級 -n磁盤個數 磁盤名稱 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid0 devices=2 ctime=Mon Nov 4 12:49:59 2019 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid0 devices=2 ctime=Mon Nov 4 12:49:59 2019 mdadm: size set to 20954112K Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started. [root@localhost dev]# cat /proc/mdstat 查看mdstat狀態 Personalities : [raid0] [raid1] md1 : active raid1 sdc1[1] sdb1[0] 20954112 blocks super 1.2 [2/2] [UU] [=====>...............] resync = 26.7% (5601408/20954112) finish=1.2min speed=207459K/sec #正在同步 unused devices: <none> [root@localhost dev]# mdadm -D /dev/md1 #查看詳細信息 /dev/md1: Version : 1.2 Creation Time : Mon Nov 4 13:41:55 2019 Raid Level : raid1 Array Size : 20954112 (19.98 GiB 21.46 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Mon Nov 4 13:43:39 2019 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync Name : localhost.localdomain:1 (local to host localhost.localdomain) UUID : d873e511:0bb8274c:97a98d9f:76313fc8 Events : 17 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1
[root@localhost dev]# mkfs.xfs /dev/md1 #格式化/dev/md1 mkfs.xfs: /dev/md1 appears to contain an existing filesystem (xfs). mkfs.xfs: Use the -f option to force overwrite. #反饋說md1中存在xfs系統,是否要強行執行-f格式化,緣由本身分析一波,我就不解釋了 [root@localhost dev]# mkfs.xfs -f /dev/md1 #強制執行 meta-data=/dev/md1 isize=512 agcount=4, agsize=1309632 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=0, sparse=0 data = bsize=4096 blocks=5238528, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=1 log =internal log bsize=4096 blocks=2560, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 [root@localhost dev]# mount /dev/md1 /md0 #掛載到以前設置的掛載點/md0 [root@localhost dev]# df -Th 文件系統 類型 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root xfs 20G 3.3G 17G 17% / devtmpfs devtmpfs 977M 0 977M 0% /dev tmpfs tmpfs 993M 0 993M 0% /dev/shm tmpfs tmpfs 993M 9.0M 984M 1% /run tmpfs tmpfs 993M 0 993M 0% /sys/fs/cgroup /dev/sda1 xfs 6.0G 161M 5.9G 3% /boot /dev/mapper/centos-home xfs 10G 50M 10G 1% /home tmpfs tmpfs 199M 12K 199M 1% /run/user/42 tmpfs tmpfs 199M 0 199M 0% /run/user/0 /dev/md1 xfs 20G 33M 20G 1% /md0
還有-x 指定備用磁盤,這裏操做演示一波
[root@localhost dev]# umount /md0 取消掛載 [root@localhost dev]# mdadm -S /dev/md1 中止raid1 mdadm: stopped /dev/md1 [root@localhost dev]# mdadm -C /dev/md2 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdb1 #從新建立一個raid1,-x1,指定一塊備用磁盤 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid1 devices=2 ctime=Mon Nov 4 13:41:55 2019 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md2 started. [root@localhost dev]# cat /proc/mdstat #查看信息狀態 Personalities : [raid0] [raid1] md2 : active raid1 sdb1[2](S) sde1[1] sdd1[0] 20954112 blocks super 1.2 [2/2] [UU] [====>................] resync = 21.0% (4400896/20954112) finish=1.3min speed=209566K/sec unused devices: <none> [root@localhost dev]# mdadm -D /dev/md2 #第二種方法查看 /dev/md2: Version : 1.2 Creation Time : Mon Nov 4 14:27:51 2019 Raid Level : raid1 Array Size : 20954112 (19.98 GiB 21.46 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 2 Total Devices : 3 Persistence : Superblock is persistent Update Time : Mon Nov 4 14:28:49 2019 State : clean, resyncing Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 Consistency Policy : resync Resync Status : 56% complete Name : localhost.localdomain:2 (local to host localhost.localdomain) UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d Events : 9 Number Major Minor RaidDevice State 0 8 49 0 active sync /dev/sdd1 1 8 65 1 active sync /dev/sde1 2 8 17 - spare /dev/sdb1 #這一塊就是備用盤
用mdadm中的-f去模擬演示毀掉一塊盤
[root@localhost dev]# mdadm -f /dev/md2 /dev/sdd1 毀掉md2中的sdd1 mdadm: set /dev/sdd1 faulty in /dev/md2 [root@localhost dev]# mdadm -D /dev/md2 /dev/md2: Version : 1.2 Creation Time : Mon Nov 4 14:27:51 2019 Raid Level : raid1 Array Size : 20954112 (19.98 GiB 21.46 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 2 Total Devices : 3 Persistence : Superblock is persistent Update Time : Mon Nov 4 14:30:11 2019 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 1 Spare Devices : 1 Consistency Policy : resync Rebuild Status : 15% complete Name : localhost.localdomain:2 (local to host localhost.localdomain) UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d Events : 21 Number Major Minor RaidDevice State 2 8 17 0 spare rebuilding /dev/sdb1 #被頂替上去 1 8 65 1 active sync /dev/sde1 0 8 49 - faulty /dev/sdd1 #被換下來
再實驗一個raid5,從案例的需求能夠發現,能夠爲其配置raid6,或者raid1+0,這裏仍是先順序把raid5演練一波
[root@localhost dev]# mdadm -S /dev/md2 #中止md2 mdadm: stopped /dev/md2 [root@localhost dev]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1 /dev/sde1 #-C建立 -v顯示詳細過程 raid名稱 -l raid等級 -n 組成raid磁盤個數 組成raid的磁盤名稱 -x 備用磁盤 mdadm: layout defaults to left-symmetric mdadm: layout defaults to left-symmetric mdadm: chunk size defaults to 512K mdadm: /dev/sdb1 appears to be part of a raid array: level=raid1 devices=2 ctime=Mon Nov 4 14:27:51 2019 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid1 devices=2 ctime=Mon Nov 4 13:41:55 2019 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid1 devices=2 ctime=Mon Nov 4 14:27:51 2019 mdadm: /dev/sde1 appears to be part of a raid array: level=raid1 devices=2 ctime=Mon Nov 4 14:27:51 2019 mdadm: size set to 20954112K Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started. [root@localhost dev]# mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Mon Nov 4 14:57:07 2019 Raid Level : raid5 Array Size : 41908224 (39.97 GiB 42.91 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 3 Total Devices : 4 Persistence : Superblock is persistent Update Time : Mon Nov 4 14:58:53 2019 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Consistency Policy : resync Name : localhost.localdomain:5 (local to host localhost.localdomain) UUID : 6057b886:24586340:b6ece802:6f3904d6 Events : 18 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 4 8 49 2 active sync /dev/sdd1 3 8 65 - spare /dev/sde1
-x備用了一塊磁盤,這裏搞壞一個盤試一試
[root@localhost dev]# mdadm -f /dev/md5 /dev/sdd1 #搞壞md5下面的sdd1 mdadm: set /dev/sdd1 faulty in /dev/md5 #顯示成功搞壞 [root@localhost dev]# mdadm -D /dev/md5 #再次查看信息 /dev/md5: Version : 1.2 Creation Time : Mon Nov 4 14:57:07 2019 Raid Level : raid5 Array Size : 41908224 (39.97 GiB 42.91 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 3 Total Devices : 4 Persistence : Superblock is persistent Update Time : Mon Nov 4 15:04:50 2019 State : clean, degraded, recovering Active Devices : 2 Working Devices : 3 Failed Devices : 1 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Consistency Policy : resync Rebuild Status : 25% complete Name : localhost.localdomain:5 (local to host localhost.localdomain) UUID : 6057b886:24586340:b6ece802:6f3904d6 Events : 24 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 3 8 65 2 spare rebuilding /dev/sde1 #頂替上來 4 8 49 - faulty /dev/sdd1 #換下來
而後的操做就是格式化,mkfs.xfs /dev/md5,掛載,這裏就再也不操做了
raid6就是把其中的級別-l改成6,磁盤塊數-n很多於四塊,備用盤-x記得給,養成好習慣,在演示一波raid1+0
raid1+0的原理是先用兩塊盤去作raid1鏡像卷,而後把兩個raid1爲單位,去作raid0條帶卷
[root@localhost dev]# mdadm -S /dev/md5 #停用md5 mdadm: stopped /dev/md5 [root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1 #建立raid1 md1 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid5 devices=3 ctime=Mon Nov 4 14:57:07 2019 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: /dev/sdc1 appears to be part of a raid array: level=raid5 devices=3 ctime=Mon Nov 4 14:57:07 2019 mdadm: size set to 20954112K Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started. [root@localhost dev]# mdadm -C -v /dev/md2 -l1 -n2 /dev/sd[d-e]1 #建立riad1 md2 mdadm: /dev/sdd1 appears to be part of a raid array: level=raid5 devices=3 ctime=Mon Nov 4 14:57:07 2019 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: /dev/sde1 appears to be part of a raid array: level=raid5 devices=3 ctime=Mon Nov 4 14:57:07 2019 mdadm: size set to 20954112K Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md2 started. [root@localhost dev]# mdadm -C -v /dev/md0 -l0 -n2 /dev/md[1-2] #以兩個鏡像卷爲 單位,建立raid0 mdadm: chunk size defaults to 512K mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. [root@localhost dev]# mdadm -D /dev/md0 #查看raid0卷md0 /dev/md0: Version : 1.2 Creation Time : Mon Nov 4 15:19:28 2019 Raid Level : raid0 Array Size : 41875456 (39.94 GiB 42.88 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Mon Nov 4 15:19:28 2019 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Chunk Size : 512K Consistency Policy : none Name : localhost.localdomain:0 (local to host localhost.localdomain) UUID : e0b393ab:3c8c8d1c:21ddf9f1:26ab1901 Events : 0 Number Major Minor RaidDevice State 0 9 1 0 active sync /dev/md1 #單位是鏡像卷 1 9 2 1 active sync /dev/md2 [root@localhost dev]# mdadm -D /dev/md1 #查看raid1卷md1 /dev/md1: Version : 1.2 Creation Time : Mon Nov 4 15:18:02 2019 Raid Level : raid1 Array Size : 20954112 (19.98 GiB 21.46 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Mon Nov 4 15:19:47 2019 State : active Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync Name : localhost.localdomain:1 (local to host localhost.localdomain) UUID : 8ece5682:dc5b03c7:5d1d67a8:22c85b59 Events : 18 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 #單位是sd 1 8 33 1 active sync /dev/sdc1 [root@localhost dev]# mdadm -D /dev/md2 /dev/md2: Version : 1.2 Creation Time : Mon Nov 4 15:18:43 2019 Raid Level : raid1 Array Size : 20954112 (19.98 GiB 21.46 GB) Used Dev Size : 20954112 (19.98 GiB 21.46 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Mon Nov 4 15:20:02 2019 State : active, resyncing Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync Resync Status : 79% complete Name : localhost.localdomain:2 (local to host localhost.localdomain) UUID : 9501fa59:f37e90a0:227aaf3f:567026a1 Events : 13 Number Major Minor RaidDevice State 0 8 49 0 active sync /dev/sdd1 1 8 65 1 active sync /dev/sde1 [root@localhost dev]# mount /dev/md1 /md0 #掛載raid1鏡像卷 mount: 未知的文件系統類型「linux_raid_member」 #沒有格式化 [root@localhost dev]# mount /dev/md0 /md0 #掛載raid0條帶卷 mount: /dev/md0 寫保護,將以只讀方式掛載 #能夠掛,可是沒啥用,只讀,寫保護 mount: 未知的文件系統類型「(null)」 [root@localhost dev]# mkfs.xfs /dev/md0 #格式化條帶卷raid0 meta-data=/dev/md0 isize=512 agcount=16, agsize=654208 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=0, sparse=0 data = bsize=4096 blocks=10467328, imaxpct=25 = sunit=128 swidth=256 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=1 log =internal log bsize=4096 blocks=5112, version=2 = sectsz=512 sunit=8 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 [root@localhost dev]# mount /dev/md0 /md0 #再次掛載raid0,能夠正常掛上去 [root@localhost dev]# mkfs.xfs /dev/md1 #格式化鏡像卷raid1,發現資源忙 mkfs.xfs: cannot open /dev/md1: 設備或資源忙 #這是由於鏡像捲成爲raid0的單位, 沒法執行獨立的操做 [root@localhost dev]# df -TH #查看一下 文件系統 類型 容量 已用 可用 已用% 掛載點 /dev/mapper/centos-root xfs 22G 3.5G 18G 17% / devtmpfs devtmpfs 1.1G 0 1.1G 0% /dev tmpfs tmpfs 1.1G 0 1.1G 0% /dev/shm tmpfs tmpfs 1.1G 9.5M 1.1G 1% /run tmpfs tmpfs 1.1G 0 1.1G 0% /sys/fs/cgroup /dev/sda1 xfs 6.5G 168M 6.3G 3% /boot /dev/mapper/centos-home xfs 11G 52M 11G 1% /home tmpfs tmpfs 209M 13k 209M 1% /run/user/42 tmpfs tmpfs 209M 0 209M 0% /run/user/0 /dev/md0 xfs 43G 35M 43G 1% /md0 #掛載成功