1、配置配額系統
1 .啓動配額功能node
在/etc/fstab 文件中掛載須要配額的功能
在defaults,userquota,grpquota
加上功能
mount -o remount /testdir 從新掛載目錄 功能生效linux
2 .建立磁盤配額數據庫數據庫
quotacheck 建立磁盤配額數據庫【在須要配額的磁盤目錄裏建立數據庫】
-c 建立
-u 用戶的數據庫
-g 組的數據庫
quotacheck -cug /home [會生產兩個數據庫文件,分別針對用戶和組的]
注意:SElinux 須要關閉
修改文件 /etc/sysconfig/selinux文件中SELINUX=[disable|permissive] 源文件/etc/selinux/config
getenforce 0 臨時生效app
3 .啓用數據庫
quotaon /home 啓用 home 裏的 配額數據庫ide
4 .指定用戶的空間限制工具
edquota USER 打開一個文件 配額限制文件 編輯配額文件
Disk quotas for user arno (uid 500):
Filesystem block【用戶已經使用空間】soft【超過多少警報,不限制】hard【最大值不能超過】inodes【已使用節點】soft【超過多少節點報警】hard【最大節點數,不能超過】
/dev/sda6 150 800000 1000000 20 300 500
空間數量是多少塊 每塊 1K
grace 容許超出警報 7天寬限 七天以後 警報額度不能超過,只能減小
quota USER 顯示指定用戶的配額數據
setquota USER 10000警報 20000最大 1000警報inode 1200最大 /home
edquota -g GROUP 編輯組的配額文件
組的的配額,多個用戶建立的所屬組的文件 不能超過租的配額限制性能
2、RAID
1 .raid的瞭解測試
提升磁盤的讀寫性能
能夠提高磁盤的耐用性
多塊磁盤組織在一塊兒的工做方式有所不一樣,能夠分紅多種級別
raid的實現方式
外接式磁盤陣列:經過擴展卡提供適配能力
內接式RAID:主板集成RAID控制器
安裝系統前在BIOS裏配置
軟件RAID:經過系統軟件實現ui
2 .raid的級別操作系統
raid-0 兩塊磁盤有序存放不一樣的數據
讀寫性能提高,可是沒有容錯能力,可用空間不損耗,最少兩塊磁盤,可是有一塊磁盤損壞,則raid損壞不可用,數據也會有丟失
raid-1 兩塊磁盤存放相同的數據,一塊損壞,另一塊還能繼續使用。
讀取性能提高,寫性能略有降低,只有一個磁盤空間可用,最少須要2塊磁盤,或者2的倍數磁盤。有容錯能力,最多二分之一的磁盤損壞的概率
raid-5 三塊以上的磁盤,一塊磁盤存放校驗數據,其餘磁盤有序存放數據
讀寫性能提高,可用空間少一個磁盤。有容錯能力,容許最多損壞一塊磁盤,最少使用3塊磁盤才能組成raid-5。
raid-6 有兩塊磁盤存放校驗數據,其他磁盤有序存放數據
讀寫性能提高,少了兩塊磁盤的可用空間,擁有容錯能力,最多容許2塊磁盤損壞。最少須要4塊磁盤才能組成raid-6
raid-10 先是用raid-1組成多個組,而後將這些組,組成raid-0 可用性好於 raid-01
讀寫性能提高,可用空間少了一倍,有容錯能力,可是每組raid-1 只能損壞一塊磁盤,最少須要4塊磁盤才能組成raid-10,或者4的倍數。
raid-01 先用raid-0 組成多個組,而後將這些組,組成raid-1
少了一倍的可用空間,有容錯能力,可是同raid-1下的兩組raid-0 不能同時損壞擁有相同數據的磁盤。
raid-50 先組成一些raid-5 而後組成raid-0
JBOD 將多塊磁盤的空間合併成一個大的連續空間使用,全部磁盤空間合併起來,讀寫性能沒有什麼提高。
raid-7 能夠理解爲一個獨立存儲計算機,自身帶有操做系統和管理工具,能夠獨立運行,理論上性能最高的RAID模式
經常使用級別:RAID-0, RAID-1, RAID-5, RAID-10, RAID-50,JBOD
3 .軟件raid的實現
命令: mdadm 模式化的工具
語法格式:mdadm [mode] <raiddevice> [options]<component-devices>
模式:
-C建立 -A裝配 -F監控 -f -r -a 管理
<raiddevice> :/dev/md#
<component-devices>: 任意塊設備 /dev/ad{a5,b1,b2,c1,d1}
-C 建立模式
-n # :使用#個塊設備來建立此raid
-l # 指明建立的raid的級別。
-a { yes | no } 自動建立目標RAID設備的設備文件
-c CHUNK_size 指明塊大小
-x # 指明空閒盤的個數 // 熱備盤,給具備容錯能力的raid 在有磁盤損壞時,替代損壞的盤。
-D 顯示raid的詳細信息 指定的/dev/md#
管理模式:
-f 標記指定磁盤爲損壞
-a 添加指定磁盤
-r 移除磁盤
-
觀察md的狀態
cat /proc/mdstat
raid配置示例
mdadm -C /dev/md0 -a yes -l 0 -n 3 -x 1 /dev/sd{a5,b1,c1,d1}
\建立一個擁有3個磁盤的 raid-0 設備爲/dev/md0 並另外擁有一個備用磁盤
mke2fs -j /dev/md0 //給raid 格式化並建立文件系統 帶有日誌的
mdadm -D|--detail /dev/md0 // 檢查raid設備的情況
mdadm -G /dev/md0 -n4 -a /dev/sdf1 新增陣列成員
raid 測試和修復
mdadm /dev/md0 -f /dev/sda1 模擬磁盤故障
mdadm /dev/md0 -r /dev/sda1 移除磁盤
raid管理
mdadm -D -s >> /etc/mdadm.conf 生成配置文件 【必要動做】
mdadm -S /dev/md0 中止設備
mdadm -A -s /dev/md0 激活設備
mdadm -R /dev/md0 強制啓動
mdadm --zero-superblock /dev/sdb1 刪除raid信息
注意:在虛擬機裏配置軟raid時,lsblk,df 查看不到 ,則須要 resize2fs /dev/md0 同步文件系統,只針對ext系列的文件系統
3、邏輯卷管理器LVM
1 . 邏輯卷的理解
將多個磁盤或者磁盤裏的分區,指定設置爲PV(物理卷),在物理卷裏設置PE(物理區域)
而後在物理捲上建立 VG卷組 在卷組裏設置PE(物理區域)的大小
而後在卷組上建立 lv邏輯卷 大小由指定數量的PE組成
優勢:在不影響用戶使用的狀況下,能夠更改邏輯卷的大小,方便擴容存儲空間
2 . 邏輯卷建立
(1)建立物理卷
首先準備好磁盤或者磁盤的分區若干個, /dev/sda5 /dev/sdb2 /dev/sdc /dev/sdd1
建立物理卷 pvcreate /dev/sda5 /dev/sdb2 /dev/sdc /dev/sdd1
查看物理卷信息 pvs 更詳細的查看物理卷信息 pvdisplay
(2)建立卷組
建立卷組 vgcreate vg0(卷組名) /dev/sd{a5,b2,c,d1} -s 32M (指定PE大小,一個PE 32M)
查看卷組信息 vgs 更詳細的查看卷組信息 vgdisplay
vgrename vg0 vg1 更改卷組名
vgchange -an vg0 禁用卷組
vgchange -ay vg0 啓用卷組
(3)建立邏輯卷
建立邏輯卷 lvcreate -n lv0 -l 320 (分320個PE) vg0
-L 16G (指定容量大小16G )
-l +100%free vg0 使用vg0裏的剩餘全部空間
查看邏輯卷信息 lvs 更詳細的查看邏輯卷信息 lvdisplay
(4)給邏輯卷建立文件系統
在邏輯捲上建立文件系統 mkfs.ext4 /dev/vg0/lv0 ext4的文件系統
掛載 mount /dev/vg0/lv0 /app/testfile
3 . 擴容邏輯卷
建立物理卷 pvcreate 。。。。。。
動態給卷組添加物理卷 vgextend vg0 /dev/sdd2 將sdd2 物理卷添加到 vg0中
動態給邏輯卷添加捲組 lvextend /dev/vg0/lv0 -L 24G(擴展到24G) 【+4G 增長4G】
(-r 能夠同時同步磁盤信息) -l 1000(增長到1000個PE)【+200 增長200個PE】
使用vg0中 剩餘的全部空閒PE空間 【三 - 2 -(3)】中
使用 df -h 發現沒有看見增長的空間
resize2fs /dev/vg0/lv0 針對ext文件系統中 同步磁盤信息 【xfs-growfs 同步xfs 文件系統】
4 . 給邏輯卷更換磁盤
首先將須要更換的磁盤的全部PE移動到同一個卷組中的空閒空間。
全部vg的中所剩餘的free狀態的PE數量 須要大於 更換磁盤中的PE數量
建立 一個物理卷 pvcreate /dev/sde
動態增長vg卷組大小 vgextend vg0 /dev/sde
給須要更換的磁盤中的空間 搬家 pvmove /dev/sda5
而後從卷組中移除磁盤 vgreduce /dev/sda5
最後移除物理卷 pvremove /dev/sda5
5 . 縮減邏輯卷空間(文件系統爲ext的才能縮減,xfs文件系統不能縮減邏輯卷)
首先,取消掛載 umount /app/testfile
fsck -f /dev/vg0/lv0 檢測文件系統完整性
將文件系統縮減到8G resize2fs /dev/vg0/lv0 8G
將邏輯捲縮減到8G lvreduce -L 8G /dev/vg0/lv0
再次掛載!便可使用
6 . 遷移LVM所在的磁盤
首先查看此 卷組名 邏輯卷名 有沒有與要遷移過去的主機的 邏輯卷名是否重名更名 vgrename vg0 vg100 修改卷組名lvrename /dev/vg100/ lv100 修改邏輯卷名取消掛載 邏輯卷 lv100禁用卷組 vgchange -an vg100 導出卷組 vgexport vg100