1、磁盤管理node
磁盤設備二進制文件前512字節中,前446字節是啓動相關數據,隨後64字節是分區表,最後兩位是55AA標記位linux
lsblk -d -o name,rota 判斷磁盤是固態仍是機械,ROTA爲1是機械,爲0是固態算法
parted /dev/sdb print 打印/dev/sdb的分區表 緩存
parted /dev/sdb mklabel msdos 建立mbr分區 修改設備文件前512字節安全
parted /dev/sdb mklabel gpt 建立gpt分區網絡
parted /dev/sdb mkpart 1 200 從1M到200M建立分區 199M的空間app
parted /dev/sdb rm 1 刪除第一個分區異步
dd if=/dev/zero of=/dev/sdb bs=1 count=66 seek=446 刪除磁盤文件前512字節的後66字節,55 aa若是在的話系統仍會認爲磁盤存在分區async
parted修改分區不須要保存,比較危險工具
fdisk 更適合管理MBR分區
gdisk 更適合管理GPT分區
子命令
p 分區列表
t 更改分區類型
n 建立新分區
d 刪除分區
v 校驗分區
u 轉換單位
w 保存並退出
q 不保存並退出
2、文件系統
LINUX中,經常使用的文件系統爲ext4和xfs文件系統
tune2fs -l 查看文件元數據 ext4文件系統
[root@localhost ~]# tune2fs -l /dev/sdb2 tune2fs 1.44.6 (5-Mar-2019) Filesystem volume name: <none> Last mounted on: <not available> Filesystem UUID: a491c4fd-65ff-42da-af1a-d9cec0af4314 Filesystem magic number: 0xEF53 Filesystem revision #: 1 (dynamic) Filesystem features: has_journal ext_attr resize_inode dir_index filetype needs_recovery extent 64bit flex_bg sparse_super large_file huge_file dir_nlink extra_isize metadata_csum Filesystem flags: signed_directory_hash Default mount options: user_xattr acl Filesystem state: clean Errors behavior: Continue Filesystem OS type: Linux Inode count: 196608 Block count: 786432 Reserved block count: 39321 Free blocks: 755396 Free inodes: 196587 First block: 0 Block size: 4096 Fragment size: 4096 Group descriptor size: 64 Reserved GDT blocks: 383 Blocks per group: 32768 Fragments per group: 32768 Inodes per group: 8192 Inode blocks per group: 512 Flex block group size: 16 Filesystem created: Tue Apr 14 23:17:19 2020 Last mount time: Tue Apr 14 23:22:21 2020 Last write time: Tue Apr 14 23:22:21 2020 Mount count: 1 Maximum mount count: -1 Last checked: Tue Apr 14 23:21:41 2020 Check interval: 0 (<none>) Lifetime writes: 67 MB Reserved blocks uid: 0 (user root) Reserved blocks gid: 0 (group root) First inode: 11 Inode size: 256 Required extra isize: 32 Desired extra isize: 32 Journal inode: 8 Default directory hash: half_md4 Directory Hash Seed: dae36448-2e8c-467a-b270-536e866f823f Journal backup: inode blocks Checksum type: crc32c Checksum: 0x4f7178a0
xfs_info 查看文件元數據 xfs文件系統
[root@localhost ~]# xfs_info /dev/sda2 meta-data=/dev/sda2 isize=512 agcount=4, agsize=6553600 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=1, sparse=1, rmapbt=0 = reflink=1 data = bsize=4096 blocks=26214400, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0, ftype=1 log =internal log bsize=4096 blocks=12800, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0
tune2fs 修改塊設備文件的特性
tune2fs -o acl 爲設備文件添加acl功能
mount -a 修改掛載配置文件後讓配置文件生效
blkid 查看設備的uuid
e2label 爲ext4設備添加捲標
dumpe2fs 查看ext4文件系統設備的塊組,設備的元數據
fuser -v lsof 查詢文件被哪一個用戶使用
mount
-t vsftype 指定要掛載的設備上的文件系統類型 -r readonly 只讀掛載 -w read and write 讀寫掛載 -n 不更新/etc/mtab,mount不可見 -a 自動掛載全部支持自動掛載的設備(定義在了/etc/fstab文件中,且掛載選項中有auto功能) -L 'LABEL' 以卷標指定掛載設備 -U 'UUID' 以UUID指定要掛載的設備 -B --bind 綁定目錄到另外一個目錄上 -o options:(掛載文件系統的選項),多個選項使用逗號分隔 async 異步模式,內存更改時,寫入緩存區buffer,過一段時間再寫到磁盤中,效率高,但不安全 sync 同步模式,內存更改時,同時寫磁盤,安全,但效率低下 atime/noatime 包含目錄和文件 diratime/nodiratime 目錄的訪問時間戳 auto/noauto 是否支持開機自動掛載,是否支持-a選項 exec/noexec 是否支持將文件系統上運行應用程序 dev/nodev 是否支持在此文件系統上使用設備文件 suid/nosuid 是否支持suid和sgid權限 remount 從新掛載 ro/rw 只讀、讀寫 user/nouser 是否容許普通用戶掛載此設備,/etc/fstab使用 acl/noacl 啓用此文件系統上的acl功能 loop 使用loop設備 _netdev 當網絡可用時纔對網絡資源進行掛載,如:NFS文件系統 defaults 至關於rw, suid, dev, exec, auto, nouser, async
mount -o loop cento6掛載文件
fuser -km +設備 踢出所有正在使用該設備的用戶
fsck 檢查修復文件系統工具
e2fsck ext文件系統專用修復工具
xfs_repair xfs文件系統修復工具
etc/fstab 保存掛載信息
df只能看到已經被掛載的設
後兩排數字第一個爲備份,0爲不備份,1爲1天備份一次,第二個數字爲開機時對文件系統檢查,0爲不檢查,數字爲檢查順序
# # /etc/fstab # Created by anaconda on Tue Apr 14 06:12:25 2020 # # Accessible filesystems, by reference, are maintained under '/dev/disk/'. # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info. # # After editing this file, run 'systemctl daemon-reload' to update systemd # units generated from this file. # UUID=1eb16b93-c5a2-40a3-8daa-8eae7a74a090 / xfs defaults 0 0 UUID=d3be8bb8-f447-48b1-988f-7c6275e9888b /boot ext4 defaults 1 2 UUID=5c31da75-a5b2-4d05-9f4e-0567962f7c5f /data xfs defaults 0 0 UUID=b719fa02-4848-45b1-952f-e9c0cbac7cd8 swap swap defaults 0 0
swap分區是在內存不足時,臨時調用硬盤空間做爲內存的技術,因爲硬盤速度遠不及內存速度,因此當系統開始使用swap分區時,系統運行速度將會降低
通常狀況下,swap分區大小應該爲內存大小的兩倍,但最大不該超過8G
/proc/sys/vm/swappiness 爲開始使用swap空間的區間,當內存空間剩餘該文件的數值時,啓用swap分區
/proc/swaps 保存各個swap分區使用優先級數值越大越優先
mkswap 將分區設置成swap文件系統
swapon -a 新增swap分區後讓配置生效
swapon -s 查看swap分區
swapon -p 設置swap分區的優先級
partprobe 同步分區表
pvs 顯示目前存在的物理卷
pvdisplay 顯示目前存在的物理卷
pvcreate 建立物理卷
pvremove 刪除物理卷
vgs 顯示目前存在的卷組
vgdisplay 詳細顯示目前存在的卷組
vgcreate 建立卷組
vgremove 刪除卷組,須要先刪除物理卷
vgextend 擴展卷組
vgreduce 從卷組中刪除物理卷
lvs 顯示目前存在的邏輯卷
lvdisplay 詳細顯示目前存在的邏輯卷
lvresize -r 重設大小
lvcreate -n 名字 -l 大小,建立邏輯卷 100%FREE 用剩餘空間 20%VG使用百分之20
lvextend -l 能夠擴展邏輯卷 擴展邏輯卷後須要同步文件系統,不然df顯示大小不變
lvreduce -L 縮減邏輯卷,縮減邏輯卷大小分4步
resize2fs +掛載點,擴容邏輯卷後同步ext4文件系統
xfs_growfs +掛載點,擴容邏輯卷後同步xfs文件系統
lvconvert --merge+快照名 恢復邏輯卷快照,恢復快照前須要取消邏輯卷掛載
[root@localhost ~]# pvcreate /dev/sdb1 Physical volume "/dev/sdb1" successfully created. [root@localhost ~]# pvs PV VG Fmt Attr PSize PFree /dev/sdb1 lvm2 --- <20.00g <20.00 [root@localhost ~]# vgcreate asd /dev/sdb1 Volume group "asd" successfully created [root@localhost ~]# vgs VG #PV #LV #SN Attr VSize VFree asd 1 0 0 wz--n- <20.00g <20.00g
[root@localhost ~]# lvcreate -L 500M -n lv0 asd
Logical volume "lv0" created.
[root@localhost ~]# mkfs.ext4 /dev/asd/lv0
mke2fs 1.44.6 (5-Mar-2019)
Creating filesystem with 512000 1k blocks and 128016 inodes
Filesystem UUID: 6ba27e70-09d9-4143-a408-08b6e201cdce
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729, 204801, 221185, 401409
[root@localhost ~]# mount /dev/asd/lv0 /mnt/lv0
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv0 asd -wi-ao---- 500.00m
[root@localhost ~]# lvextend -l +70%FREE /dev/asd/lv0
Size of logical volume asd/lv0 changed from 500.00 MiB (125 extents) to 14.14 GiB (3621 extents).
Logical volume asd/lv0 successfully resized.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv0 asd -wi-ao---- 14.14g
[root@localhost ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 463M 0 463M 0% /dev
tmpfs 479M 0 479M 0% /dev/shm
tmpfs 479M 6.7M 472M 2% /run
tmpfs 479M 0 479M 0% /sys/fs/cgroup
/dev/sda2 100G 2.1G 98G 3% /
/dev/sda5 50G 390M 50G 1% /data
/dev/sda1 976M 112M 798M 13% /boot
tmpfs 96M 0 96M 0% /run/user/0
/dev/mapper/asd-lv0 477M 2.3M 445M 1% /mnt/lv0
[root@localhost ~]# resize2fs /dev/asd/lv0
resize2fs 1.44.6 (5-Mar-2019)
Filesystem at /dev/asd/lv0 is mounted on /mnt/lv0; on-line resizing required
old_desc_blocks = 4, new_desc_blocks = 114
The filesystem on /dev/asd/lv0 is now 14831616 (1k) blocks long.
[root@localhost ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 463M 0 463M 0% /dev
tmpfs 479M 0 479M 0% /dev/shm
tmpfs 479M 6.7M 472M 2% /run
tmpfs 479M 0 479M 0% /sys/fs/cgroup
/dev/sda2 100G 2.1G 98G 3% /
/dev/sda5 50G 390M 50G 1% /data
/dev/sda1 976M 112M 798M 13% /boot
tmpfs 96M 0 96M 0% /run/user/0
/dev/mapper/asd-lv0 14G 2.2M 14G 1% /mnt/lv0
[root@localhost ~]# umount /mnt/lv0 第一步:取消掛載
[root@localhost ~]# fsck -f /dev/asd/lv0 第二步:檢查文件系統
fsck from util-linux 2.32.1
e2fsck 1.44.6 (5-Mar-2019)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/mapper/asd-lv0: 11/3679952 files (0.0% non-contiguous), 475738/14831616 blocks
[root@localhost ~]# resize2fs /dev/asd/lv0 1G 第三步:將文件系統設置爲1G
resize2fs 1.44.6 (5-Mar-2019)
Resizing the filesystem on /dev/asd/lv0 to 1048576 (1k) blocks.
The filesystem on /dev/asd/lv0 is now 1048576 (1k) blocks long.
[root@localhost ~]# lvreduce -L 1G /dev/
Display all 163 possibilities? (y or n)
[root@localhost ~]# lvreduce -L 1G /dev/asd/lv0 第四步:將邏輯捲縮減爲1G
WARNING: Reducing active logical volume to 1.00 GiB.
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce asd/lv0? [y/n]: y
Size of logical volume asd/lv0 changed from 14.14 GiB (3621 extents) to 1.00 GiB (256 extents).
Logical volume asd/lv0 successfully resized.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lv0 asd -wi-a----- 1.00g
[root@localhost ~]# lvcreate -l 64 -s -n lv0-snapshot -p r /dev/asd/lv0 建立邏輯卷快照
Logical volume "lv0-snapshot" created.
eject 彈出光驅
RAID,磁盤冗餘陣列
RAID功能:
提升IO能力,磁盤並行讀寫
提升耐用性,磁盤冗餘算法來實現
RAID實現的方式:
外接式磁盤陣列:經過擴展卡提供適配能力
內接式RAID:主板集成RAID控制器,安裝OS前在BIOS裏配置
軟件RAID:經過OS實現,好比:羣暉的NAS
經常使用RAID級別
RAID 0
RAID0又稱條帶卷,最少須要兩塊硬盤才能組成,工做的時候將數據拆分,對全部硬盤同時進行讀寫,讀寫速度最快,缺點是沒法提供冗餘功能,壞一塊一盤將致使數據丟失。
RAID 1
RAID1又稱鏡像卷,最少須要兩塊硬盤才能組成,且磁盤數量必須爲雙數,工做時將同一個數據分別寫入兩塊磁盤,兩塊磁盤內容徹底一致,其中一塊磁盤壞了也不會丟數據,可是存儲空間要打對摺。
RAID 5
RAID5組成最少須要3塊磁盤,工做時將一個數據拆分紅磁盤數量減一的份數,而後生成一個校驗位寫入剩下的磁盤中,IO速度會有提高,存儲空間爲N-1,最多容許損壞一塊硬盤。
RAID 6
RAID5組成最少須要4塊磁盤,工做時將一個數據拆分紅磁盤數量減2的份數,而後生成兩個個校驗位寫入剩下的磁盤中,IO速度會有提高,存儲空間爲N-2,最多容許損壞兩塊硬盤。
RAID 10
RAID10爲RAID1和RAID0的組合,先將磁盤兩兩作成RAID1,而後將全部RAID1作成RAID0,組成RAID10最少須要4塊硬盤,並且磁盤數量必須是雙數,RAID10的容量爲磁盤數量除2,RAID10能夠提高IO速度,也提供了冗餘功能,最多每組RAID1中壞一塊磁盤。
網絡管理
ISO國際標準化組織的OSI網絡七層參考模型
應用層、表示層、會話層、傳輸層、網絡層、數據鏈路層、物理層
mii-tool 查看網卡信息
Ip link 查看網卡信息
中國無線網絡標準 WAPI
國際通用wifi標準爲802.11