馬哥博客做業第五週

1、磁盤管理node

 

磁盤設備二進制文件前512字節中,前446字節是啓動相關數據,隨後64字節是分區表,最後兩位是55AA標記位linux

 

lsblk -d -o name,rota 判斷磁盤是固態仍是機械,ROTA1是機械,爲0是固態算法

parted /dev/sdb print  打印/dev/sdb的分區表 緩存

parted /dev/sdb mklabel msdos 建立mbr分區 修改設備文件前512字節安全

parted /dev/sdb mklabel gpt 建立gpt分區網絡

parted /dev/sdb mkpart 1 200  1M200M建立分區 199M的空間app

parted /dev/sdb rm 1 刪除第一個分區異步

dd if=/dev/zero of=/dev/sdb bs=1 count=66 seek=446 刪除磁盤文件前512字節的後66字節,55 aa若是在的話系統仍會認爲磁盤存在分區async

parted修改分區不須要保存,比較危險工具

 

fdisk 更適合管理MBR分區

gdisk 更適合管理GPT分區

 

子命令

 

  p 分區列表

 

  t 更改分區類型

 

  n 建立新分區

 

  d 刪除分區

 

  v 校驗分區

 

  u 轉換單位

 

  w 保存並退出

 

  q 不保存並退出

 

 

2、文件系統

 

LINUX中,經常使用的文件系統爲ext4和xfs文件系統

 

 

tune2fs -l 查看文件元數據 ext4文件系統

 

[root@localhost ~]# tune2fs -l /dev/sdb2
tune2fs 1.44.6 (5-Mar-2019)
Filesystem volume name:   <none>
Last mounted on:          <not available>
Filesystem UUID:          a491c4fd-65ff-42da-af1a-d9cec0af4314
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery extent 64bit flex_bg sparse_super large_file huge_file dir_nlink extra_isize metadata_csum
Filesystem flags:         signed_directory_hash 
Default mount options:    user_xattr acl
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              196608
Block count:              786432
Reserved block count:     39321
Free blocks:              755396
Free inodes:              196587
First block:              0
Block size:               4096
Fragment size:            4096
Group descriptor size:    64
Reserved GDT blocks:      383
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         8192
Inode blocks per group:   512
Flex block group size:    16
Filesystem created:       Tue Apr 14 23:17:19 2020
Last mount time:          Tue Apr 14 23:22:21 2020
Last write time:          Tue Apr 14 23:22:21 2020
Mount count:              1
Maximum mount count:      -1
Last checked:             Tue Apr 14 23:21:41 2020
Check interval:           0 (<none>)
Lifetime writes:          67 MB
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:              256
Required extra isize:     32
Desired extra isize:      32
Journal inode:            8
Default directory hash:   half_md4
Directory Hash Seed:      dae36448-2e8c-467a-b270-536e866f823f
Journal backup:           inode blocks
Checksum type:            crc32c
Checksum:                 0x4f7178a0

 

 

xfs_info  查看文件元數據 xfs文件系統

 

[root@localhost ~]# xfs_info /dev/sda2
meta-data=/dev/sda2              isize=512    agcount=4, agsize=6553600 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=26214400, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=12800, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

tune2fs 修改塊設備文件的特性

 

tune2fs -o acl 爲設備文件添加acl功能

 

mount -a 修改掛載配置文件後讓配置文件生效

 

blkid 查看設備的uuid

 

e2label ext4設備添加捲標

 

dumpe2fs 查看ext4文件系統設備的塊組,設備的元數據

 

fuser -v  lsof  查詢文件被哪一個用戶使用

 

mount

 

-t vsftype   指定要掛載的設備上的文件系統類型
-r readonly  只讀掛載
-w read and write  讀寫掛載
-n   不更新/etc/mtab,mount不可見
-a   自動掛載全部支持自動掛載的設備(定義在了/etc/fstab文件中,且掛載選項中有auto功能)
-L   'LABEL' 以卷標指定掛載設備
-U   'UUID' 以UUID指定要掛載的設備
-B  --bind   綁定目錄到另外一個目錄上
-o options:(掛載文件系統的選項),多個選項使用逗號分隔
  async 異步模式,內存更改時,寫入緩存區buffer,過一段時間再寫到磁盤中,效率高,但不安全
  sync 同步模式,內存更改時,同時寫磁盤,安全,但效率低下
  atime/noatime 包含目錄和文件
  diratime/nodiratime 目錄的訪問時間戳
  auto/noauto 是否支持開機自動掛載,是否支持-a選項
  exec/noexec 是否支持將文件系統上運行應用程序
  dev/nodev 是否支持在此文件系統上使用設備文件
  suid/nosuid 是否支持suid和sgid權限
  remount 從新掛載
  ro/rw 只讀、讀寫
  user/nouser 是否容許普通用戶掛載此設備,/etc/fstab使用
  acl/noacl 啓用此文件系統上的acl功能
  loop 使用loop設備
  _netdev 當網絡可用時纔對網絡資源進行掛載,如:NFS文件系統
  defaults 至關於rw, suid, dev, exec, auto, nouser, async

 

 

mount -o loop  cento6掛載文件

fuser -km +設備 踢出所有正在使用該設備的用戶

 

fsck   檢查修復文件系統工具

 

e2fsck ext文件系統專用修復工具

 

xfs_repair xfs文件系統修復工具

 

etc/fstab 保存掛載信息

 

df只能看到已經被掛載的設

 

 

後兩排數字第一個爲備份,0爲不備份,11天備份一次,第二個數字爲開機時對文件系統檢查,0爲不檢查,數字爲檢查順序

 

 

#
# /etc/fstab
# Created by anaconda on Tue Apr 14 06:12:25 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk/'.
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
#
# After editing this file, run 'systemctl daemon-reload' to update systemd
# units generated from this file.
#
UUID=1eb16b93-c5a2-40a3-8daa-8eae7a74a090 /                       xfs     defaults        0 0
UUID=d3be8bb8-f447-48b1-988f-7c6275e9888b /boot                   ext4    defaults        1 2
UUID=5c31da75-a5b2-4d05-9f4e-0567962f7c5f /data                   xfs     defaults        0 0
UUID=b719fa02-4848-45b1-952f-e9c0cbac7cd8 swap                    swap    defaults        0 0

 

 

swap分區是在內存不足時,臨時調用硬盤空間做爲內存的技術,因爲硬盤速度遠不及內存速度,因此當系統開始使用swap分區時,系統運行速度將會降低

通常狀況下,swap分區大小應該爲內存大小的兩倍,但最大不該超過8G

/proc/sys/vm/swappiness 爲開始使用swap空間的區間,當內存空間剩餘該文件的數值時,啓用swap分區

/proc/swaps 保存各個swap分區使用優先級數值越大越優先

mkswap 將分區設置成swap文件系統

swapon -a 新增swap分區後讓配置生效

swapon -s 查看swap分區

swapon -p 設置swap分區的優先級

partprobe 同步分區表

 

 

pvs 顯示目前存在的物理卷

pvdisplay 顯示目前存在的物理卷

pvcreate 建立物理卷

 

pvremove 刪除物理卷

 

 

vgs 顯示目前存在的卷組

 

vgdisplay 詳細顯示目前存在的卷組

 

vgcreate 建立卷組

 

vgremove 刪除卷組,須要先刪除物理卷

 

vgextend 擴展卷組

 

vgreduce 從卷組中刪除物理卷

 

 

lvs 顯示目前存在的邏輯卷

 

lvdisplay 詳細顯示目前存在的邏輯卷

 

lvresize -r 重設大小

 

 

lvcreate -n 名字 -l 大小,建立邏輯卷 100%FREE 用剩餘空間    20%VG使用百分之20

 

lvextend -l 能夠擴展邏輯卷 擴展邏輯卷後須要同步文件系統,不然df顯示大小不變

 

lvreduce -L 縮減邏輯卷,縮減邏輯卷大小分4步

resize2fs +掛載點,擴容邏輯卷後同步ext4文件系統

xfs_growfs +掛載點,擴容邏輯卷後同步xfs文件系統

 

lvconvert --merge+快照名  恢復邏輯卷快照,恢復快照前須要取消邏輯卷掛載

 

[root@localhost ~]# pvcreate /dev/sdb1 
  Physical volume "/dev/sdb1" successfully created.
[root@localhost ~]# pvs
  PV         VG Fmt  Attr PSize   PFree  
  /dev/sdb1     lvm2 ---  <20.00g <20.00
[root@localhost ~]# vgcreate asd /dev/sdb1 
  Volume group "asd" successfully created
[root@localhost ~]# vgs
  VG  #PV #LV #SN Attr   VSize   VFree  
  asd   1   0   0 wz--n- <20.00g <20.00g
[root@localhost ~]# lvcreate -L 500M -n lv0 asd
  Logical volume "lv0" created.
[root@localhost ~]# mkfs.ext4 /dev/asd/lv0
mke2fs 1.44.6 (5-Mar-2019)
Creating filesystem with 512000 1k blocks and 128016 inodes
Filesystem UUID: 6ba27e70-09d9-4143-a408-08b6e201cdce
Superblock backups stored on blocks:
    8193, 24577, 40961, 57345, 73729, 204801, 221185, 401409
[root@localhost ~]# mount /dev/asd/lv0 /mnt/lv0
[root@localhost ~]# lvs
  LV   VG  Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv0  asd -wi-ao---- 500.00m  
[root@localhost ~]# lvextend -l +70%FREE /dev/asd/lv0
  Size of logical volume asd/lv0 changed from 500.00 MiB (125 extents) to 14.14 GiB (3621 extents).
  Logical volume asd/lv0 successfully resized.
[root@localhost ~]# lvs
  LV   VG  Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv0  asd -wi-ao---- 14.14g  
[root@localhost ~]# df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             463M     0  463M   0% /dev
tmpfs                479M     0  479M   0% /dev/shm
tmpfs                479M  6.7M  472M   2% /run
tmpfs                479M     0  479M   0% /sys/fs/cgroup
/dev/sda2            100G  2.1G   98G   3% /
/dev/sda5             50G  390M   50G   1% /data
/dev/sda1            976M  112M  798M  13% /boot
tmpfs                 96M     0   96M   0% /run/user/0
/dev/mapper/asd-lv0  477M  2.3M  445M   1% /mnt/lv0
[root@localhost ~]# resize2fs /dev/asd/lv0
resize2fs 1.44.6 (5-Mar-2019)
Filesystem at /dev/asd/lv0 is mounted on /mnt/lv0; on-line resizing required
old_desc_blocks = 4, new_desc_blocks = 114
The filesystem on /dev/asd/lv0 is now 14831616 (1k) blocks long.

[root@localhost ~]# df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             463M     0  463M   0% /dev
tmpfs                479M     0  479M   0% /dev/shm
tmpfs                479M  6.7M  472M   2% /run
tmpfs                479M     0  479M   0% /sys/fs/cgroup
/dev/sda2            100G  2.1G   98G   3% /
/dev/sda5             50G  390M   50G   1% /data
/dev/sda1            976M  112M  798M  13% /boot
tmpfs                 96M     0   96M   0% /run/user/0
/dev/mapper/asd-lv0   14G  2.2M   14G   1% /mnt/lv0
[root@localhost ~]# umount /mnt/lv0 第一步:取消掛載
[root@localhost ~]# fsck -f /dev/asd/lv0 第二步:檢查文件系統
fsck from util-linux 2.32.1
e2fsck 1.44.6 (5-Mar-2019)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/mapper/asd-lv0: 11/3679952 files (0.0% non-contiguous), 475738/14831616 blocks
[root@localhost ~]# resize2fs /dev/asd/lv0 1G 第三步:將文件系統設置爲1G
resize2fs 1.44.6 (5-Mar-2019)
Resizing the filesystem on /dev/asd/lv0 to 1048576 (1k) blocks.
The filesystem on /dev/asd/lv0 is now 1048576 (1k) blocks long.
[root@localhost ~]# lvreduce -L 1G /dev/
Display all 163 possibilities? (y or n)
[root@localhost ~]# lvreduce -L 1G /dev/asd/lv0 第四步:將邏輯捲縮減爲1G
  WARNING: Reducing active logical volume to 1.00 GiB.
  THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce asd/lv0? [y/n]: y
  Size of logical volume asd/lv0 changed from 14.14 GiB (3621 extents) to 1.00 GiB (256 extents).
  Logical volume asd/lv0 successfully resized.
[root@localhost ~]# lvs
  LV   VG  Attr       LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  lv0  asd -wi-a----- 1.00g   
[root@localhost ~]# lvcreate -l 64 -s -n lv0-snapshot -p r /dev/asd/lv0 建立邏輯卷快照
  Logical volume "lv0-snapshot" created.

 

 

eject 彈出光驅

 

RAID,磁盤冗餘陣列

 

RAID功能:

 

  提升IO能力,磁盤並行讀寫

 

  提升耐用性,磁盤冗餘算法來實現

 

RAID實現的方式:

 

  外接式磁盤陣列:經過擴展卡提供適配能力

 

  內接式RAID:主板集成RAID控制器,安裝OS前在BIOS裏配置

 

  軟件RAID:經過OS實現,好比:羣暉的NAS

 

經常使用RAID級別

RAID 0

RAID0又稱條帶卷,最少須要兩塊硬盤才能組成,工做的時候將數據拆分,對全部硬盤同時進行讀寫,讀寫速度最快,缺點是沒法提供冗餘功能,壞一塊一盤將致使數據丟失。

RAID 1

RAID1又稱鏡像卷,最少須要兩塊硬盤才能組成,且磁盤數量必須爲雙數,工做時將同一個數據分別寫入兩塊磁盤,兩塊磁盤內容徹底一致,其中一塊磁盤壞了也不會丟數據,可是存儲空間要打對摺。

RAID 5

RAID5組成最少須要3塊磁盤,工做時將一個數據拆分紅磁盤數量減一的份數,而後生成一個校驗位寫入剩下的磁盤中,IO速度會有提高,存儲空間爲N-1,最多容許損壞一塊硬盤。

RAID 6

RAID5組成最少須要4塊磁盤,工做時將一個數據拆分紅磁盤數量減2的份數,而後生成兩個個校驗位寫入剩下的磁盤中,IO速度會有提高,存儲空間爲N-2,最多容許損壞兩塊硬盤。

RAID 10

RAID10爲RAID1和RAID0的組合,先將磁盤兩兩作成RAID1,而後將全部RAID1作成RAID0,組成RAID10最少須要4塊硬盤,並且磁盤數量必須是雙數,RAID10的容量爲磁盤數量除2,RAID10能夠提高IO速度,也提供了冗餘功能,最多每組RAID1中壞一塊磁盤。

 

網絡管理

 

ISO國際標準化組織的OSI網絡七層參考模型

應用層、表示層、會話層、傳輸層、網絡層、數據鏈路層、物理層

 

mii-tool 查看網卡信息

Ip link 查看網卡信息

中國無線網絡標準 WAPI

國際通用wifi標準爲802.11

相關文章
相關標籤/搜索