從 inode 瞭解 Linux 文件系統node
硬連接與軟連接是 Linux 文件系統中的一個重要概念,其涉及文件系統中的索引節點 (index node 又稱 inode),而索引節點對象是 Linux 虛擬文件系統 (VFS) 的四個基本概念之一。經過剖析硬連接與軟連接的聯繫與區別,咱們可更好的瞭解 Linux 中 VFS 這一通用文件模型。並讓 Linux 普通用戶和系統管理員正確使用硬連接與軟連接,幫助文件系統開發者獲取 inode 的相關知識。linux
1 評論: shell
王 華東, 自由職業者緩存
2012 年 12 月 20 日安全
在 IBM Bluemix 雲平臺上開發並部署您的下一個應用。網絡
開始您的試用架構
現代操做系統爲解決信息能獨立於進程以外被長期存儲引入了文件,文件做爲進程 建立信息的邏輯單元可被多個進程併發使用。在 UNIX 系統中,操做系統爲磁盤上的文本與圖像、鼠標與鍵盤等輸入設備及網絡交互等 I/O 操做設計了一組通用 API,使他們被處理時都可統一使用字節流方式。換言之,UNIX 系統中除進程以外的一切皆是文件,而 Linux 保持了這一特性。爲了便於文件的管理,Linux 還引入了目錄(有時亦被稱爲文件夾)這一律念。目錄使文件可被分類管理,且目錄的引入使 Linux 的文件系統造成一個層級結構的目錄樹。清單 1.所示的是普通 Linux 系統的頂層目錄結構,其中 /dev 是存放了設備相關文件的目錄。併發
/ 根目錄 ├── bin 存放用戶二進制文件 ├── boot 存放內核引導配置文件 ├── dev 存放設備文件 ├── etc 存放系統配置文件 ├── home 用戶主目錄 ├── lib 動態共享庫 ├── lost+found 文件系統恢復時的恢復文件 ├── media 可卸載存儲介質掛載點 ├── mnt 文件系統臨時掛載點 ├── opt 附加的應用程序包 ├── proc 系統內存的映射目錄,提供內核與進程信息 ├── root root 用戶主目錄 ├── sbin 存放系統二進制文件 ├── srv 存放服務相關數據 ├── sys sys 虛擬文件系統掛載點 ├── tmp 存放臨時文件 ├── usr 存放用戶應用程序 └── var 存放郵件、系統日誌等變化文件
Linux 與其餘類 UNIX 系統同樣並不區分文件與目錄:目錄是記錄了其餘文件名的文件。使用命令 mkdir 建立目錄時,若指望建立的目錄的名稱與現有的文件名(或目錄名)重複,則會建立失敗。ide
# ls -F /usr/bin/zi* /usr/bin/zip* /usr/bin/zipgrep* /usr/bin/zipnote* /usr/bin/zipcloak* /usr/bin/zipinfo* /usr/bin/zipsplit* # mkdir -p /usr/bin/zip mkdir: cannot create directory `/usr/bin/zip': File exists
Linux 將設備當作文件進行處理,清單 2.展 示瞭如何打開設備文件 /dev/input/event5 並讀取文件內容。文件 event5 表示一種輸入設備,其多是鼠標或鍵盤等。查看文件 /proc/bus/input/devices 可知 event5 對應設備的類型。設備文件 /dev/input/event5 使用 read() 以字符流的方式被讀取。結構體 input_event 被定義在內核頭文件 linux/input.h 中。
int fd; struct input_event ie; fd = open("/dev/input/event5", O_RDONLY); read(fd, &ie, sizeof(struct input_event)); printf("type = %d code = %d value = %d\n", ie.type, ie.code, ie.value); close(fd);
我 們知道文件都有文件名與數據,這在 Linux 上被分紅兩個部分:用戶數據 (user data) 與元數據 (metadata)。用戶數據,即文件數據塊 (data block),數據塊是記錄文件真實內容的地方;而元數據則是文件的附加屬性,如文件大小、建立時間、全部者等信息。在 Linux 中,元數據中的 inode 號(inode 是文件元數據的一部分但其並不包含文件名,inode 號即索引節點號)纔是文件的惟一標識而非文件名。文件名僅是爲了方便人們的記憶和使用,系統或程序經過 inode 號尋找正確的文件數據塊。圖 1.展現了程序經過文件名獲取文件內容的過程。
# stat /home/harris/source/glibc-2.16.0.tar.xz File: `/home/harris/source/glibc-2.16.0.tar.xz' Size: 9990512 Blocks: 19520 IO Block: 4096 regular file Device: 807h/2055d Inode: 2485677 Links: 1 Access: (0600/-rw-------) Uid: ( 1000/ harris) Gid: ( 1000/ harris) ... ... # mv /home/harris/source/glibc-2.16.0.tar.xz /home/harris/Desktop/glibc.tar.xz # ls -i -F /home/harris/Desktop/glibc.tar.xz 2485677 /home/harris/Desktop/glibc.tar.xz
在 Linux 系統中查看 inode 號可以使用命令 stat 或 ls -i(如果 AIX 系統,則使用命令 istat)。清單 3.中使用命令 mv 移動並重命名文件 glibc-2.16.0.tar.xz,其結果不影響文件的用戶數據及 inode 號,文件移動先後 inode 號均爲:2485677。
爲 解決文件的共享使用,Linux 系統引入了兩種連接:硬連接 (hard link) 與軟連接(又稱符號連接,即 soft link 或 symbolic link)。連接爲 Linux 系統解決了文件的共享使用,還帶來了隱藏文件路徑、增長權限安全及節省存儲等好處。若一個 inode 號對應多個文件名,則稱這些文件爲硬連接。換言之,硬連接就是同一個文件使用了多個別名(見 圖 2.hard link 就是 file 的一個別名,他們有共同的 inode)。硬連接可由命令 link 或 ln 建立。以下是對文件 oldfile 建立硬連接。
link oldfile newfile ln oldfile newfile
因爲硬連接是有着相同 inode 號僅文件名不一樣的文件,所以硬連接存在如下幾點特性:
文件有相同的 inode 及 data block;
只能對已存在的文件進行建立;
不能交叉文件系統進行硬連接的建立;
不能對目錄進行建立,只可對文件建立;
刪除一個硬連接文件並不影響其餘有相同 inode 號的文件。
# ls -li total 0 // 只能對已存在的文件建立硬鏈接 # link old.file hard.link link: cannot create link `hard.link' to `old.file': No such file or directory # echo "This is an original file" > old.file # cat old.file This is an original file # stat old.file File: `old.file' Size: 25 Blocks: 8 IO Block: 4096 regular file Device: 807h/2055d Inode: 660650 Links: 2 Access: (0644/-rw-r--r--) Uid: ( 0/ root) Gid: ( 0/ root) ... // 文件有相同的 inode 號以及 data block # link old.file hard.link | ls -li total 8 660650 -rw-r--r-- 2 root root 25 Sep 1 17:44 hard.link 660650 -rw-r--r-- 2 root root 25 Sep 1 17:44 old.file // 不能交叉文件系統 # ln /dev/input/event5 /root/bfile.txt ln: failed to create hard link `/root/bfile.txt' => `/dev/input/event5': Invalid cross-device link // 不能對目錄進行建立硬鏈接 # mkdir -p old.dir/test # ln old.dir/ hardlink.dir ln: `old.dir/': hard link not allowed for directory # ls -iF 660650 hard.link 657948 old.dir/ 660650 old.file
文件 old.file 與 hard.link 有着相同的 inode 號:660650 及文件權限,inode 是隨着文件的存在而存在,所以只有當文件存在時纔可建立硬連接,即當 inode 存在且連接計數器(link count)不爲 0 時。inode 號僅在各文件系統下是惟一的,當 Linux 掛載多個文件系統後將出現 inode 號重複的現象(如 清單 5.所 示,文件 t3.jpg、sync 及 123.txt 並沒有關聯,卻有着相同的 inode 號),所以硬連接建立時不可跨文件系統。設備文件目錄 /dev 使用的文件系統是 devtmpfs,而 /root(與根目錄 / 一致)使用的是磁盤文件系統 ext4。清單 5.展現了使用命令 df 查看當前系統中掛載的文件系統類型、各文件系統 inode 使用狀況及文件系統掛載點。
# df -i --print-type Filesystem Type Inodes IUsed IFree IUse% Mounted on /dev/sda7 ext4 3147760 283483 2864277 10% / udev devtmpfs 496088 553 495535 1% /dev tmpfs tmpfs 499006 491 498515 1% /run none tmpfs 499006 3 499003 1% /run/lock none tmpfs 499006 15 498991 1% /run/shm /dev/sda6 fuseblk 74383900 4786 74379114 1% /media/DiskE /dev/sda8 fuseblk 29524592 19939 29504653 1% /media/DiskF # find / -inum 1114 /media/DiskE/Pictures/t3.jpg /media/DiskF/123.txt /bin/sync
值得一提的是,Linux 系統存在 inode 號被用完但磁盤空間還有剩餘的狀況。咱們建立一個 5M 大小的 ext4 類型的 mo.img 文件,並將其掛載至目錄 /mnt。而後咱們使用一個 shell 腳本將掛載在 /mnt 下 ext4 文件系統的 indoe 耗盡(見清單 6.)。
# dd if=/dev/zero of=mo.img bs=5120k count=1 # ls -lh mo.img -rw-r--r-- 1 root root 5.0M Sep 1 17:54 mo.img # mkfs -t ext4 -F ./mo.img ... OS type: Linux Block size=1024 (log=0) Fragment size=1024 (log=0) Stride=0 blocks, Stripe width=0 blocks 1280 inodes, 5120 blocks 256 blocks (5.00%) reserved for the super user ... ... Writing superblocks and filesystem accounting information: done # mount -o loop ./mo.img /mnt # cat /mnt/inode_test.sh #!/bin/bash for ((i = 1; ; i++)) do if [ $? -eq 0 ]; then echo "This is file_$i" > file_$i else exit 0 fi done # ./inode_test.sh ./inode_test.sh: line 6: file_1269: No space left on device # df -iT /mnt/; du -sh /mnt/ Filesystem Type Inodes IUsed IFree IUse% Mounted on /dev/loop0 ext4 1280 1280 0 100% /mnt 1.3M /mnt/
硬連接不能對目錄建立是受限於文件系統的設計(見 清單 4.對 目錄建立硬連接將失敗)。現 Linux 文件系統中的目錄均隱藏了兩個個特殊的目錄:當前目錄(.)與父目錄(..)。查看這兩個特殊目錄的 inode 號可知其實這兩目錄就是兩個硬連接(注意目錄 /mnt/lost+found/ 的 inode 號)。若系統容許對目錄建立硬連接,則會產生目錄環。
# ls -aliF /mnt/lost+found total 44 11 drwx------ 2 root root 12288 Sep 1 17:54 ./ 2 drwxr-xr-x 3 root root 31744 Sep 1 17:57 ../ # stat /mnt/lost+found/ File: `/mnt/lost+found/' Size: 12288 Blocks: 24 IO Block: 1024 directory Device: 700h/1792d Inode: 11 Links: 2 Access: (0700/drwx------) Uid: ( 0/ root) Gid: ( 0/ root) Access: 2012-09-01 17:57:17.000000000 +0800 Modify: 2012-09-01 17:54:49.000000000 +0800 Change: 2012-09-01 17:54:49.000000000 +0800 Birth: -
軟連接與硬連接不一樣,若文件用戶數據塊中存放的內容是另外一文件的路徑名的指向,則該文件就是軟鏈接。軟連接就是一個普通文件,只是數據塊內容有點特殊。軟連接有着本身的 inode 號以及用戶數據塊(見 圖 2.)。所以軟連接的建立與使用沒有相似硬連接的諸多限制:
軟連接有本身的文件屬性及權限等;
可對不存在的文件或目錄建立軟連接;
軟連接可交叉文件系統;
軟連接可對文件或目錄建立;
建立軟連接時,連接計數 i_nlink 不會增長;
刪除軟連接並不影響被指向的文件,但若被指向的原文件被刪除,則相關軟鏈接被稱爲死連接(即 dangling link,若被指向路徑文件被從新建立,死連接可恢復爲正常的軟連接)。
# ls -li total 0 // 可對不存在的文件建立軟連接 # ln -s old.file soft.link # ls -liF total 0 789467 lrwxrwxrwx 1 root root 8 Sep 1 18:00 soft.link -> old.file // 因爲被指向的文件不存在,此時的軟連接 soft.link 就是死連接 # cat soft.link cat: soft.link: No such file or directory // 建立被指向的文件 old.file,soft.link 恢復成正常的軟連接 # echo "This is an original file_A" >> old.file # cat soft.link This is an original file_A // 對不存在的目錄建立軟連接 # ln -s old.dir soft.link.dir # mkdir -p old.dir/test # tree . -F --inodes . ├── [ 789497] old.dir/ │ └── [ 789498] test/ ├── [ 789495] old.file ├── [ 789495] soft.link -> old.file └── [ 789497] soft.link.dir -> old.dir/
固然軟連接的用戶數據也能夠是 另外一個軟連接的路徑,其解析過程是遞歸的。但需注意:軟連接建立時原文件的路徑指向使用絕對路徑較好。使用相對路徑建立的軟連接被移動後該軟連接文件將成 爲一個死連接(以下所示的軟連接 a 使用了相對路徑,所以不宜被移動),由於連接數據塊中記錄的亦是相對路徑指向。
$ ls -li total 2136 656627 lrwxrwxrwx 1 harris harris 8 Sep 1 14:37 a -> data.txt 656662 lrwxrwxrwx 1 harris harris 1 Sep 1 14:37 b -> a 656228 -rw------- 1 harris harris 2186738 Sep 1 14:37 data.txt 6
在 Linux 中查看當前系統已掛着的文件系統類型,除上述使用的命令 df,還可以使用命令 mount 或查看文件 /proc/mounts。
# mount /dev/sda7 on / type ext4 (rw,errors=remount-ro) proc on /proc type proc (rw,noexec,nosuid,nodev) sysfs on /sys type sysfs (rw,noexec,nosuid,nodev) ... ... none on /run/shm type tmpfs (rw,nosuid,nodev)
命令 ls 或 stat 可幫助咱們區分軟連接與其餘文件並查看文件 inode 號,但較好的方式仍是使用 find 命令,其不只可查找某文件的軟連接,還能夠用於查找相同 inode 的全部硬連接。(見清單 8.)
// 查找在路徑 /home 下的文件 data.txt 的軟連接 # find /home -lname data.txt /home/harris/debug/test2/a // 查看路徑 /home 有相同 inode 的全部硬連接 # find /home -samefile /home/harris/debug/test3/old.file /home/harris/debug/test3/hard.link /home/harris/debug/test3/old.file # find /home -inum 660650 /home/harris/debug/test3/hard.link /home/harris/debug/test3/old.file // 列出路徑 /home/harris/debug/ 下的全部軟連接文件 # find /home/harris/debug/ -type l -ls 656662 0 lrwxrwxrwx 1 harris harris 1 Sep 1 14:37 /home/harris/debug/test2/b -> a 656627 0 lrwxrwxrwx 1 harris harris 8 Sep 1 14:37 /home/harris/debug/test2/a -> data.txt 789467 0 lrwxrwxrwx 1 root root 8 Sep 1 18:00 /home/harris/debug/test/soft.link -> old.file 789496 0 lrwxrwxrwx 1 root root 7 Sep 1 18:01 /home/harris/debug/test/soft.link.dir -> old.dir
系統根據磁盤的大小默認設定了 inode 的值(見清單 9.),如若必要,可在格式文件系統前對該值進行修改。如鍵入命令 mkfs -t ext4 -I 512
/
dev/sda4,
將使磁盤設備 /dev/sda4 格式成 inode 大小是 512 字節的 ext4 文件系統。
清單 9. 查看系統的 inode 值
// 查看磁盤分區 /dev/sda7 上的 inode 值 # dumpe2fs -h /dev/sda7 | grep "Inode size" dumpe2fs 1.42 (29-Nov-2011) Inode size: 256 # tune2fs -l /dev/sda7 | grep "Inode size" Inode size: 256
Linux VFS
Linux 有着極其豐富的文件系統,大致上可分以下幾類:
網絡文件系統,如 nfs、cifs 等;
磁盤文件系統,如 ext四、ext3 等;
特殊文件系統,如 proc、sysfs、ramfs、tmpfs 等。
實現以上這些文件系統並在 Linux 下共存的基礎就是 Linux VFS(Virtual File System 又稱 Virtual Filesystem Switch),即虛擬文件系統。VFS 做爲一個通用的文件系統,抽象了文件系統的四個基本概念:文件、目錄項 (dentry)、索引節點 (inode) 及掛載點,其在內核中爲用戶空間層的文件系統提供了相關的接口(見 圖 3.所示 VFS 在 Linux 系統的架構)。VFS 實現了 open()、read() 等系統調並使得 cp 等用戶空間程序可跨文件系統。VFS 真正實現了上述內容中:在 Linux 中除進程以外一切皆是文件。
圖 3. VFS 在系統中的架構
Linux VFS 存在四個基本對象:超級塊對象 (superblock object)、索引節點對象 (inode object)、目錄項對象 (dentry object) 及文件對象 (file object)。超級塊對象表明一個已安裝的文件系統;索引節點對象表明一個文件;目錄項對象表明一個目錄項,如設備文件 event5 在路徑 /dev/input/event5 中,其存在四個目錄項對象:/ 、dev/ 、input/ 及 event5。文件對象表明由進程打開的文件。這四個對象與進程及磁盤文件間的關係如圖 4. 所示,其中 d_inode 即爲硬連接。爲文件路徑的快速解析,Linux VFS 設計了目錄項緩存(Directory Entry Cache,即 dcache)。
圖 4. VFS 的對象之間的處理

Linux 文件系統中的 inode
在 Linux 中,索引節點結構存在於系統內存及磁盤,其可區分紅 VFS inode 與實際文件系統的 inode。VFS inode 做爲實際文件系統中 inode 的抽象,定義告終構體 inode 與其相關的操做 inode_operations(見內核源碼 include/linux/fs.h)。
清單 10. VFS 中的 inode 與 inode_operations 結構體
struct inode { ... const struct inode_operations *i_op; // 索引節點操做 unsigned long i_ino; // 索引節點號 atomic_t i_count; // 引用計數器 unsigned int i_nlink; // 硬連接數目 ... } struct inode_operations { ... int (*create) (struct inode *,struct dentry *,int, struct nameidata *); int (*link) (struct dentry *,struct inode *,struct dentry *); int (*unlink) (struct inode *,struct dentry *); int (*symlink) (struct inode *,struct dentry *,const char *); int (*mkdir) (struct inode *,struct dentry *,int); int (*rmdir) (struct inode *,struct dentry *); ... }
如清單 10. 所見,每一個文件存在兩個計數器:i_count 與 i_nlink,即引用計數與硬連接計數。結構體 inode 中的 i_count 用於跟蹤文件被訪問的數量,而 i_nlink 則是上述使用 ls -l 等命令查看到的文件硬連接數。或者說 i_count 跟蹤文件在內存中的狀況,而 i_nlink 則是磁盤計數器。當文件被刪除時,則 i_nlink 先被設置成 0。文件的這兩個計數器使得 Linux 系統升級或程序更新變的容易。系統或程序可在不關閉的狀況下(即文件 i_count 不爲 0),將新文件以一樣的文件名進行替換,新文件有本身的 inode 及 data block,舊文件會在相關進程關閉後被完整的刪除。
清單 11. 文件系統 ext4 中的 inode
struct ext4_inode { ... __le32 i_atime; // 文件內容最後一次訪問時間 __le32 i_ctime; // inode 修改時間 __le32 i_mtime; // 文件內容最後一次修改時間 __le16 i_links_count; // 硬連接計數 __le32 i_blocks_lo; // Block 計數 __le32 i_block[EXT4_N_BLOCKS]; // 指向具體的 block ... };
清單 11. 展現的是文件系統 ext4 中對 inode 的定義(見內核源碼 fs/ext4/ext4.h)。其中三個時間的定義可對應與命令 stat 中查看到三個時間。i_links_count 不只用於文件的硬連接計數,也用於目錄的子目錄數跟蹤(目錄並不顯示硬連接數,命令 ls -ld 查看到的是子目錄數)。因爲文件系統 ext3 對 i_links_count 有限制,其最大數爲:32000(該限制在 ext4 中被取消)。嘗試在 ext3 文件系統上驗證目錄子目錄及普通文件硬連接最大數可見 清單 12. 的錯誤信息。所以實際文件系統的 inode 之間及與 VFS inode 相較是有差別的。
清單 12. 文件系統 ext3 中 i_links_count 的限制
# ./dirtest.sh mkdir: cannot create directory `dir_31999': Too many links # ./linkcount.sh ln: failed to create hard link to `old.file': Too many links
結束語
本文最初描述了 Linux 系統中文件與目錄被引入的緣由及 Linux 處理文件的方式,而後咱們經過區分硬連接與軟連接的不一樣,瞭解 Linux 中的索引節點的相關知識,並以此引出了 inode 的結構體。索引節點結構體存在在於 Linux VFS 以及實際文件系統中,VFS 做爲通用文件模型是 Linux 中「一切皆是文件」實現的基礎。文章並未深刻 Linux VFS,也沒涉及實際文件系統的實現,文章只是從 inode 瞭解 Linux 的文件系統的相關內容。若想深刻文件系統的內容,查看內核文檔 Documentation/filesystems/ 是一個不錯的方式。