本文爲原創,轉載請註明:http://www.cnblogs.com/tolimit/html
因我的能力有限,不能保證全部描述都正確,還請你們集思廣益,有錯誤的地方歡迎你們留言指正,同時也歡迎你們留言對未標註項進行補償,謝謝。node
kernel.acct | acct功能用於系統記錄進程信息,正常結束的進程都會在該文件尾添加對應的信息。異常結束是指重啓或其它致命的系統問題,不可以記錄永不中止的進程。該設置須要配置三個值,分別是: 1.若是文件系統可用空間低於這個百分比值,則中止記錄進程信息。 2.若是文件系統可用空間高於這個百分比值,則開始記錄進程信息。 3.檢查上面兩個值的頻率(以秒爲單位)。 |
kernel.auto_msgmni | 系統自動設置同時運行的消息隊列個數。 0:不自動 1:自動 |
kernel.blk_iopoll | |
kernel.cad_pid | 接收Ctrl-alt-del操做的INT信號的進程的PID |
kernel.cap_last_cap | 系統capabilities最高支持的權限等級。 詳見:http://www.cnblogs.com/iamfy/archive/2012/09/20/2694977.html |
kernel.compat-log | |
kernel.core_pattern | 設置core文件保存位置或文件名,只有文件名時,則保存在應用程序運行的目錄下 |
kernel.core_pipe_limit | 定義了能夠有多少個併發的崩潰程序能夠經過管道模式傳遞給指定的core信息收集程序。若是超過了指定數,則後續的程序將不會處理,只在內核日誌中作記錄。0是個特殊的值,當設置爲0時,不限制並行捕捉崩潰的進程,但不會等待用戶程序蒐集完畢方纔回收/proc/pid目錄(就是說,崩潰程序的相關信息可能隨時被回收,蒐集的信息可能不全)。 |
kernel.core_uses_pid | Core文件的文件名是否添加應用程序pid作爲擴展 0:不添加 1:添加 |
kernel.ctrl-alt-del | 該值控制系統在接收到 ctrl+alt+delete 按鍵組合時如何反應: 1:不捕獲ctrl-alt-del,將系統相似於直接關閉電源 0:捕獲ctrl-alt-del,並將此信號傳至cad_pid保存的PID號進程進行處理 |
kernel.dmesg_restrict | 限制哪些用戶能夠查看syslog日誌 0:不限制 1:只有特權用戶可以查看 |
kernel.domainname | 網絡域名(重啓失效) |
kernel.ftrace_dump_on_oops | 肯定是否將ftrace的緩衝區的信息打印出來,是經過printk來打印的 0:不打印 1:在系統oops時,自動dump堆棧信息到輸出終端 |
kernel.hostname | 主機名(重啓失效) |
kernel.hotplug | 該文件給出了當前系統支持熱插拔(hotplug)時接收熱插拔事件的程序的名字(包括路徑)。 |
kernel.hung_task_check_count | hung_task檢查的進程數量最大值 hung_task用於檢測一個進程是否在TASK_UNINTERRUPTIBLE狀態過長,只有在等待IO的時候進程纔會處於TASK_UNINTERRUPTIBLE狀態,這個狀態的進程內核不可以經過信號將其喚醒並殺死。 |
kernel.hung_task_panic | 設置hung_task發生後是否引起panic 1:觸發 0:不觸發 |
kernel.hung_task_timeout_secs | hung_task超時時間(以秒爲單位),當一個進程在TASK_UNINTERRUPTIBLE狀態超過這個時間後,會發生一個hung_task linux會設置40%的可用內存用來作系統cache,當flush數據時這40%內存中的數據因爲和IO同步問題致使超時。 |
kernel.hung_task_warnings | 最大產生警告數量,當發生一次hung_task時會產生一次警告,但警告數量到達此值後以後的hung_task就不會發生警告 |
kernel.kexec_load_disabled | 表示kexec_load系統調用是否被禁止,此係統調用用於kdump。當發生了一次kexec_load後,此值會自動設置爲1。 0:開啓kexec_load系統調用 1:禁止kexec_load系統調用 |
kernel.keys.gc_delay | |
kernel.keys.maxbytes | |
kernel.keys.maxkeys | |
kernel.keys.persistent_keyring_expiry | |
kernel.keys.root_maxbytes | |
kernel.keys.root_maxkeys | |
kernel.kptr_restrict | 是否啓用kptr_restrice,此功能爲安全性功能,用於屏蔽內核指針。 0:該特性被徹底禁止; 1:那些使用「%pk」打印出來的內核指針被隱藏(會以一長串0替換掉),除非用戶有CAP_SYSLOG權限,而且沒有改變他們的UID/GID(防止在撤銷權限以前打開的文件泄露指針信息); 2:全部內核指使用「%pk」打印的都被隱藏。 |
kernel.max_lock_depth | 觸發死鎖檢查的嵌套深度值 |
kernel.modprobe | 該文件給出了當系統支持module時完成modprobe功能的程序的名字(包括路徑)。 |
kernel.modules_disabled | 表示是否禁止內核運行時可加載模塊 0:不由止 1:禁止 |
kernel.msgmax | 消息隊列中單個消息的最大字節數 |
kernel.msgmnb | 單個消息隊列中容許的最大字節長度(限制單個消息隊列中全部消息包含的字節數之和) |
kernel.msgmni | 系統中同時運行的消息隊列的個數 |
kernel.ngroups_max | 每一個用戶最大的組數 |
kernel.nmi_watchdog | 使能nmi_watchdog 0:禁止 1:開啓 |
kernel.numa_balancing | 是否開啓numa_balancing?這塊具體看代碼 |
kernel.numa_balancing_scan_delay_ms | 單個進程每次進行numa_balancing掃描的間隔時間 |
kernel.numa_balancing_scan_period_max_ms | 每次掃描最多花費的時間? |
kernel.numa_balancing_scan_period_min_ms | 每次掃描最少花費的時間? |
kernel.numa_balancing_scan_size_mb | 一次掃描進程多少MB的虛擬地址空間內存 |
kernel.numa_balancing_settle_count | |
kernel.osrelease | 內核版本(例:3.10.0-229.7.2.rs1.2.ppc64) |
kernel.ostype | 操做系統的類型(例:Linux) |
kernel.overflowgid | Linux的GID爲32位,但有些文件系統只支持16位的GID,此時若進行寫操做會出錯;當GID超過65535時會自動被轉換爲一個固定值,這個固定值保存在這個文件中 |
kernel.overflowuid | Linux的UID爲32位,但有些文件系統只支持16位的UID,此時若進行寫操做會出錯;當UID超過65535時會自動被轉換爲一個固定值,這個固定值保存在這個文件中 |
kernel.panic | 系統發生panic時內核從新引導以前的等待時間 0:禁止從新引導 >0:從新引導前的等待時間(秒) |
kernel.panic_on_oops | 當系統發生oops或BUG時,所採起的措施 0:繼續運行 1:讓klog記錄oops的輸出,而後panic,若kernel.panic不爲0,則等待後從新引導內核 |
kernel.panic_on_warn | 0:只警告,不發生panic 1:發生panic |
kernel.perf_cpu_time_max_percent | perf分析工具最大可以佔用CPU性能的百分比 0:不限制 1~100:百分比值 |
kernel.perf_event_max_sample_rate | 設置perf_event的最大取樣速率,默認值爲100000 |
kernel.perf_event_mlock_kb | 設置非特權用戶可以容許常駐內存的內存大小。默認爲516(KB) |
kernel.perf_event_paranoid | 用於限制訪問性能計數器的權限 0:僅容許訪問用戶空間的性能計數器 1:內核與用戶空間的性能計數器均可以訪問 2:僅容許訪問特殊的CPU數據(不包括跟蹤點) -1:不限制 |
kernel.pid_max | 進程pid號的最大值 |
kernel.poweroff_cmd | 執行關機命令的進程(包括路徑) |
kernel.powersave-nap | PPC專用,若是開啓,則使用nap節能模式,關閉則使用doze節能模式 0:關閉 1:開啓 |
kernel.print-fatal-signals | |
kernel.printk | 該文件有四個數字值,它們根據日誌記錄消息的重要性,定義將其發送到何處。按順序是: 1.控制檯日誌級別:優先級高於該值的消息將被打印至控制檯 2.默認的消息日誌級別:將用該優先級來打印沒有優先級的消息 3.最低的控制檯日誌級別:控制檯日誌級別可被設置的最小值(最高優先級) 4.默認的控制檯日誌級別:控制檯日誌級別的缺省值 數值越小,優先級越高,級別有(0~7) |
kernel.printk_delay | printk 消息之間的延遲毫秒數,此值不可設置 |
kernel.printk_ratelimit | 等待容許再次printk的時間(以秒爲單位),與printk_ratelimit()函數有關 詳見:http://m.blog.csdn.net/blog/chenglinhust/8599159 |
kernel.printk_ratelimit_burst | printk的緩存隊列長度(每一個printk爲一個長度,好比此值爲5,而有段代碼是連續printk10次,系統的處理是先printk前5次,等待printk_ratelimit秒後,再打印後面5次) |
kernel.pty.max | 所能分配的PTY的最多個數(pty爲虛擬終端,用於遠程鏈接時) |
kernel.pty.nr | 當前分配的pty的個數 |
kernel.pty.reserve | |
kernel.random.boot_id | 此文件是個只讀文件,包含了一個隨機字符串,在系統啓動的時候會自動生成這個uuid |
kernel.random.entropy_avail | 此文件是個只讀文件,給出了一個有效的熵(4096位) |
kernel.random.poolsize | 熵池大小,通常是4096位,能夠改爲任何大小 |
kernel.random.read_wakeup_threshold | 該文件保存熵的長度,該長度用於喚醒因讀取/dev/random設備而待機的進程(random設備的讀緩衝區長度?) |
kernel.random.uuid | 此文件是個只讀文件,包含了一個隨機字符串,在random設備每次被讀的時候生成 |
kernel.random.write_wakeup_threshold | 該文件保存熵的長度,該長度用於喚醒因寫入/dev/random設備而待機的進程(random設備的寫緩衝區長度?) |
kernel.randomize_va_space | 用於設置進程虛擬地址空間的隨機化 0:關閉進程虛擬地址空間隨機化 1:隨機化進程虛擬地址空間中的mmap映射區的初始地址,棧空間的初始地址以及VDSO頁的地址 2:在1的基礎上加上堆區的隨機化 (VDSO是用於兼容不一樣內核與glibc的接口的機制) |
kernel.real-root-dev | 根文件系統所在的設備(寫入格式是0x主設備號(16位)次設備號(16位),例如0x801,主設備號是8,次設備號是1),只有使用initrd.img此參數纔有效 |
kernel.sched_autogroup_enabled | 啓用後,內核會建立任務組來優化桌面程序的調度。它將把佔用大量資源的應用程序放在它們本身的任務組,這有助於性能提高 0:禁止 1:開啓 |
kernel.sched_cfs_bandwidth_slice_us | |
kernel.sched_child_runs_first | 設置保證子進程初始化完成後在父進程以前先被調度 0:先調度父進程 1:先調度子進程 |
kernel.sched_domain.{CPUID}.{域ID}.busy_factor | |
kernel.sched_domain.{CPUID}.{域ID}.busy_idx | |
kernel.sched_domain.{CPUID}.{域ID}.cache_nice_tries | |
kernel.sched_domain.{CPUID}.{域ID}.flags | |
kernel.sched_domain.{CPUID}.{域ID}.forkexec_idx | |
kernel.sched_domain.{CPUID}.{域ID}.idle_idx | |
kernel.sched_domain.{CPUID}.{域ID}.imbalance_pct | 判斷該調度域是否已經均衡的一個基準值 |
kernel.sched_domain.{CPUID}.{域ID}.max_interval | 設置此CPU進行負載均衡的最長間隔時間,上一次作了負載均衡通過了這個時間必定要再進行一次 |
kernel.sched_domain.{CPUID}.{域ID}.min_interval | 設置此CPU進行負載均衡的最小間隔時間,在上一次負載均衡到這個時間內都不能再進行負載均衡 |
kernel.sched_domain.{CPUID}.{域ID}.name | |
kernel.sched_domain.{CPUID}.{域ID}.newidle_idx | |
kernel.sched_domain.{CPUID}.{域ID}.wake_idx | |
kernel.sched_latency_ns | 表示正在運行進程的所能運行的時間的最大值,即便只有一個處於running狀態的進程,運行到這個時間也要從新調度一次(以納秒爲單位,在運行時會自動變化?) 同時這個值也是全部可運行進程都運行一次所需的時間,每一個CPU的running進程數 = sched_latency_ns / sched_min_granularity_ns |
kernel.sched_migration_cost_ns | 該變量用來判斷一個進程是否仍是hot,若是進程的運行時間(now - p->se.exec_start)小於它,那麼內核認爲它的code還在cache裏,因此該進程仍是hot,那麼在遷移的時候就不會考慮它 |
kernel.sched_min_granularity_ns | 表示一個進程在CPU上運行的最小時間,在此時間內,內核是不會主動挑選其餘進程進行調度(以納秒爲單位,在運行時會自動變化?) |
kernel.sched_nr_migrate | 在多CPU狀況下進行負載均衡時,一次最多移動多少個進程到另外一個CPU上 |
kernel.sched_rr_timeslice_ms | 用來指示round robin調度進程的間隔,這個間隔默認是100ms。 |
kernel.sched_rt_period_us | 該參數與sched_rt_runtime_us一塊兒決定了實時進程在以sched_rt_period爲週期的時間內,實時進程最多可以運行的總的時間不能超過sched_rt_runtime_us |
kernel.sched_rt_runtime_us | 該參數與sched_rt_period一塊兒決定了實時進程在以sched_rt_period爲週期的時間內,實時進程最多可以運行的總的時間不能超過sched_rt_runtime_us |
kernel.sched_shares_window_ns | |
kernel.sched_time_avg_ms | |
kernel.sched_tunable_scaling | 當內核試圖調整sched_min_granularity,sched_latency和sched_wakeup_granularity這三個值的時候所使用的更新方法. 0:不調整 1:按照cpu個數以2爲底的對數值進行調整 2:按照cpu的個數進行線性比例的調整 |
kernel.sched_wakeup_granularity_ns | 該變量表示進程被喚醒後至少應該運行的時間的基數,它只是用來判斷某個進程是否應該搶佔當前進程,並不表明它可以執行的最小時間(sysctl_sched_min_granularity),若是這個數值越小,那麼發生搶佔的機率也就越高 |
kernel.sem | 該文件包含4個值: 1.同一類信號的最多數量(semmsl) 2.系統中信號的最多數目,=semmni*semmsl (semmns) 3.每一個semop系統調用所包含的最大的操做數(能調用的信號量的最屢次數) (semopm) 4.系統中信號類型的數目的最大值,一個信號量標識符表明一個類型(semmni) 可見:http://www.cnblogs.com/jimeper/p/3141975.html |
kernel.shmall | 系統上可使用的共享內存的總量(以字節爲單位)。 |
kernel.shmmax | 系統所容許的最大共享內存段的大小(以字節爲單位)。 |
kernel.shmmni | 整個系統共享內存段的最大數量。 |
kernel.shm_rmid_forced | 強制SHM空間和一個進程聯繫在一塊兒,因此能夠經過殺死進程來釋放內存 0:不設置 1:設置 |
kernel.softlockup_panic | 設置產生softlockup時是否拋出一個panic。Softlockup用於檢測CPU能夠響應中斷,可是在長時間內不能調度(好比禁止搶佔時間太長)的死鎖狀況。這個機制運行在一個hrtimer的中斷上下文,每隔一段時間檢測一下是否發生了調度,若是過長時間沒發生調度,說明系統被死鎖。 0:不產生panic 1:產生panic |
kernel.sysrq | 該文件指定的值爲非零,則激活鍵盤上的sysrq按鍵。這個按鍵用於給內核傳遞信息,用於緊急狀況下重啓系統。當遇到死機或者沒有響應的時候,甚至連 tty 都進不去,能夠嘗試用 SysRq 重啓計算機。 |
kernel.tainted | 1:加載非GPL module 0:強制加載module |
kernel.threads-max | 系統中進程數量(包括線程)的最大值 |
kernel.timer_migration | |
kernel.usermodehelper.bset | |
kernel.usermodehelper.inheritable | |
kernel.version | 版本號(例:#1 SMP Mon Sep 7 18:12:36 CST 2015) |
kernel.watchdog | 表示是否禁止softlockup模式和nmi_watchdog(softlockup用於喚醒watchdog) 0:禁止 1:開啓 |
kernel.watchdog_thresh | 用於設置高精度定時器(hrtimer)、nmi事件、softlockup、hardlockup的閥值(以秒爲單位) 0:不設置閥值 |
vm.admin_reserve_kbytes | 給有cap_sys_admin權限的用戶保留的內存數量(默認值是 min(free_page * 0.03, 8MB)) |
vm.block_dump | 若是設置的是非零值,則會啓用塊I/O調試。 |
vm.compact_memory | 進行內存壓縮,只有在啓用了CONFIG_COMPACTION選項纔有效 1:開始進行內存壓縮 |
vm.dirty_background_bytes | 當髒頁所佔的內存數量超過dirty_background_bytes時,內核的flusher線程開始回寫髒頁。 |
vm.dirty_background_ratio | 當髒頁所佔的百分比(相對於全部可用內存,即空閒內存頁+可回收內存頁)達到dirty_background_ratio時,write調用會喚醒內核的flusher線程開始回寫髒頁數據,直到髒頁比例低於此值,與dirty_ratio不一樣,write調用此時並不會阻塞。 |
vm.dirty_bytes | 當髒頁所佔的內存數量達到dirty_bytes時,執行磁盤寫操做的進程本身開始回寫髒數據。 注意: dirty_bytes參數和 dirty_ratio參數是相對的,只能指定其中一個。當其中一個參數文件被寫入時,會當即開始計算髒頁限制,而且會將另外一個參數的值清零 |
vm.dirty_expire_centisecs | 髒數據的過時時間,超過該時間後內核的flusher線程被喚醒時會將髒數據回寫到磁盤上,單位是百分之一秒。 |
vm.dirty_ratio | 髒頁所佔的百分比(相對於全部可用內存,即空閒內存頁+可回收內存頁)達到dirty_ratio時,write調用會喚醒內核的flusher線程開始回寫髒頁數據,直到髒頁比例低於此值,注意write調用此時會阻塞。 |
vm.dirty_writeback_centisecs | 設置flusher內核線程喚醒的間隔,此線程用於將髒頁回寫到磁盤,單位是百分之一秒 |
vm.drop_caches | 寫入數值可使內核釋放page_cache,dentries和inodes緩存所佔的內存。 1:只釋放page_cache 2:只釋放dentries和inodes緩存 3:釋放page_cache、dentries和inodes緩存 |
vm.extfrag_threshold | |
vm.hugepages_treat_as_movable | 用來控制是否能夠從ZONE_MOVABLE內存域中分配大頁面。若是設置爲非零,大頁面能夠從ZONE_MOVABLE內存域分配。ZONE_MOVABLE內存域只有在指定了kernelcore啓動參數的狀況下才會建立,若是沒有指定kernelcore啓動參數, hugepages_treat_as_movable參數則沒有效果。 |
vm.hugetlb_shm_group | 指定組ID,擁有該gid的用戶可使用大頁建立SysV共享內存段 |
vm.laptop_mode | 設置開啓laptop mode,此模式主要是經過下降硬盤的轉速來延長電池的續航時間。 0:關閉 1:啓動 |
vm.legacy_va_layout | 進程地址空間內存佈局模式 0:經典佈局 1:新佈局 對於64位系統,默認採用經典佈局 |
vm.lowmem_reserve_ratio | 決定了內核保護這些低端內存域的強度。預留的內存值和lowmem_reserve_ratio數組中的值是倒數關係,若是值是256,則表明1/256,即爲0.39%的zone內存大小。若是想要預留更多頁,應該設更小一點的值。 |
vm.max_map_count | 定義了一個進程能擁有的最多的內存區域 |
vm.memory_failure_early_kill | 控制發生某個內核沒法處理的內存錯誤發生的時候,如何去殺掉這個進程。當這些錯誤頁有swap鏡像的時候,內核會很好的處理這個錯誤,不會影響任何應用程序,可是若是沒有的話,內核會把進程殺掉,避免內存錯誤的擴大 1:在發現內存錯誤的時候,就會把全部擁有此內存頁的進程都殺掉 0:只是對這部分頁進行unmap,而後把第一個試圖進入這個頁的進程殺掉 |
vm.memory_failure_recovery | 是否開啓內存錯誤恢復機制 1:開啓 0:一旦出現內存錯誤,就panic |
vm.min_free_kbytes | 每一個內存區保留的內存大小(以KB計算) |
vm.min_slab_ratio | 只在numa架構上使用,若是一個內存域中能夠回收的slab頁面所佔的百分比(應該是相對於當前內存域的全部頁面)超過min_slab_ratio,在回收區的slabs會被回收。這樣能夠確保即便在不多執行全局回收的NUMA系統中,slab的增加也是可控的。 |
vm.min_unmapped_ratio | 只有在當前內存域中處於zone_reclaim_mode容許回收狀態的內存頁所佔的百分比超過min_unmapped_ratio時,內存域纔會執行回收操做。 |
vm.mmap_min_addr | 指定用戶進程經過mmap可以使用的最小虛擬內存地址,以免其在低地址空間產生映射致使安全問題;若是非0,則不容許mmap到NULL頁,而此功能可在出現NULL指針時調試Kernel;mmap用於將文件映射至內存; 該設置意味着禁止用戶進程訪問low 4k地址空間 |
vm.nr_hugepages | 大頁的最小數目,須要連續的物理內存;oracle使用大頁能夠下降TLB的開銷,節約內存和CPU資源,但要同時設置memlock且保證其大於大頁;其與11gAMM不兼容 |
vm.nr_hugepages_mempolicy | 與nr_hugepages相似,但只用於numa架構,配合numactl調整每一個node的大頁數量 |
vm.nr_overcommit_hugepages | 保留於緊急使用的大頁數,系統可分配最大大頁數= nr_hugepages + nr_overcommit_hugepages |
vm.nr_pdflush_threads | 只讀文件,保存了當前正在運行的pdflush線程的數量 |
vm.numa_zonelist_order | 設置內核選擇zonelist的模式: 0:讓內核智能選擇使用Node或Zone方式的zonelist 1:選擇Node方式的zonelist,Node(0) ZONE_NORMAL -> Node(0) ZONE_DMA -> Node(1) ZONE_NORMAL 2:選擇Zone方式的,Node(0) ZONE_NORMAL -> Node(1) ZONE_NORMAL -> Node(0) ZONE_DMA |
vm.oom_dump_tasks | 若是啓用,在內核執行OOM-killing時會打印系統內進程的信息(不包括內核線程),信息包括pid、uid、tgid、vm size、rss、nr_ptes,swapents,oom_score_adj和進程名稱。這些信息能夠幫助找出爲何OOM killer被執行,找到致使OOM的進程,以及瞭解爲何進程會被選中。 0:不打印系統內進程信息 1:打印系統內進程信息 |
vm.oom_kill_allocating_task | 決定在oom的時候,oom killer殺哪些進程 非0:它會掃描進程隊列,而後將可能致使內存溢出的進程殺掉,也就是佔用內存最大的進程 0:它只殺掉致使oom的那個進程,避免了進程隊列的掃描,可是釋放的內存大小有限 |
vm.overcommit_kbytes | 內存可過量分配的數量(單位爲KB) |
vm.overcommit_memory | 是否容許內存的過量分配,容許進程分配比它實際使用的更多的內存。 0:當用戶申請內存的時候,內核會去檢查是否有這麼大的內存空間,當超過地址空間會被拒絕 1:內核始終認爲,有足夠大的內存空間,直到它用完了位置 2:內核禁止任何形式的過量分配內存 Memory allocation limit = swapspace + physmem * (overcommit_ratio / 100) |
vm.overcommit_ratio | 內存可過量分配的百分比。 |
vm.page-cluster | 參數控制一次寫入或讀出swap分區的頁面數量。它是一個對數值,若是設置爲0,表示1頁;若是設置爲1,表示2頁;若是設置爲2,則表示4頁。 |
vm.panic_on_oom | 用於控制如何處理out-of-memory,可選值包括0/1/2 0:當內存不足時內核調用OOM killer殺死一些rogue進程,每一個進程描述符都有一個oom_score標示,oom killer會選擇oom_score較大的進程 1:發生了OOM之後,若是有mempolicy/cpusets的進程限制,而這些nodes致使了內存問題的時候,OOM Killer會幹掉這些中的一個,系統也會恢復 2:OOM後必然panic |
vm.percpu_pagelist_fraction | 每一個CPU能從每一個zone所能分配到的pages的最大值(單位每一個zone的1/X),0爲不限制 |
vm.stat_interval | VM信息更新頻率(以秒爲單位) |
vm.swappiness | 該值越高則linux越傾向於將部分長期沒有用到的頁swap,即使有足夠空餘物理內存(1~100) |
vm.user_reserve_kbytes | |
vm.vfs_cache_pressure | 表示內核回收用於directory和inode cache內存的傾向;缺省值100表示內核將根據pagecache和swapcache,把directory和inode cache保持在一個合理的百分比;下降該值低於100,將致使內核傾向於保留directory和inode cache;增長該值超過100,將致使內核傾向於回收directory和inode cache |
vm.zone_reclaim_mode | 參數只有在啓用CONFIG_NUMA選項時纔有效,zone_reclaim_mode用來控制在內存域OOM時,如何來回收內存。 0:禁止內存域回收,從其餘zone分配內存 1:啓用內存域回收 2:經過回寫髒頁回收內存 4:經過swap回收內存 |
net.bridge.bridge-nf-call-arptables | |
net.bridge.bridge-nf-call-ip6tables | |
net.bridge.bridge-nf-call-iptables | |
net.bridge.bridge-nf-filter-pppoe-tagged | |
net.bridge.bridge-nf-filter-vlan-tagged | |
net.bridge.bridge-nf-pass-vlan-input-dev | |
net.core.bpf_jit_enable | 基於時間規則的編譯器,用於基於PCAP(packet capture library)並使用伯克利包過濾器(Berkeley Packet Filter,如tcpdump)的用戶工具,能夠大幅提高複雜規則的處理性能。 0:禁止 1:開啓 2:開啓並請求編譯器將跟蹤數據時間寫入內核日誌 |
net.core.busy_poll | 默認對網絡設備進行poll和select操做的超時時間(us),具體數值最好以sockets數量而定 |
net.core.busy_read | 默認讀取在設備幀隊列上數據幀的超時時間(us),推薦值:50 |
net.core.default_qdisc | |
net.core.dev_weight | 每一個CPU一次NAPI中斷可以處理網絡包數量的最大值 |
net.core.message_burst | 設置每十秒寫入多少次請求警告;此設置能夠用來防止DOS攻擊 |
net.core.message_cost | 設置每個警告的度量值,缺省爲5,當用來防止DOS攻擊時設置爲0 |
net.core.netdev_budget | 每次軟中斷處理的網絡包個數 |
net.core.netdev_max_backlog | 設置當個別接口接收包的速度快於內核處理速度時容許的最大的包序列 |
net.core.netdev_tstamp_prequeue | 0:關閉,接收的數據包的時間戳在RPS程序處理以後進行標記,這樣有可能時間戳會不夠準確 1:打開,時間戳會盡量早的標記 |
net.core.optmem_max | 表示每一個socket所容許的最大緩衝區的大小(字節) |
net.core.rmem_default | 設置接收socket的缺省緩存大小(字節) |
net.core.rmem_max | 設置接收socket的最大緩存大小(字節) |
net.core.rps_sock_flow_entries | |
net.core.somaxconn | 定義了系統中每個端口最大的監聽隊列的長度,這是個全局的參數。 |
net.core.warnings | 已經不使用此參數 |
net.core.wmem_default | 設置發送的socket缺省緩存大小(字節) |
net.core.wmem_max | 設置發送的socket最大緩存大小(字節) |
net.core.xfrm_acq_expires | |
net.core.xfrm_aevent_etime | |
net.core.xfrm_aevent_rseqth | |
net.core.xfrm_larval_drop | |
net.ipv4.cipso_cache_bucket_size | 限制cipso緩存項的數量,若是在緩存中新添加一行超出了這個限制,那麼最舊的緩存項會被丟棄以釋放出空間。 |
net.ipv4.cipso_cache_enable | 是否啓用cipso緩存。 0:不啓用 1:啓用 |
net.ipv4.cipso_rbm_optfmt | 是否開啓cipso標誌優化選項,若是開啓,數據包中標誌將會在32bit對齊 0:關閉 1:開啓 |
net.ipv4.cipso_rbm_strictvalid | 是否開啓cipso選項的嚴格檢測 0:不開啓 1:開啓 |
net.ipv4.conf.all.accept_local | 設置是否容許接收從本機IP地址上發送給本機的數據包 0:不容許 1:容許 |
net.ipv4.conf.all.accept_redirects | 收發接收ICMP重定向消息。對於主機來講默認爲True,對於用做路由器時默認值爲False 0:禁止 1:容許 |
net.ipv4.conf.all.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv4.conf.all.arp_accept | 默認對不在ARP表中的IP地址發出的APR包的處理方式 0:不在ARP表中建立對應IP地址的表項 1:在ARP表中建立對應IP地址的表項 |
net.ipv4.conf.all.arp_announce | 對網絡接口上,本地IP地址的發出的,ARP迴應,做出相應級別的限制: 肯定不一樣程度的限制,宣佈對來自本地源IP地址發出Arp請求的接口 0: 在任意網絡接口(eth0,eth1,lo)上的任何本地地址 1:儘可能避免不在該網絡接口子網段的本地地址作出arp迴應. 當發起ARP請求的源IP地址是被設置應該經由路由達到此網絡接口的時候頗有用.此時會檢查來訪IP是否爲全部接口上的子網段內ip之一.若是改來訪IP不屬於各個網絡接口上的子網段內,那麼將採用級別2的方式來進行處理. 2:對查詢目標使用最適當的本地地址.在此模式下將忽略這個IP數據包的源地址並嘗試選擇與能與該地址通訊的本地地址.首要是選擇全部的網絡接口的子網中外出訪問子網中包含該目標IP地址的本地地址. 若是沒有合適的地址被發現,將選擇當前的發送網絡接口或其餘的有可能接受到該ARP迴應的網絡接口來進行發送. |
net.ipv4.conf.all.arp_filter | 0:內核設置每一個網絡接口各自應答其地址上的arp詢問。這項看似會錯誤的設置卻常常能很是有效,由於它增長了成功通信的機會。在Linux主機上,每一個IP地址是網絡接口獨立的,而非一個複合的接口。只有在一些特殊的設置的時候,好比負載均衡的時候會帶來麻煩。 1:容許多個網絡介質位於同一子網段內,每一個網絡界面依據是否內核指派路由該數據包通過此接口來確認是否回答ARP查詢(這個實現是由來源地址肯定路由的時候決定的),換句話說,容許控制使用某一塊網卡(一般是第一塊)迴應arp詢問。 |
net.ipv4.conf.all.arp_ignore | 定義對目標地址爲本地IP的ARP詢問不一樣的應答模式 0:迴應任何網絡接口上對任何本地IP地址的arp查詢請求 1:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求 2:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求,且來訪IP必須在該網絡接口的子網段內 3:不迴應該網絡界面的arp請求,而只對設置的惟一和鏈接地址作出迴應 8:不迴應全部(本地地址)的arp查詢 |
net.ipv4.conf.all.arp_notify | arp通知鏈操做 0:不作任何操做 1:當設備或硬件地址改變時自動產生一個arp請求 |
net.ipv4.conf.all.bootp_relay | 接收源地址爲0.a.b.c,目的地址不是本機的數據包,是爲了支持bootp服務 0:關閉 1:開啓 |
net.ipv4.conf.all.disable_policy | 禁止internet協議安全性驗證 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.all.disable_xfrm | 禁止internet協議安全性加密 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.all.force_igmp_version | |
net.ipv4.conf.all.forwarding | 在該接口打開轉發功能 0:禁止 1:容許 |
net.ipv4.conf.all.log_martians | 記錄帶有不容許的地址的數據報到內核日誌中。 0:禁止 1:容許 |
net.ipv4.conf.all.mc_forwarding | 是否進行多播路由。只有內核編譯有CONFIG_MROUTE而且有路由服務程序在運行該參數纔有效。 0:禁止 1:容許 |
net.ipv4.conf.all.medium_id | 一般,這個參數用來區分不一樣媒介.兩個網絡設備可使用不一樣的值,使他們只有其中之一接收到廣播包.一般,這個參數被用來配合proxy_arp實現roxy_arp的特性便是容許arp報文在兩個不一樣的網絡介質中轉發. 0:表示各個網絡介質接受他們本身介質上的媒介 -1:表示該媒介未知。 |
net.ipv4.conf.all.promote_secondaries | 0:當接口的主IP地址被移除時,刪除全部次IP地址 1:當接口的主IP地址被移除時,將次IP地址提高爲主IP地址 |
net.ipv4.conf.all.proxy_arp | 打開arp代理功能。 0:禁止 1:容許 |
net.ipv4.conf.all.proxy_arp_pvlan | 迴應代理ARP的數據包從接收到此代理ARP請求的網絡接口出去。 |
net.ipv4.conf.all.route_localnet | |
net.ipv4.conf.all.rp_filter | 1:經過反向路徑回溯進行源地址驗證(在RFC1812中定義)。對於單穴主機和stub網絡路由器推薦使用該選項。 0:不經過反向路徑回溯進行源地址驗證。 |
net.ipv4.conf.all.secure_redirects | 僅僅接收發給默認網關列表中網關的ICMP重定向消息 0:禁止 1:容許 |
net.ipv4.conf.all.send_redirects | 容許發送重定向消息。(路由使用) 0:禁止 1:容許 |
net.ipv4.conf.all.shared_media | 發送或接收RFC1620 共享媒體重定向。會覆蓋ip_secure_redirects的值。 0:禁止 1:容許 |
net.ipv4.conf.all.src_valid_mark | |
net.ipv4.conf.all.tag | |
net.ipv4.conf.{網絡接口}.accept_local | 設置是否容許接收從本機IP地址上發送給本機的數據包 0:不容許 1:容許 |
net.ipv4.conf.{網絡接口}.accept_redirects | 收發接收ICMP重定向消息。對於主機來講默認爲True,對於用做路由器時默認值爲False 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv4.conf.{網絡接口}.arp_accept | 默認對不在ARP表中的IP地址發出的APR包的處理方式 0:不在ARP表中建立對應IP地址的表項 1:在ARP表中建立對應IP地址的表項 |
net.ipv4.conf.{網絡接口}.arp_announce | 對網絡接口上,本地IP地址的發出的,ARP迴應,做出相應級別的限制: 肯定不一樣程度的限制,宣佈對來自本地源IP地址發出Arp請求的接口 0: 在任意網絡接口(eth0,eth1,lo)上的任何本地地址 1:儘可能避免不在該網絡接口子網段的本地地址作出arp迴應. 當發起ARP請求的源IP地址是被設置應該經由路由達到此網絡接口的時候頗有用.此時會檢查來訪IP是否爲全部接口上的子網段內ip之一.若是改來訪IP不屬於各個網絡接口上的子網段內,那麼將採用級別2的方式來進行處理. 2:對查詢目標使用最適當的本地地址.在此模式下將忽略這個IP數據包的源地址並嘗試選擇與能與該地址通訊的本地地址.首要是選擇全部的網絡接口的子網中外出訪問子網中包含該目標IP地址的本地地址. 若是沒有合適的地址被發現,將選擇當前的發送網絡接口或其餘的有可能接受到該ARP迴應的網絡接口來進行發送. |
net.ipv4.conf.{網絡接口}.arp_filter | 0:內核設置每一個網絡接口各自應答其地址上的arp詢問。這項看似會錯誤的設置卻常常能很是有效,由於它增長了成功通信的機會。在Linux主機上,每一個IP地址是網絡接口獨立的,而非一個複合的接口。只有在一些特殊的設置的時候,好比負載均衡的時候會帶來麻煩。 1:容許多個網絡介質位於同一子網段內,每一個網絡界面依據是否內核指派路由該數據包通過此接口來確認是否回答ARP查詢(這個實現是由來源地址肯定路由的時候決定的),換句話說,容許控制使用某一塊網卡(一般是第一塊)迴應arp詢問。 |
net.ipv4.conf.{網絡接口}.arp_ignore | 定義對目標地址爲本地IP的ARP詢問不一樣的應答模式 0:迴應任何網絡接口上對任何本地IP地址的arp查詢請求 1:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求 2:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求,且來訪IP必須在該網絡接口的子網段內 3:不迴應該網絡界面的arp請求,而只對設置的惟一和鏈接地址作出迴應 8:不迴應全部(本地地址)的arp查詢 |
net.ipv4.conf.{網絡接口}.arp_notify | arp通知鏈操做 0:不作任何操做 1:當設備或硬件地址改變時自動產生一個arp請求 |
net.ipv4.conf.{網絡接口}.bootp_relay | 接收源地址爲0.a.b.c,目的地址不是本機的數據包,是爲了支持bootp服務 0:關閉 1:開啓 |
net.ipv4.conf.{網絡接口}.disable_policy | 禁止internet協議安全性驗證 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.{網絡接口}.disable_xfrm | 禁止internet協議安全性加密 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.{網絡接口}.force_igmp_version | |
net.ipv4.conf.{網絡接口}.forwarding | 在該接口打開轉發功能 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.log_martians | 記錄帶有不容許的地址的數據報到內核日誌中。 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.mc_forwarding | 是否進行多播路由。只有內核編譯有CONFIG_MROUTE而且有路由服務程序在運行該參數纔有效。 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.medium_id | 一般,這個參數用來區分不一樣媒介.兩個網絡設備可使用不一樣的值,使他們只有其中之一接收到廣播包.一般,這個參數被用來配合proxy_arp實現roxy_arp的特性便是容許arp報文在兩個不一樣的網絡介質中轉發. 0:表示各個網絡介質接受他們本身介質上的媒介 -1:表示該媒介未知。 |
net.ipv4.conf.{網絡接口}.promote_secondaries | 0:當接口的主IP地址被移除時,刪除全部次IP地址 1:當接口的主IP地址被移除時,將次IP地址提高爲主IP地址 |
net.ipv4.conf.{網絡接口}.proxy_arp | 打開arp代理功能。 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.proxy_arp_pvlan | 迴應代理ARP的數據包從接收到此代理ARP請求的網絡接口出去。 |
net.ipv4.conf.{網絡接口}.route_localnet | |
net.ipv4.conf.{網絡接口}.rp_filter | 1:經過反向路徑回溯進行源地址驗證(在RFC1812中定義)。對於單穴主機和stub網絡路由器推薦使用該選項。 0:不經過反向路徑回溯進行源地址驗證。 |
net.ipv4.conf.{網絡接口}.secure_redirects | 僅僅接收發給默認網關列表中網關的ICMP重定向消息 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.send_redirects | 容許發送重定向消息。(路由使用) 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.shared_media | 發送或接收RFC1620 共享媒體重定向。會覆蓋ip_secure_redirects的值。 0:禁止 1:容許 |
net.ipv4.conf.{網絡接口}.src_valid_mark | |
net.ipv4.conf.{網絡接口}.tag | |
net.ipv4.conf.default.accept_local | 設置是否容許接收從本機IP地址上發送給本機的數據包 0:不容許 1:容許 |
net.ipv4.conf.default.accept_redirects | 收發接收ICMP重定向消息。對於主機來講默認爲True,對於用做路由器時默認值爲False 0:禁止 1:容許 |
net.ipv4.conf.default.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv4.conf.default.arp_accept | 默認對不在ARP表中的IP地址發出的APR包的處理方式 0:不在ARP表中建立對應IP地址的表項 1:在ARP表中建立對應IP地址的表項 |
net.ipv4.conf.default.arp_announce | 對網絡接口上,本地IP地址的發出的,ARP迴應,做出相應級別的限制: 肯定不一樣程度的限制,宣佈對來自本地源IP地址發出Arp請求的接口 0: 在任意網絡接口(eth0,eth1,lo)上的任何本地地址 1:儘可能避免不在該網絡接口子網段的本地地址作出arp迴應. 當發起ARP請求的源IP地址是被設置應該經由路由達到此網絡接口的時候頗有用.此時會檢查來訪IP是否爲全部接口上的子網段內ip之一.若是改來訪IP不屬於各個網絡接口上的子網段內,那麼將採用級別2的方式來進行處理. 2:對查詢目標使用最適當的本地地址.在此模式下將忽略這個IP數據包的源地址並嘗試選擇與能與該地址通訊的本地地址.首要是選擇全部的網絡接口的子網中外出訪問子網中包含該目標IP地址的本地地址. 若是沒有合適的地址被發現,將選擇當前的發送網絡接口或其餘的有可能接受到該ARP迴應的網絡接口來進行發送. |
net.ipv4.conf.default.arp_filter | 0:內核設置每一個網絡接口各自應答其地址上的arp詢問。這項看似會錯誤的設置卻常常能很是有效,由於它增長了成功通信的機會。在Linux主機上,每一個IP地址是網絡接口獨立的,而非一個複合的接口。只有在一些特殊的設置的時候,好比負載均衡的時候會帶來麻煩。 1:容許多個網絡介質位於同一子網段內,每一個網絡界面依據是否內核指派路由該數據包通過此接口來確認是否回答ARP查詢(這個實現是由來源地址肯定路由的時候決定的),換句話說,容許控制使用某一塊網卡(一般是第一塊)迴應arp詢問。 |
net.ipv4.conf.default.arp_ignore | 定義對目標地址爲本地IP的ARP詢問不一樣的應答模式 0:迴應任何網絡接口上對任何本地IP地址的arp查詢請求 1:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求 2:只回答目標IP地址是來訪網絡接口本地地址的ARP查詢請求,且來訪IP必須在該網絡接口的子網段內 3:不迴應該網絡界面的arp請求,而只對設置的惟一和鏈接地址作出迴應 8:不迴應全部(本地地址)的arp查詢 |
net.ipv4.conf.default.arp_notify | arp通知鏈操做 0:不作任何操做 1:當設備或硬件地址改變時自動產生一個arp請求 |
net.ipv4.conf.default.bootp_relay | 接收源地址爲0.a.b.c,目的地址不是本機的數據包,是爲了支持bootp服務 0:關閉 1:開啓 |
net.ipv4.conf.default.disable_policy | 禁止internet協議安全性驗證 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.default.disable_xfrm | 禁止internet協議安全性加密 0:禁止禁止 1:開啓禁止 |
net.ipv4.conf.default.force_igmp_version | |
net.ipv4.conf.default.forwarding | 在該接口打開轉發功能 0:禁止 1:容許 |
net.ipv4.conf.default.log_martians | 記錄帶有不容許的地址的數據報到內核日誌中。 0:禁止 1:容許 |
net.ipv4.conf.default.mc_forwarding | 是否進行多播路由。只有內核編譯有CONFIG_MROUTE而且有路由服務程序在運行該參數纔有效。 0:禁止 1:容許 |
net.ipv4.conf.default.medium_id | 一般,這個參數用來區分不一樣媒介.兩個網絡設備可使用不一樣的值,使他們只有其中之一接收到廣播包.一般,這個參數被用來配合proxy_arp實現roxy_arp的特性便是容許arp報文在兩個不一樣的網絡介質中轉發. 0:表示各個網絡介質接受他們本身介質上的媒介 -1:表示該媒介未知。 |
net.ipv4.conf.default.promote_secondaries | 0:當接口的主IP地址被移除時,刪除全部次IP地址 1:當接口的主IP地址被移除時,將次IP地址提高爲主IP地址 |
net.ipv4.conf.default.proxy_arp | 打開arp代理功能。 0:禁止 1:容許 |
net.ipv4.conf.default.proxy_arp_pvlan | 迴應代理ARP的數據包從接收到此代理ARP請求的網絡接口出去。 |
net.ipv4.conf.default.route_localnet | |
net.ipv4.conf.default.rp_filter | 1:經過反向路徑回溯進行源地址驗證(在RFC1812中定義)。對於單穴主機和stub網絡路由器推薦使用該選項。 0:不經過反向路徑回溯進行源地址驗證。 |
net.ipv4.conf.default.secure_redirects | 僅僅接收發給默認網關列表中網關的ICMP重定向消息 0:禁止 1:容許 |
net.ipv4.conf.default.send_redirects | 容許發送重定向消息。(路由使用) 0:禁止 1:容許 |
net.ipv4.conf.default.shared_media | 發送或接收RFC1620 共享媒體重定向。會覆蓋ip_secure_redirects的值。 0:禁止 1:容許 |
net.ipv4.conf.default.src_valid_mark | |
net.ipv4.conf.default.tag | |
net.ipv4.icmp_echo_ignore_all | 忽略全部接收到的icmp echo請求的包(會致使機器沒法ping通) 0:不忽略 1:忽略 |
net.ipv4.icmp_echo_ignore_broadcasts | 忽略全部接收到的icmp echo請求的廣播 0:不忽略 1:忽略 |
net.ipv4.icmp_errors_use_inbound_ifaddr | 當前爲 ICMP 錯誤消息選擇源地址的方式,是使用存在的接口地址 1:表示內核經過這個選項容許使用接收到形成這一錯誤的報文的接口的地址 |
net.ipv4.icmp_ignore_bogus_error_responses | 某些路由器違背RFC1122標準,其對廣播幀發送僞造的響應來應答。這種違背行爲一般會被以警告的方式記錄在系統日誌中。 0:記錄到系統日誌中 1:忽略 |
net.ipv4.icmp_ratelimit | 限制發向特定目標的匹配icmp_ratemask的ICMP數據報的最大速率。配合icmp_ratemask使用。 0:沒有任何限制 >0:表示指定時間內中容許發送的個數。(以jiffies爲單位) |
net.ipv4.icmp_ratemask | 在這裏匹配的ICMP被icmp_ratelimit參數限制速率. 匹配的標誌位: IHGFEDCBA9876543210 默認的掩碼值: 0000001100000011000 (6168) 0 Echo Reply 3 Destination Unreachable * 4 Source Quench * 5 Redirect 8 Echo Request B Time Exceeded * C Parameter Problem * D Timestamp Request E Timestamp Reply F Info Request G Info Reply H Address Mask Request I Address Mask Reply * 號的被默認限速 |
net.ipv4.igmp_max_memberships | 限制加入一個多播組的最大成員數. |
net.ipv4.igmp_max_msf | 限制多播源地址過濾數量. |
net.ipv4.igmp_qrv | |
net.ipv4.inet_peer_maxttl | 條目的最大存活期。在此期限到達以後,若是緩衝池沒有耗盡壓力的話(例如:緩衝池中的條目數目很是少),不使用的條目將會超時。該值以 jiffies爲單位測量。 |
net.ipv4.inet_peer_minttl | 條目的最低存活期。在重組端必需要有足夠的碎片(fragment)存活期。這個最低存活期必須保證緩衝池容積是否少於 inet_peer_threshold。該值以 jiffies爲單位測量。 |
net.ipv4.inet_peer_threshold | INET對端存儲器某個合適值,當超過該閥值條目將被丟棄。該閥值一樣決定生存時間以及廢物收集經過的時間間隔。條目越多,存活期越低,GC 間隔越短。 |
net.ipv4.ip_default_ttl | 該文件表示一個數據報的生存週期(Time To Live),即最多通過多少路由器。 |
net.ipv4.ip_dynaddr | 撥號上網大部分都是使用動態IP地址,咱們不知道遠程撥號服務器的IP地址是多少,也不可能知道它會給電腦分配什麼IP地址 0:使用靜態IP 1:使用動態IP地址 |
net.ipv4.ip_early_demux | |
net.ipv4.ip_forward | 是否打開ipv4的IP轉發。 0:禁止 1:打開 |
net.ipv4.ip_forward_use_pmtu | |
net.ipv4.ipfrag_high_thresh | 表示用於重組IP分段的內存分配最高值,一旦達到最高內存分配值,其它分段將被丟棄,直到達到最低內存分配值。 |
net.ipv4.ipfrag_low_thresh | 表示用於重組IP分段的內存分配最低值 |
net.ipv4.ipfrag_max_dist | 相同的源地址ip碎片數據報的最大數量. 這個變量表示在ip碎片被添加到隊列前要做額外的檢查.若是超過定義的數量的ip碎片從一個相同源地址到達,那麼假定這個隊列的ip碎片有丟失,已經存在的ip碎片隊列會被丟棄,若是爲0關閉檢查 |
net.ipv4.ipfrag_secret_interval | hash表中ip碎片隊列的重建延遲.(單位 秒) |
net.ipv4.ipfrag_time | 表示一個IP分段在內存中保留多少秒 |
net.ipv4.ip_local_port_range | 本地發起鏈接時使用的端口範圍,tcp初始化時會修改此值 |
net.ipv4.ip_local_reserved_ports | |
net.ipv4.ip_nonlocal_bind | 容許進程綁定到非本地地址 0:禁止 1:容許 |
net.ipv4.ip_no_pmtu_disc | 該文件表示在全局範圍內關閉路徑MTU探測功能。 |
net.ipv4.neigh.{網絡接口}.anycast_delay | 對相鄰請求信息的回覆的最大延遲時間(單位 秒) |
net.ipv4.neigh.{網絡接口}.app_solicit | 在使用多播探測前,經過netlink發送到用戶空間arp守護程序的最大探測數 |
net.ipv4.neigh.{網絡接口}.base_reachable_time | 一旦發現相鄰記錄,至少在一段介於 base_reachable_time/2和3*base_reachable_time/2之間的隨機時間內,該記錄是有效的. 若是收到上層協議的確定反饋, 那麼記錄的有效期將延長.(單位 秒) |
net.ipv4.neigh.{網絡接口}.base_reachable_time_ms | 一旦發現相鄰記錄,至少在一段介於 base_reachable_time/2和3*base_reachable_time/2之間的隨機時間內,該記錄是有效的. 若是收到上層協議的確定反饋, 那麼記錄的有效期將延長.(單位 毫秒) |
net.ipv4.neigh.{網絡接口}.delay_first_probe_time | 發現某個相鄰層記錄無效後,發出第一個探測要等待的時間。(單位 秒) |
net.ipv4.neigh.{網絡接口}.gc_stale_time | 決定檢查一次相鄰層記錄的有效性的週期. 當相鄰層記錄失效時,將在給它發送數據前,再解析一次.(單位 秒) |
net.ipv4.neigh.{網絡接口}.locktime | 防止相鄰記錄被過分頻繁刷新,引發抖動,只有距鄰居上次刷新時間超過這時才容許被再次刷新.(單位 秒) |
net.ipv4.neigh.{網絡接口}.mcast_solicit | 在把記錄標記爲不可達以前, 用多播/廣播方式解析地址的最大次數. |
net.ipv4.neigh.{網絡接口}.proxy_delay | 當接收到有一個arp請求時,在迴應前能夠延遲的時間,這個請求是要獲得一個已知代理arp項的地址.(單位 百毫秒) |
net.ipv4.neigh.{網絡接口}.proxy_qlen | 能放入代理 ARP 地址隊列的數據包最大數目. |
net.ipv4.neigh.{網絡接口}.retrans_time | 重發一個arp請求前的等待的秒數 |
net.ipv4.neigh.{網絡接口}.retrans_time_ms | 重發一個arp請求前的等待的毫秒數 |
net.ipv4.neigh.{網絡接口}.ucast_solicit | arp請求最多發送次數 |
net.ipv4.neigh.{網絡接口}.unres_qlen | 最大掛起arp請求的數量,這些請求都正在被解析中. |
net.ipv4.neigh.{網絡接口}.unres_qlen_bytes | 最大處理arp包的字節數 |
net.ipv4.neigh.default.anycast_delay | 對相鄰請求信息的回覆的最大延遲時間(單位 秒) |
net.ipv4.neigh.default.app_solicit | 在使用多播探測前,經過netlink發送到用戶空間arp守護程序的最大探測數 |
net.ipv4.neigh.default.base_reachable_time | 一旦發現相鄰記錄,至少在一段介於 base_reachable_time/2和3*base_reachable_time/2之間的隨機時間內,該記錄是有效的. 若是收到上層協議的確定反饋, 那麼記錄的有效期將延長.(單位 秒) |
net.ipv4.neigh.default.base_reachable_time_ms | 一旦發現相鄰記錄,至少在一段介於 base_reachable_time/2和3*base_reachable_time/2之間的隨機時間內,該記錄是有效的. 若是收到上層協議的確定反饋, 那麼記錄的有效期將延長.(單位 毫秒) |
net.ipv4.neigh.default.delay_first_probe_time | 發現某個相鄰層記錄無效後,發出第一個探測要等待的時間。(單位 秒) |
net.ipv4.neigh.default.gc_interval | 垃圾收集器收集相鄰層記錄和無用記錄的運行週期(單位 秒) |
net.ipv4.neigh.default.gc_stale_time | 決定檢查一次相鄰層記錄的有效性的週期. 當相鄰層記錄失效時,將在給它發送數據前,再解析一次.(單位 秒) |
net.ipv4.neigh.default.gc_thresh1 | 存在於ARP高速緩存中的最少個數,若是少於這個數,垃圾收集器將不會運行 |
net.ipv4.neigh.default.gc_thresh2 | 保存在 ARP 高速緩存中的最多的記錄軟限制. 垃圾收集器在開始收集前,容許記錄數超過這個數字,在建立新表項時若是發現5秒沒有刷新過,那麼進行強制回收 |
net.ipv4.neigh.default.gc_thresh3 | 保存在 ARP 高速緩存中的最多記錄的硬限制, 一旦高速緩存中的數目高於此, 垃圾收集器將立刻運行 |
net.ipv4.neigh.default.locktime | 防止相鄰記錄被過分頻繁刷新,引發抖動,只有距鄰居上次刷新時間超過這時才容許被再次刷新.(單位 秒) |
net.ipv4.neigh.default.mcast_solicit | 在把記錄標記爲不可達以前, 用多播/廣播方式解析地址的最大次數. |
net.ipv4.neigh.default.proxy_delay | 當接收到有一個arp請求時,在迴應前能夠延遲的時間,這個請求是要獲得一個已知代理arp項的地址.(單位 百毫秒) |
net.ipv4.neigh.default.proxy_qlen | 能放入代理 ARP 地址隊列的數據包最大數目. |
net.ipv4.neigh.default.retrans_time | 重發一個arp請求前的等待的秒數 |
net.ipv4.neigh.default.retrans_time_ms | 重發一個arp請求前的等待的毫秒數 |
net.ipv4.neigh.default.ucast_solicit | arp請求最多發送次數 |
net.ipv4.neigh.default.unres_qlen | 最大掛起arp請求的數量,這些請求都正在被解析中. |
net.ipv4.neigh.default.unres_qlen_bytes | 最大處理arp包的字節數 |
net.ipv4.ping_group_range | |
net.ipv4.route.error_burst | 這個參數和error_cast一塊兒用於限制有多少個icmp不可達消息被髮送.當數據包不能到達下一跳時會發送icmp不可達數據包. 當一些主機忽略咱們的icmp重定向消息時也會打印一些錯誤信息到dmesg.這個選項也控制打印的次數.(單位 秒) |
net.ipv4.route.error_cost | 這個參數和error_burst一塊兒用於限制有多少個icmp不可達消息被髮送.當數據包不能到達下一跳時會發送icmp不可達數據包. 當一些主機忽略咱們的icmp重定向消息時也會打印一些錯誤信息到dmesg.這個選項也控制打印的次數. error_cost值越大,那麼icmp不可達和寫錯誤信息的頻率就越低.(單位 秒) |
net.ipv4.route.flush | 寫這個文件就會刷新路由高速緩衝. |
net.ipv4.route.gc_elasticity | 用來控制路由緩存垃圾回收機制的頻率和行爲.當路由表一個hash項的長度超過此值時,會進行緩存縮減,當路由緩存項長度超過 ip_rt_gc_elasticity << rt_hash_log(表示路由高速緩存hash table的容量以2爲對數所得的值) 時會進行強烈的回收. |
net.ipv4.route.gc_interval | 此參數定義了路由表垃圾回收的間隔(秒) |
net.ipv4.route.gc_min_interval | 已再也不使用,並被gc_min_interval_ms取代 |
net.ipv4.route.gc_min_interval_ms | 此參數定義了路由表垃圾回收的最小間隔(ms) |
net.ipv4.route.gc_thresh | 路由hash table的大小,當cache中的路由條數超過此值時,開始垃圾回收. |
net.ipv4.route.gc_timeout | 設置一個路由表項的過時時長(秒). |
net.ipv4.route.max_size | 路由高速緩存的最大項數,超過會進行清除舊項操做. |
net.ipv4.route.min_adv_mss | 該文件表示最小的MSS(Maximum Segment Size)大小,取決於第一跳的路由器MTU。(以字節爲單位) |
net.ipv4.route.min_pmtu | 該文件表示最小路徑MTU的大小。 |
net.ipv4.route.mtu_expires | 該文件表示PMTU信息緩存多長時間(秒)。 |
net.ipv4.route.redirect_load | 決定是否要向特定主機發送更多的ICMP重定向的時間因子.一旦達到load時間或number個數就再也不發送. |
net.ipv4.route.redirect_number | 決定是否要向特定主機發送更多的ICMP重定向的數量因子.一旦達到load時間或number個數就再也不發送. |
net.ipv4.route.redirect_silence | 重定向的超時.通過這麼長時間後,重定向會重發,而無論是否已經由於超過load或者number限制而中止. |
net.ipv4.tcp_abort_on_overflow | 守護進程太忙而不能接受新的鏈接,就向對方發送reset消息 0:關閉 1:開啓 |
net.ipv4.tcp_adv_win_scale | 計算緩衝開銷bytes/2^tcp_adv_win_scale(若是tcp_adv_win_scale > 0)或者bytes-bytes/2^(-tcp_adv_win_scale)(若是tcp_adv_win_scale <= 0)。 |
net.ipv4.tcp_allowed_congestion_control | 列出了tcp目前容許使用的擁塞控制算法,只能在下面可用的算法中選擇. |
net.ipv4.tcp_app_win | 保留max(window/2^tcp_app_win, mss)數量的窗口用於應用緩衝。當爲0時表示不須要緩衝。 |
net.ipv4.tcp_available_congestion_control | 列出了tcp目前可使用的擁塞控制算法. |
net.ipv4.tcp_base_mss | tcp探察路徑上mtu的最低邊界限制, mss+TCP頭部+TCP選項+IP頭+IP選項. |
net.ipv4.tcp_challenge_ack_limit | |
net.ipv4.tcp_congestion_control | 當前正在使用的擁塞控制算法. |
net.ipv4.tcp_dsack | 表示是否容許TCP發送「兩個徹底相同」的SACK。 0:禁止 1:啓用 |
net.ipv4.tcp_early_retrans | |
net.ipv4.tcp_ecn | 表示是否打開TCP的直接擁塞通告功能。 0:禁止 1:啓用 |
net.ipv4.tcp_fack | 表示是否打開FACK擁塞避免和快速重傳功能。 0:禁止 1:打開 |
net.ipv4.tcp_fastopen | |
net.ipv4.tcp_fastopen_key | |
net.ipv4.tcp_fin_timeout | 本端斷開的socket鏈接,TCP保持在FIN-WAIT-2狀態的時間。對方可能會斷開鏈接或一直不結束鏈接或不可預料的進程死亡。默認值爲 60 秒。過去在2.2版本的內核中是 180 秒。您能夠設置該值,但須要注意,若是您的機器爲負載很重的web服務器,您可能要冒內存被大量無效數據報填滿的風險,FIN-WAIT-2 sockets 的危險性低於 FIN-WAIT-1,由於它們最多隻吃 1.5K 的內存,可是它們存在時間更長。 |
net.ipv4.tcp_frto | |
net.ipv4.tcp_keepalive_intvl | 表示發送TCP探測的頻率,乘以tcp_keepalive_probes表示斷開沒有相應的TCP鏈接的時間。 |
net.ipv4.tcp_keepalive_probes | 該文件表示丟棄TCP鏈接前,進行最大TCP保持鏈接偵測的次數。保持鏈接僅在SO_KEEPALIVE套接字選項被打開時才被髮送。 |
net.ipv4.tcp_keepalive_time | 表示從最後一個包結束後多少秒內沒有活動,才發送keepalive包保持鏈接,默認7200s,理想可設爲1800s,即若是非正常斷開,1800s後可經過keepalive知道。 |
net.ipv4.tcp_limit_output_bytes | |
net.ipv4.tcp_low_latency | 容許 TCP/IP 棧適應在高吞吐量狀況下低延時的狀況;這個選項通常情形是的禁用。(但在構建Beowulf 集羣的時候,打開它頗有幫助) 0:關閉 1:開啓 |
net.ipv4.tcp_max_orphans | 系統所能處理不屬於任何進程的TCP sockets最大數量。假如超過這個數量,那麼不屬於任何進程的鏈接會被當即reset,並同時顯示警告信息。之因此要設定這個限制,純粹爲了抵禦那些簡單的 DoS 攻擊,千萬不要依賴這個或是人爲的下降這個限制。 |
net.ipv4.tcp_max_ssthresh | |
net.ipv4.tcp_max_syn_backlog | 對於那些依然還未得到客戶端確認的鏈接請求,須要保存在隊列中最大數目。默認值是1024,可提升到2048。 |
net.ipv4.tcp_max_tw_buckets | 系統在同時所處理的最大timewait sockets 數目。若是超過此數的話,time-wait socket 會被當即砍除而且顯示警告信息。 |
net.ipv4.tcp_mem | 該文件保存了三個值,分別是 low:當TCP使用了低於該值的內存頁面數時,TCP不會考慮釋放內存。 presure:當TCP使用了超過該值的內存頁面數量時,TCP試圖穩定其內存使用,進入pressure模式,當內存消耗低於low值時則退出pressure狀態。 high:容許全部tcp sockets用於排隊緩衝數據報的頁面量。 |
net.ipv4.tcp_min_tso_segs | |
net.ipv4.tcp_moderate_rcvbuf | 接收數據時是否調整接收緩存 0:不調整 1:調整 |
net.ipv4.tcp_mtu_probing | 是否開啓tcp層路徑mtu發現,自動調整tcp窗口等信 0:關閉 1:開啓 |
net.ipv4.tcp_no_metrics_save | 若是開啓,tcp會在鏈接關閉時也就是LAST_ACK狀態保存各類鏈接信息到路由緩存中,新創建的鏈接可使用這些條件來初始化.。一般這會增長整體的系統性能,可是有些時候也會引發性能降低. 0:關閉 1:開啓 |
net.ipv4.tcp_orphan_retries | 針對孤立的socket(也就是已經從進程上下文中刪除了,但是還有一些清理工做沒有完成).在丟棄TCP鏈接以前重試的最大的次數 |
net.ipv4.tcp_reordering | TCP流中重排序的數據報最大數量。 |
net.ipv4.tcp_retrans_collapse | 對於某些有bug的打印機提供針對其bug的兼容性。 0:不啓用 1:啓用 |
net.ipv4.tcp_retries1 | 該文件表示放棄迴應一個TCP鏈接請求前進行重傳的次數。 |
net.ipv4.tcp_retries2 | 該文件表示放棄在已經創建通信狀態下的一個TCP數據包前進行重傳的次數。 |
net.ipv4.tcp_rfc1337 | 這個開關能夠啓動對於在RFC1337中描述的"tcp 的time-wait暗殺危機"問題的修復。啓用後,內核將丟棄那些發往time-wait狀態TCP套接字的RST 包. 0:關閉 1:開啓 |
net.ipv4.tcp_rmem | 此文件中保存有三個值,分別是 Min:爲TCP socket預留用於接收緩衝的內存最小值。每一個tcp socket均可以在創建後使用它。即便在內存出現緊張狀況下tcp socket都至少會有這麼多數量的內存用於接收緩衝 Default:爲TCP socket預留用於接收緩衝的內存數量,默認狀況下該值會影響其它協議使用的net.core.rmem_default 值,通常要低於net.core.rmem_default的值。該值決定了在tcp_adv_win_scale、tcp_app_win和tcp_app_win=0默認值狀況下,TCP窗口大小爲65535。 Max:用於TCP socket接收緩衝的內存最大值。該值不會影響net.core.rmem_max,"靜態"選擇參數SO_SNDBUF則不受該值影響。 |
net.ipv4.tcp_sack | 表示是否啓用有選擇的應答(Selective Acknowledgment),這能夠經過有選擇地應答亂序接收到的報文來提升性能(這樣可讓發送者只發送丟失的報文段);(對於廣域網通訊來講)這個選項應該啓用,可是這會增長對 CPU 的佔用。 0:不啓用 1:啓用 |
net.ipv4.tcp_slow_start_after_idle | 若是設置知足RFC2861定義的行爲,在重新開始計算擁塞窗口前延遲一些時間,這延遲的時間長度由當前rto決定. 0:關閉 1:開啓 |
net.ipv4.tcp_stdurg | 使用 TCP urg pointer 字段中的主機請求解釋功能。大部份的主機都使用老舊的BSD解釋,所以若是您在 Linux 打開它,或會致使不能和它們正確溝通。 0:關閉 1:打開 |
net.ipv4.tcp_synack_retries | 對於遠端的鏈接請求SYN,內核會發送SYN + ACK數據報,以確認收到上一個 SYN鏈接請求包。 這是所謂的三次握手.這裏決定內核在放棄鏈接以前所送出的 SYN+ACK 數目. |
net.ipv4.tcp_syncookies | 表示是否打開TCP同步標籤(syncookie),內核必須打開了 CONFIG_SYN_COOKIES項進行編譯。同步標籤(syncookie)能夠防止一個套接字在有過多試圖鏈接到達時引發過載。 0:關閉 1:打開 |
net.ipv4.tcp_syn_retries | 表示本機向外發起TCP SYN鏈接超時重傳的次數,不該該高於255;該值僅僅針對外出的鏈接,對於進來的鏈接由tcp_retries1控制。 |
net.ipv4.tcp_thin_dupack | |
net.ipv4.tcp_thin_linear_timeouts | |
net.ipv4.tcp_timestamps | 表示是否啓用以一種比超時重發更精確的方法(請參閱 RFC 1323)來啓用對 RTT 的計算;爲了實現更好的性能應該啓用這個選項。 0:不啓用 1:啓用 |
net.ipv4.tcp_tso_win_divisor | 控制根據擁塞窗口的百分比,是否來發送相應的延遲tso frame 0:關閉 >0:值越大表示tso frame延遲發送可能越小. |
net.ipv4.tcp_tw_recycle | 打開快速 TIME-WAIT sockets 回收。除非獲得技術專家的建議或要求,請不要隨意修改這個值。 |
net.ipv4.tcp_tw_reuse | 表示是否容許從新應用處於TIME-WAIT狀態的socket用於新的TCP鏈接。 0:關閉 1:打開 |
net.ipv4.tcp_window_scaling | 表示設置tcp/ip會話的滑動窗口大小是否可變。 0:不可變 1:可變 |
net.ipv4.tcp_wmem | 此文件中保存有三個值,分別是 Min:爲TCP socket預留用於發送緩衝的內存最小值。每一個tcp socket均可以在創建後使用它。 Default:爲TCP socket預留用於發送緩衝的內存數量,默認狀況下該值會影響其它協議使用的net.core.wmem_default 值,通常要低於net.core.wmem_default的值。 Max:用於TCP socket發送緩衝的內存最大值。該值不會影響net.core.wmem_max,"靜態"選擇參數SO_SNDBUF則不受該值影響。 |
net.ipv4.tcp_workaround_signed_windows | 0:假定遠程鏈接端正常發送了窗口收縮選項,即便對端沒有發送. 1:假定遠程鏈接端有錯誤,沒有發送相關的窗口縮放選項 |
net.ipv4.udp_mem | 該文件保存了三個值,分別是 low:當UDP使用了低於該值的內存頁面數時,UDP不會考慮釋放內存。 presure:當UDP使用了超過該值的內存頁面數量時,UDP試圖穩定其內存使用,進入pressure模式,當內存消耗低於low值時則退出pressure狀態。 high:容許全部UDP sockets用於排隊緩衝數據報的頁面量。 |
net.ipv4.udp_rmem_min | |
net.ipv4.udp_wmem_min | |
net.ipv4.xfrm4_gc_thresh | |
net.ipv6.bindv6only | 默認監聽ipv6端口(無論監聽與否,都與是否關閉ipv4監聽無關) 0:不監聽 1:監聽 |
net.ipv6.conf.all.accept_dad | 0:取消DAD功能 1:啓用DAD功能,但link-local地址衝突時,不關閉ipv6功能 2:啓用DAD功能,但link-local地址衝突時,關閉ipv6功能 |
net.ipv6.conf.all.accept_ra | 接受IPv6路由通告.而且根據獲得的信息自動設定. 0:不接受路由通告 1:當forwarding禁止時接受路由通告 2:任何狀況下都接受路由通告 |
net.ipv6.conf.all.accept_ra_defrtr | 是否接受ipv6路由器發出的默認路由設置 0:不接受 1:接受 |
net.ipv6.conf.all.accept_ra_pinfo | 當accept_ra開啓時此選項會自動開啓,關閉時則會關閉 |
net.ipv6.conf.all.accept_ra_rt_info_max_plen | 在路由通告中路由信息前綴的最大長度。當 |
net.ipv6.conf.all.accept_ra_rtr_pref | |
net.ipv6.conf.all.accept_redirects | 是否接受ICMPv6重定向包 0:拒絕接受ICMPv6,當forwarding=1時,此值會自動設置爲0 1:啓動接受ICMPv6,當forwarding=0時,此值會自動設置爲1 |
net.ipv6.conf.all.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv6.conf.all.autoconf | 設定本地連結地址使用L2硬件地址. 它依據界面的L2-MAC address自動產生一個地址如:"fe80::201:23ff:fe45:6789" |
net.ipv6.conf.all.dad_transmits | 接口增長ipv6地址時,發送幾回DAD包 |
net.ipv6.conf.all.disable_ipv6 | 是否禁用ipv6 0:不由用 1:禁用 |
net.ipv6.conf.all.force_mld_version | |
net.ipv6.conf.all.force_tllao | |
net.ipv6.conf.all.forwarding | 全部網絡接口開啓ipv6轉發 0:關閉 1:開啓 |
net.ipv6.conf.all.hop_limit | 缺省hop限制 |
net.ipv6.conf.all.max_addresses | 全部網絡接口自動配置IP地址的數量最大值 0:不限制 >0:最大值 |
net.ipv6.conf.all.max_desync_factor | DESYNC_FACTOR的最大值,DESYNC_FACTOR是一個隨機數,用於防止客戶機在同一時間生成新的地址 |
net.ipv6.conf.all.mc_forwarding | 是否使用多路廣播進行路由選擇,須要內核編譯時開啓了CONFIG_MROUTE選項而且開啓了多路廣播路由選擇的後臺daemon 0:關閉 1:開啓 |
net.ipv6.conf.all.mldv1_unsolicited_report_interval | 每次發送MLDv1的主動報告的時間間隔(ms) |
net.ipv6.conf.all.mldv2_unsolicited_report_interval | 每次發送MLDv2的主動報告的時間間隔(ms) |
net.ipv6.conf.all.mtu | ipv6的最大傳輸單元 |
net.ipv6.conf.all.ndisc_notify | 如何向鄰居設備通知地址和設備的改變 0:不通知 1:主動向鄰居發送廣播報告硬件地址或者設備發生了改變 |
net.ipv6.conf.all.optimistic_dad | 是否啓用optimistic DAD(樂觀地進行重複地址檢查) 0:關閉 1:開啓 |
net.ipv6.conf.all.proxy_ndp | 此功能相似於ipv4的nat,可將內網的包轉發到外網,外網不能主動發給內網。 0:關閉 1:開啓 |
net.ipv6.conf.all.regen_max_retry | 嘗試生成臨時地址的次數 |
net.ipv6.conf.all.router_probe_interval | 路由器探測間隔(秒) |
net.ipv6.conf.all.router_solicitation_delay | 在發送路由請求以前的等待時間(秒). |
net.ipv6.conf.all.router_solicitation_interval | 在每一個路由請求之間的等待時間(秒). |
net.ipv6.conf.all.router_solicitations | 假定沒有路由的狀況下發送的請求個數 |
net.ipv6.conf.all.temp_prefered_lft | |
net.ipv6.conf.all.temp_valid_lft | |
net.ipv6.conf.all.use_tempaddr | |
net.ipv6.conf.{網絡接口}.accept_dad | |
net.ipv6.conf.{網絡接口}.accept_ra | |
net.ipv6.conf.{網絡接口}.accept_ra_defrtr | |
net.ipv6.conf.{網絡接口}.accept_ra_pinfo | |
net.ipv6.conf.{網絡接口}.accept_ra_rt_info_max_plen | |
net.ipv6.conf.{網絡接口}.accept_ra_rtr_pref | |
net.ipv6.conf.{網絡接口}.accept_redirects | |
net.ipv6.conf.{網絡接口}.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv6.conf.{網絡接口}.autoconf | |
net.ipv6.conf.{網絡接口}.dad_transmits | |
net.ipv6.conf.{網絡接口}.disable_ipv6 | |
net.ipv6.conf.{網絡接口}.force_mld_version | |
net.ipv6.conf.{網絡接口}.force_tllao | |
net.ipv6.conf.{網絡接口}.forwarding | |
net.ipv6.conf.{網絡接口}.hop_limit | |
net.ipv6.conf.{網絡接口}.max_addresses | |
net.ipv6.conf.{網絡接口}.max_desync_factor | |
net.ipv6.conf.{網絡接口}.mc_forwarding | |
net.ipv6.conf.{網絡接口}.mldv1_unsolicited_report_interval | |
net.ipv6.conf.{網絡接口}.mldv2_unsolicited_report_interval | |
net.ipv6.conf.{網絡接口}.mtu | |
net.ipv6.conf.{網絡接口}.ndisc_notify | |
net.ipv6.conf.{網絡接口}.optimistic_dad | |
net.ipv6.conf.{網絡接口}.proxy_ndp | |
net.ipv6.conf.{網絡接口}.regen_max_retry | |
net.ipv6.conf.{網絡接口}.router_probe_interval | |
net.ipv6.conf.{網絡接口}.router_solicitation_delay | |
net.ipv6.conf.{網絡接口}.router_solicitation_interval | |
net.ipv6.conf.{網絡接口}.router_solicitations | |
net.ipv6.conf.{網絡接口}.temp_prefered_lft | |
net.ipv6.conf.{網絡接口}.temp_valid_lft | |
net.ipv6.conf.{網絡接口}.use_tempaddr | |
net.ipv6.conf.default.accept_dad | |
net.ipv6.conf.default.accept_ra | |
net.ipv6.conf.default.accept_ra_defrtr | |
net.ipv6.conf.default.accept_ra_pinfo | |
net.ipv6.conf.default.accept_ra_rt_info_max_plen | |
net.ipv6.conf.default.accept_ra_rtr_pref | |
net.ipv6.conf.default.accept_redirects | |
net.ipv6.conf.default.accept_source_route | 接收帶有SRR選項的數據報。主機設爲0,路由設爲1 |
net.ipv6.conf.default.autoconf | |
net.ipv6.conf.default.dad_transmits | |
net.ipv6.conf.default.disable_ipv6 | |
net.ipv6.conf.default.force_mld_version | |
net.ipv6.conf.default.force_tllao | |
net.ipv6.conf.default.forwarding | |
net.ipv6.conf.default.hop_limit | |
net.ipv6.conf.default.max_addresses | |
net.ipv6.conf.default.max_desync_factor | |
net.ipv6.conf.default.mc_forwarding | |
net.ipv6.conf.default.mldv1_unsolicited_report_interval | |
net.ipv6.conf.default.mldv2_unsolicited_report_interval | |
net.ipv6.conf.default.mtu | |
net.ipv6.conf.default.ndisc_notify | |
net.ipv6.conf.default.optimistic_dad | |
net.ipv6.conf.default.proxy_ndp | |
net.ipv6.conf.default.regen_max_retry | |
net.ipv6.conf.default.router_probe_interval | |
net.ipv6.conf.default.router_solicitation_delay | |
net.ipv6.conf.default.router_solicitation_interval | |
net.ipv6.conf.default.router_solicitations | |
net.ipv6.conf.default.temp_prefered_lft | |
net.ipv6.conf.default.temp_valid_lft | |
net.ipv6.conf.default.use_tempaddr | |
net.ipv6.icmp.ratelimit | |
net.ipv6.ip6frag_high_thresh | |
net.ipv6.ip6frag_low_thresh | |
net.ipv6.ip6frag_secret_interval | |
net.ipv6.ip6frag_time | |
net.ipv6.mld_max_msf | |
net.ipv6.mld_qrv | |
net.ipv6.neigh.{網絡接口}.anycast_delay | |
net.ipv6.neigh.{網絡接口}.app_solicit | |
net.ipv6.neigh.{網絡接口}.base_reachable_time | |
net.ipv6.neigh.{網絡接口}.base_reachable_time_ms | |
net.ipv6.neigh.{網絡接口}.delay_first_probe_time | |
net.ipv6.neigh.{網絡接口}.gc_stale_time | |
net.ipv6.neigh.{網絡接口}.locktime | |
net.ipv6.neigh.{網絡接口}.mcast_solicit | |
net.ipv6.neigh.{網絡接口}.proxy_delay | |
net.ipv6.neigh.{網絡接口}.proxy_qlen | |
net.ipv6.neigh.{網絡接口}.retrans_time | |
net.ipv6.neigh.{網絡接口}.retrans_time_ms | |
net.ipv6.neigh.{網絡接口}.ucast_solicit | |
net.ipv6.neigh.{網絡接口}.unres_qlen | |
net.ipv6.neigh.{網絡接口}.unres_qlen_bytes | |
net.ipv6.route.flush | |
net.ipv6.route.gc_elasticity | |
net.ipv6.route.gc_interval | |
net.ipv6.route.gc_min_interval | |
net.ipv6.route.gc_min_interval_ms | |
net.ipv6.route.gc_thresh | |
net.ipv6.route.gc_timeout | |
net.ipv6.route.max_size | |
net.ipv6.route.min_adv_mss | |
net.ipv6.route.mtu_expires | |
net.ipv6.xfrm6_gc_thresh | |
net.netfilter.nf_conntrack_acct | |
net.netfilter.nf_conntrack_buckets | 只讀,描述當前系統的ip_conntrack的hash table大小. |
net.netfilter.nf_conntrack_checksum | 驗證協議是否錯誤是,是否對協議進行校驗和驗證 0:關閉 1:開啓 |
net.netfilter.nf_conntrack_count | 內存中ip_conntrack結構的數量. |
net.netfilter.nf_conntrack_events | |
net.netfilter.nf_conntrack_events_retry_timeout | |
net.netfilter.nf_conntrack_expect_max | |
net.netfilter.nf_conntrack_generic_timeout | 通用或未知協議的conntrack被設置的超時時間(每次看到包都會用這值從新更新定時器),一旦時間到conntrack將被回收.(秒) |
net.netfilter.nf_conntrack_helper | |
net.netfilter.nf_conntrack_icmp_timeout | icmp協議的conntrack被設置的超時時間,一旦到時conntrack將被回收.(秒) |
net.netfilter.nf_conntrack_log_invalid | 調試時使用,能夠指定一個數字,這個數字是內核定義的協議號好比IPPROTO_TCP是6,當指定協議解析時發現一些錯誤包會打印相關的錯誤信息到dmesg中. 最小值0,最大值255,默認不打印. |
net.netfilter.nf_conntrack_max | 內存中最多ip_conntrack結構的數量. |
net.netfilter.nf_conntrack_tcp_be_liberal | 當開啓只有不在tcp窗口內的rst包被標誌爲無效,當關閉(默認)全部不在tcp窗口中的包都被標誌爲無效. 0:關閉 1:開啓 |
net.netfilter.nf_conntrack_tcp_loose | 當想追蹤一條已經鏈接的tcp會話, 在系統能夠假設sync和window追逐已經開始後要求每一個方向必須經過的包的數量. 若是爲0,從不追蹤一條已經鏈接的tcp會話. |
net.netfilter.nf_conntrack_tcp_max_retrans | 沒有從目的端接收到一個ack而進行包重傳的次數,一旦達到這限制nf_conntrack_tcp_timeout_max_retrans將做爲ip_conntrack的超時限制. |
net.netfilter.nf_conntrack_tcp_timeout_close | TCP處於close狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_close_wait | TCP處於close wait狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_established | TCP處於established狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_fin_wait | TCP處於fin wait狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_last_ack | TCP處於last ack狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_max_retrans | TCP處於max retrans狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_syn_recv | TCP處於syn recv狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_syn_sent | TCP處於syn sent狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_time_wait | TCP處於time wait狀態超時時間(秒) |
net.netfilter.nf_conntrack_tcp_timeout_unacknowledged | TCP處於unacknowledged狀態超時時間(秒) |
net.netfilter.nf_conntrack_timestamp | |
net.netfilter.nf_conntrack_udp_timeout | udp協議的conntrack被設置的超時時間(每次看到包都會用這值從新更新定時器),一旦到時conntrack將被回收.(秒) |
net.netfilter.nf_conntrack_udp_timeout_stream | 當看到一些特殊的udp傳輸時(傳輸在雙向)設置的ip_conntrack超時時間(每次看到包都會用這值從新更新定時器).(秒) |
net.netfilter.nf_log.0 | |
net.netfilter.nf_log.1 | |
net.netfilter.nf_log.10 | |
net.netfilter.nf_log.11 | |
net.netfilter.nf_log.12 | |
net.netfilter.nf_log.2 | |
net.netfilter.nf_log.3 | |
net.netfilter.nf_log.4 | |
net.netfilter.nf_log.5 | |
net.netfilter.nf_log.6 | |
net.netfilter.nf_log.7 | |
net.netfilter.nf_log.8 | |
net.netfilter.nf_log.9 | |
net.nf_conntrack_max | 內存中最多ip_conntrack結構的數量. |
net.unix.max_dgram_qlen | 容許域套接字中數據包的最大個數,在初始化unix域套接字時的默認值. 在調用listen函數時第二個參數會覆蓋這個值. |
fs.aio-max-nr | 最大容許aio請求數量(會涉及到數據庫的aio請求) |
fs.aio-nr | 當前aio請求數量 |
fs.binfmt_misc.qemu-alpha | binfmt_misc用於支持當前芯片架構的系統是否支持經過qemu進行chroot到其餘架構的根文件系統中進行操做。 |
fs.binfmt_misc.qemu-arm | |
fs.binfmt_misc.qemu-armeb | |
fs.binfmt_misc.qemu-cris | |
fs.binfmt_misc.qemu-i386 | |
fs.binfmt_misc.qemu-i486 | |
fs.binfmt_misc.qemu-m68k | |
fs.binfmt_misc.qemu-microblaze | |
fs.binfmt_misc.qemu-microblazeel | |
fs.binfmt_misc.qemu-mips | |
fs.binfmt_misc.qemu-mips64 | |
fs.binfmt_misc.qemu-mips64el | |
fs.binfmt_misc.qemu-mipsel | |
fs.binfmt_misc.qemu-s390x | |
fs.binfmt_misc.qemu-sh4 | |
fs.binfmt_misc.qemu-sh4eb | |
fs.binfmt_misc.qemu-sparc | |
fs.binfmt_misc.qemu-sparc32plus | |
fs.binfmt_misc.qemu-sparc64 | |
fs.binfmt_misc.register | 用於註冊或修改以上的binfmt_misc,輸入格式是 :name:type:offset:magic:mask:interpreter:flags \xff\xff\xff\xff\xff\xfe\xfe\xff\xff\xff\xff\xff\xff\xff\xff\xff\xfb\xff\xff:/bin/em86:' > registerweb |
fs.binfmt_misc.status | 設置binfmt_misc開啓 0:禁止 1:開啓 |
fs.dentry-state | 保存目錄緩存的狀態,保存有六個值,只有前三個有效 nr_dentry:當前已經分配的目錄項數量 nr_unused:尚未使用的目錄項數量 age_limit:當內存緊缺時,延遲多少秒後會回收目錄項所佔內存 |
fs.dir-notify-enable | 設置是否啓用dnotify,已被inotify取代,由於dnotify 須要您爲每一個打算監控是否發生改變的目錄打開一個文件描述符。當同時監控多個目錄時,這會消耗大量的資源,由於有可能達到每一個進程的文件描述符限制。而且不容許卸載(unmount)支持的設備 0:不使用 1:使用 |
fs.epoll.max_user_watches | IO複用epoll監聽文件句柄的數量最大值 |
fs.file-max | 系統中全部進程可以同時打開的文件句柄數量 |
fs.file-nr | 此文件中保存了三個值,分別是:系統中已分配的文件句柄數量 已分配但沒有使用的文件句柄數量 最大的文件句柄號 |
fs.inode-nr | 此文件保存了兩個值,是:已分配inode數 空閒inode數 |
fs.inode-state | 此文件保存了三個值,前兩個分別表示 已分配inode數和空閒inode數。第三個是已超出系統最大inode值的數量,此時系統須要清除排查inode列表 |
fs.inotify.max_queued_events | inotify用於監控文件系統事件 該文件中的值爲調用inotify_init函數時分配給inotify隊列的事件數目的最大值,超出這個值得事件被丟棄,但會觸發IN_Q_OVERFLOW事件 文件系統變化越頻繁,這個值就應該越大 |
fs.inotify.max_user_instances | 設置每一個用戶能夠運行的inotifywait或inotifywatch命令的進程數。 |
fs.inotify.max_user_watches | 設置inotifywait或inotifywatch命令能夠監視的文件數量(單進程)。 |
fs.lease-break-time | 當進程嘗試打開一個被租借鎖保護的文件時,該進程會被阻塞,同時,在必定時間內擁有該文件租借鎖的進程會收到一個信號。收到信號以後,擁有該文件租借鎖的進程會首先更新文件,從而保證了文件內容的一致性,接着,該進程釋放這個租借鎖。若是擁有租借鎖的進程在必定的時間間隔內沒有完成工做,內核就會自動刪除這個租借鎖或者將該鎖進行降級,從而容許被阻塞的進程繼續工做。 此保存租借鎖的超時時間(以秒爲單位) |
fs.leases-enable | 是否啓用文件的租借鎖 1:啓用 0:不啓用 |
fs.mqueue.msg_default | POSIX的消息隊列 此文件保存一個消息隊列中消息數量的默認值,若是此值超過msg_max,則會被設置爲msg_max |
fs.mqueue.msg_max | 一個消息隊列的最大消息數 |
fs.mqueue.msgsize_default | 消息隊列中一個消息的默認大小(以字節爲單位) |
fs.mqueue.msgsize_max | 消息隊列中一個消息的最大大小(以字節爲單位) |
fs.mqueue.queues_max | 系統中容許的消息隊列的最大數量 |
fs.nfs.idmap_cache_timeout | 設置idmapper緩存項的最大壽命,單位是秒 |
fs.nfs.nfs_callback_tcpport | 設置NFSv4回覆通道(callback channel)監聽的TCP端口 |
fs.nfs.nfs_congestion_kb | |
fs.nfs.nfs_mountpoint_timeout | |
fs.nfs.nlm_grace_period | 參數設置服務器從新引導後客戶機回收NFSv3鎖和NFSv4鎖所需的秒數。所以,grace_period的值可控制NFSv3和NFSv4的鎖定恢復的寬延期長度。 |
fs.nfs.nlm_tcpport | 爲NFS鎖管理器指定TCP端口 |
fs.nfs.nlm_timeout | 爲NFS鎖管理器指定默認超時時間,單位是秒。默認值是10秒。取值範圍在[3-20] |
fs.nfs.nlm_udpport | 爲NFS鎖管理器指定UDP端口 |
fs.nfs.nsm_local_state | |
fs.nfs.nsm_use_hostnames | |
fs.nr_open | 一個進程最多同時打開的文件句柄數量 |
fs.overflowgid | Linux的GID爲32位,但有些文件系統只支持16位的GID,此時若進行寫操做會出錯;當GID超過65535時會自動被轉換爲一個固定值,這個固定值保存在這個文件中 |
fs.overflowuid | Linux的UID爲32位,但有些文件系統只支持16位的UID,此時若進行寫操做會出錯;當UID超過65535時會自動被轉換爲一個固定值,這個固定值保存在這個文件中 |
fs.pipe-max-size | 此文件限制非特權程序使用pipe時的緩存最大大小(以字節爲單位,最小設置爲4096) |
fs.protected_hardlinks | 用於限制普通用戶創建硬連接 0:不限制用戶創建硬連接 1:限制,若是文件不屬於用戶,或者用戶對此用戶沒有讀寫權限,則不能創建硬連接 |
fs.protected_symlinks | 用於限制普通用戶創建軟連接 0:不限制用戶創建軟連接 1:限制,容許用戶創建軟鏈接的狀況是 軟鏈接所在目錄是全局可讀寫目錄或者軟鏈接的uid與跟從者的uid匹配,又或者目錄全部者與軟鏈接全部者匹配 |
fs.quota.allocated_dquots | |
fs.quota.cache_hits | |
fs.quota.drops | |
fs.quota.free_dquots | |
fs.quota.lookups | |
fs.quota.reads | |
fs.quota.syncs | |
fs.quota.warnings | |
fs.quota.writes | |
fs.suid_dumpable | |
fscache.object_max_active | |
fscache.operation_max_active |