linux 系統中單個進程的最大線程數有其最大的限制 PTHREAD_THREADS_MAX
這個限制能夠在 /usr/include/bits/local_lim.h 中查看
對 linuxthreads 這個值通常是 1024,對於 nptl 則沒有硬性的限制,僅僅受限於系統的資源
這個系統的資源主要就是線程的 stack 所佔用的內存,用 ulimit -s 能夠查看默認的線程棧大小,通常狀況下,這個值是 8M
能夠寫一段簡單的代碼驗證最多能夠建立多少個線程
int main()
{
int i = 0;
pthread_t thread;
while (1) {
if (pthread_create(&thread, NULL, foo, NULL) != 0)
return;
i ++;
printf("i = %d\n", i);
}
}
試驗顯示,在 linuxthreads 上最多能夠建立 381 個線程,以後就會返回 EAGAIN
在 nptl 上最多能夠建立 382 個線程,以後就會返回 ENOMEM
這個值和理論徹底相符,由於 32 位 linux 下的進程用戶空間是 3G 的大小,也就是 3072M,用 3072M 除以 8M 得 384,可是實際上代碼段和數據段等還要佔用一些空間,這個值應該向下取整到 383,再減去主線程,獲得 382。
那爲何 linuxthreads 上還要少一個線程呢?這可太對了,由於 linuxthreads 還須要一個管理線程
爲了突破內存的限制,能夠有兩種方法
1) 用 ulimit -s 1024 減少默認的棧大小
2) 調用 pthread_create 的時候用 pthread_attr_getstacksize 設置一個較小的棧大小
要注意的是,即便這樣的也沒法突破 1024 個線程的硬限制,除非從新編譯 C 庫 <=此處值得討論,我在ubuntu 7.04+3G內存上用ulimit -s 1024,則能夠獲得3054個線程。
=======================進程最大數=================
以下轉載自這裏,詳細的能夠參看這裏。
LINUX中進程的最大理論數計算:
每一個進程的局部段描述表LDT都做爲一個獨立的段而存在,在全局段描述表GDT中要有一個表項指向這個段的起始地址,並說明該段的長度以及其餘一些 參數。除上以外,每一個進程還有一個TSS結構(任務狀態段)也是同樣。因此,每一個進程都要在全局段描述表GDT中佔據兩個表項。那麼,GDT的容量有多大 呢?段寄存器中用做GDT表下標的位段寬度是13位,因此GDT中能夠有8192個描述項。除一些系統的開銷(例如GDT中的第2項和第3項分別用於內核 的代碼段和數據段,第4項和第5項永遠用於當前進程的代碼段和數據段,第1項永遠是0,等等)之外,尚有8180個表項可供使用,因此理論上系統中最大的 進程數量是4090。
===============從新編譯內核來修改進程打開的最大文件數和修改listen偵聽隊列==========
以下轉載自這裏。
用「ulimit -a」能看到這些限制,如:
[root@HQtest root]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
max locked memory (kbytes, -l) unlimited
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 2047
virtual memory (kbytes, -v) unlimited
用ulimit ?n 10240 修改打開的文件數目變爲 10240
雖然使用ulimit ?a 能看到變爲10240,不過我在作壓力測試的時候,當超過1024個用戶時,服務就會down機。
最後只有從新編譯了內核,編譯內核後一切OK!
操做方法以下:
不一樣的Linux內核版本有不一樣的調整方法,
在Linux內核2.2.x中能用以下命令修改:
# echo ’8192’ > /proc/sys/fs/file-max
# echo ’32768’ > /proc/sys/fs/inode-max
並將以上命令加到/etc/rc.c/rc.local文件中,以使系統每次從新啓動時設置以上值。
在Linux內核2.4.x中須要修改原始碼,而後從新編譯內核才生效。編輯Linux內核原始碼中的 include/linux/fs.h文件,
將 NR_FILE 由8192改成 65536,將NR_RESERVED_FILES 由10 改成 128。編輯fs/inode.c 文件將 MAX_INODE 由16384改成262144。
通常狀況下,最大打開文件數比較合理的設置爲每4M物理內存256,好比256M內存能設爲16384,
而最大的使用的i節點的數目應該是最大打開文件數目的3倍到4倍。
在Linux下,咱們使用ulimit -n命令能夠看到單個進程可以打開的最大文件句柄數量(socket鏈接也算在裏面)。系統默認值1024。
對於通常的應用來講(象Apache、系統進程)1024徹底足夠使用。可是如何象squid、mysql、java等單進程處理大量請求的應用來講就有點捉襟見肘了。若是單個進程打開的文件句柄數量超過了系統定義的值,就會提到「too many files open」的錯誤提示。如何知道當前進程打開了多少個文件句柄呢?下面一段小腳本能夠幫你查看:lsof -n |awk '{print $2}'|sort|uniq -c |sort -nr|more
在系統訪問高峯時間以root用戶執行上面的腳本,可能出現的結果以下:# lsof -n|awk '{print $2}'|sort|uniq -c |sort -nr|more 131 24204 57 24244 57 24231 56 24264
其中第一行是打開的文件句柄數量,第二行是進程號。獲得進程號後,咱們能夠經過ps命令獲得進程的詳細內容。ps -aef|grep 24204 mysql 24204 24162 99 16:15 ? 00:24:25 /usr/sbin/mysqld
哦,原來是mysql進程打開最多文件句柄數量。可是他目前只打開了131個文件句柄數量,遠遠底於系統默認值1024。
可是若是系統併發特別大,尤爲是squid服務器,頗有可能會超過1024。這時候就必需要調整系統參數,以適應應用變化。Linux有硬性限制和軟性限制。能夠經過ulimit來設定這兩個參數。方法以下,以root用戶運行如下命令:ulimit -HSn 4096
以上命令中,H指定了硬性大小,S指定了軟性大小,n表示設定單個進程最大的打開文件句柄數量。我的以爲最好不要超過4096,畢竟打開的文件句柄數越多響應時間確定會越慢。設定句柄數量後,系統重啓後,又會恢復默認值。若是想永久保存下來,能夠修改.bash_profile文件,能夠修改 /etc/profile 把上面命令加到最後。(findsun提出的辦法比較合理)
java