最近隨着網站訪問量的提升把web服務器移到linux下了,在移服務器的次日,tomcat頻繁的報 java
java.net.SocketException: Too many open files錯誤,錯誤日誌達到了100多兆,鬱悶了,windows上運行了很長 linux
時間都沒出現這個錯誤,後來才知道linux對進程的打開文件數是有限制的。 web
用命令ulimit -a查看 windows
[root@test security]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
max locked memory (kbytes, -l) unlimited
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 7168
virtual memory (kbytes, -v) unlimited
[root@test security]#
經過以上命令,咱們能夠看到open files 的最大數爲1024 tomcat
對於併發量比較大的網站這個限制是有些捉襟見肘的,因此我經過這個命令 服務器
ulimit -n 4096
把打開文件數的上限設爲了4096,這下好了,項目又穩定了 session
沒想到過兩天後又從新出這個錯誤了,鬱悶,兩個小時報一次,報以後就掛掉了 併發
在從新用ulimit -a查看,發現open files (-n) 1024 又變回了1024了, 網站
報這個錯誤就在我那次登錄更新以後又報的,原來ulimit -n 4096 命令只能臨時的改變open files 的值,當 ui
從新登錄後又會恢復,因此須要永久設置open files 的值才行啊,
修改/etc/security/limits.conf 添加以下一行:
* - nofile 1006154
修改/etc/pam.d/login添加以下一行
session required /lib/security/pam_limits.so
此次永久修改後程序就再沒那個問題了,一直穩定運行。
另外遇到這個問題這後還須要檢查咱們的程序對於操做io的流是否在操做完以後關閉,這纔是從最更本上的解決。