java.net.SocketException: Too many open files解决方法

SEVERE: Endpoint ServerSocket[addr=0.0.0.0/0.0.0.0,port=0,localport=8080] ignored 

exception: java.net.SocketException: Too many open files
java.net.SocketException: Too many open files
	at java.net.PlainSocketImpl.socketAccept(Native Method)
	at java.net.PlainSocketImpl.accept(PlainSocketImpl.java:384)
	at java.net.ServerSocket.implAccept(ServerSocket.java:450)
	at java.net.ServerSocket.accept(ServerSocket.java:421)
	at org.apache.tomcat.util.net.DefaultServerSocketFactory.acceptSocket

(DefaultServerSocketFactory.java:61)
	at org.apache.tomcat.util.net.PoolTcpEndpoint.acceptSocket

(PoolTcpEndpoint.java:408)
	at org.apache.tomcat.util.net.LeaderFollowerWorkerThread.runIt

(LeaderFollowerWorkerThread.java:71)
	at org.apache.tomcat.util.threads.ThreadPool$ControlRunnable.run

(ThreadPool.java:689)
	at java.lang.Thread.run(Thread.java:595)

 

原本以为是tomcat的配置或是应用本身的问题,"谷歌"一把后才发现,该问题的根本原因是由于系统文件资源的限制导致的。

具体可以参考 http://www.bea.com.cn/support_pattern/Too_Many_Open_Files_Pattern.html 
的说明。具体的解决方式可以参考一下:
1。ulimit -a 查看系统目前资源限制的设定。
   [root@test security]# umlimit -a 
-bash: umlimit: command not found
[root@test security]# ulimit -a
core file size        (blocks, -c) 0
data seg size         (kbytes, -d) unlimited
file size             (blocks, -f) unlimited
max locked memory     (kbytes, -l) unlimited
max memory size       (kbytes, -m) unlimited
open files                    (-n) 1024
pipe size          (512 bytes, -p) 8
stack size            (kbytes, -s) 8192
cpu time             (seconds, -t) unlimited
max user processes            (-u) 7168
virtual memory        (kbytes, -v) unlimited
[root@test security]# 
通过以上命令,我们可以看到open files 的最大数为1024
那么我们可以通过一下命令修改该参数的最大值

2. ulimit -n 4096
[root@test security]# ulimit -n 4096
[root@test security]# ulimit -a
core file size        (blocks, -c) 0
data seg size         (kbytes, -d) unlimited
file size             (blocks, -f) unlimited
max locked memory     (kbytes, -l) unlimited
max memory size       (kbytes, -m) unlimited
open files                    (-n) 4096
pipe size          (512 bytes, -p) 8
stack size            (kbytes, -s) 8192
cpu time             (seconds, -t) unlimited
max user processes            (-u) 7168
virtual memory        (kbytes, -v) unlimited

这样我们就修改了系统在同一时间打开文件资源的最大数,基本解决以上问题。

以上部分是查找网络上的解决方法。设置了之后段时间内有作用。

后来仔细想来,问题还是要从根本上解决,于是把以前的代码由认真地看了一遍。终于找到了,罪魁祸首。

在读取文件时,有一些使用的BufferedReader 没有关闭。导致文件一直处于打开状态。造成资源的严重浪费。

 

public   void  test(){
    BufferedReader reader  = null ;
     try {
        reader  =  读取文件;
        String line  =   "" ;
         while ( ( ine = reader.readLine()) != null ){
           其他操作
        }

    }  catch  (IOException e){
        System.out.println(e);
    }  finally {  
          if (reader  != null ){
                 try  {
                    reader.close();
                }  catch  (IOException e) {
                      e.printStackTrace();
                }
          }
    }

}

因为Socket没有释放,以致文件句柄用完了.如果用HttpClient去调用的, HttpClient本身存在这个问题, 解决方式就是加个httpHeader, 使用HttpClient如下:

client = new HttpClient();
		client.getParams().setBooleanParameter("http.protocol.expect-continue", false);
HttpMethod httpMethod = ...;
httpMethod.addRequestHeader("Connection", "close");
client.executeMethod(httpMethod);
 
其它的API应该也可以加这两个值.

用unlimit放大操作系统最大打开文件数的确可以短时间解决 Too many open files的现象,但这不是本质原因。 
本质原因肯定能够是你的程序中没有及时close掉文件(在linux/unix中Socket也是文件)。否则只有在上千的绝对同时并发时,才可能出现Too many open files错误。
----------------------------------------------------------------------------- 重新登陆后又会恢复,所以需要永久设置open files 的值才行啊, 用ulimit -n 修改open files 总是不能保持。所以用下面一个简单的办法更好些。 修改/etc/security/limits.conf 添加如下一行: * - nofile 1006154 修改/etc/pam.d/login添加如下一行 session required /lib/security/pam_limits.so 这次永久修改后程序就再没那个问题了,一直稳定运行。 另外遇到这个问题这后还需要检查我们的程序对于操作io的流是否在操作完之后关闭,这才是从最更本上的解决。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值