java.lang.OutOfMemoryError: unable to create new native thread

本文记录了Hadoop集群中出现的内存溢出错误及连接被拒绝的问题,详细展示了错误日志,并探讨了解决这些问题的方法,包括调整ulimit-u参数等。
35227 2014-05-21 13:53:18,504 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Reopen already-open Block for append blk_8901346392456488003_201326
135228 2014-05-21 13:53:18,506 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.1.33.11:50010, storageID=DS-420686803-10.1.33.11-50010-1399181350037, infoPort=50       075, ipcPort=50020):DataXceiver
135229 java.lang.OutOfMemoryError: unable to create new native thread
135230     at java.lang.Thread.start0(Native Method)
135231     at java.lang.Thread.start(Thread.java:714)
135232     at org.apache.hadoop.hdfs.server.datanode.BlockReceiver.receiveBlock(BlockReceiver.java:576)
135233     at org.apache.hadoop.hdfs.server.datanode.DataXceiver.writeBlock(DataXceiver.java:404)
135234     at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:112)
135235     at java.lang.Thread.run(Thread.java:745)
135236 2014-05-21 13:53:25,866 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.1.33.11:50010, storageID=DS-420686803-10.1.33.11-50010-1399181350037, infoPort=500       75, ipcPort=50020) Starting thread to transfer blk_-2263414036967179224_200863 to 10.1.33.13:50010
135237 2014-05-21 13:53:25,866 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.1.33.11:50010, storageID=DS-420686803-10.1.33.11-50010-1399181350037, infoPort=500       75, ipcPort=50020) Starting thread to transfer blk_-2231241119796918398_200963 to 10.1.33.15:50010
135238 2014-05-21 13:53:25,877 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.1.33.11:50010, storageID=DS-420686803-10.1.33.11-50010-1399181350037, infoPort=500       75, ipcPort=50020):Failed to transfer blk_-2263414036967179224_200863 to 10.1.33.13:50010 got java.net.ConnectException: Connection refused
135239     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
135240     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:739)
135241     at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
135242     at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:511)
135243     at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:481)
135244     at org.apache.hadoop.hdfs.server.datanode.DataNode$DataTransfer.run(DataNode.java:1511)
135245     at java.lang.Thread.run(Thread.java:745)
135246
135247 2014-05-21 13:53:25,877 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: checkDiskError: exception:
135248 java.net.ConnectException: Connection refused
135249     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
135250     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:739)
135251     at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
135252     at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:511)
135253     at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:481)
135254     at org.apache.hadoop.hdfs.server.datanode.DataNode$DataTransfer.run(DataNode.java:1511)
135255     at java.lang.Thread.run(Thread.java:745)
135256 2014-05-21 13:53:25,877 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Not checking disk as checkDiskError was called on a network related exception
135257 2014-05-21 13:53:25,877 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Exiting Datanode 


ulimit -u 参数调大 
<think>好的,用户遇到了Java程序中的OutOfMemoryError,具体是无法创建新的本地线程的问题。我需要根据之前的引用和已有的知识来思考解决方案。 首先,这个错误通常是因为Java应用达到了线程数的系统限制。需要从多个方面分析原因。可能的原因包括系统级别的线程数限制、JVM设置、线程栈大小配置不当,或者程序本身创建了太多线程没有及时释放。 根据引用[1],错误信息明确指出线程创建达到上限。引用[2]提到几个关键因素:MaxProcessMemory(进程最大内存)、JVMMemory(JVM内存)、ReservedOsMemory(保留的操作系统内存)、ThreadStackSize(线程栈大小)。这些都是需要考虑的参数。 接下来,我需要整理解决方案的步骤。首先,检查系统级别的限制,比如ulimit -u的结果,以及操作系统的全局限制(如Linux的pid_max和threads-max)。然后调整这些限制,但要注意系统资源是否足够。 第二,优化JVM参数,特别是减少线程栈大小(-Xss),这样可以在相同内存下创建更多线程。但要注意栈溢出风险。 第三,检查程序中的线程使用情况,是否有线程泄漏,或者可以改用线程池来复用线程,避免频繁创建和销毁。 另外,引用[2]提到MaxProcessMemory的计算,可能需要调整进程的虚拟内存设置,但具体方法因系统而异。对于32位系统,可能受限于地址空间,升级到64位可能有效。 还要考虑减少内存占用,释放资源,或者水平扩展应用,分散负载到多个实例。 最后,用户可能需要具体的操作步骤,比如如何修改系统参数、调整JVM选项,以及代码优化的示例。需要确保建议安全可行,并提醒用户注意调整参数时的潜在影响,比如降低栈大小可能导致栈溢出,增加系统限制可能消耗更多资源。 总结解决方案的步骤,分点列出,确保清晰易懂。同时生成相关问题,帮助用户进一步理解和排查问题。</think>### 解决方案:Java OutOfMemoryError: Unable to create new native thread 该错误表明Java应用触发了系统级线程创建限制[^1],需从以下方向逐步排查和优化: --- #### 1. **检查系统级线程限制** - **Linux系统** 执行 `ulimit -u` 查看当前用户允许的最大线程数。 修改 `/etc/security/limits.conf` 文件,例如: ```bash * soft nproc 4096 * hard nproc 65536 ``` 需重启生效。 - **全局系统限制** Linux系统中检查 `/proc/sys/kernel/pid_max`(最大进程数)和 `/proc/sys/kernel/threads-max`(全局线程数上限),通过 `sysctl` 调整。 --- #### 2. **优化JVM参数配置** - **减小线程栈大小** 通过 `-Xss` 参数降低单个线程栈的内存占用(默认1MB),例如: ```bash -Xss256k ``` 注意:过小可能导致 `StackOverflowError`。 - **控制JVM堆内存** 避免堆内存占用过多导致操作系统预留内存不足,例如: ```bash -Xms512m -Xmx2g ``` --- #### 3. **优化程序线程管理** - **使用线程池** 避免无限制创建线程,改用 `ThreadPoolExecutor` 控制并发量: ```java ExecutorService executor = Executors.newFixedThreadPool(100); // 根据系统能力设置 ``` - **排查线程泄漏** 通过 `jstack <pid>` 或可视化工具(如VisualVM)分析线程状态,确保线程任务结束后能被回收。 --- #### 4. **调整操作系统参数(进阶)** - **虚拟内存分配** 在Linux中增大进程虚拟内存限制(需root权限): ```bash sysctl -w vm.max_map_count=262144 ``` - **升级64位系统** 32位系统受限于进程地址空间(通常2-4GB),迁移到64位系统可显著提升资源上限[^2]。 --- #### 5. **架构级优化** - **水平扩展** 通过分布式部署将负载分散到多个实例。 - **异步非阻塞模型** 使用Netty或Vert.x等框架减少线程依赖。 --- ### 关键公式说明 系统允许的最大线程数可通过以下公式估算[^2]: $$ \text{MaxThreads} = \frac{\text{MaxProcessMemory - JVMMemory - ReservedOsMemory}}{\text{ThreadStackSize}} $$ 例如:若系统剩余内存为2GB,单个线程栈256KB,则理论最大线程数约 $2 \times 1024^2 / 256 = 8192$。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值