Linux - 修改系统的max open files、max user processes(附ulimit的使用方法) ...

Linux - 修改系统的max open files、max user processes(附ulimit的使用方法)
目录

1 问题说明
2 修改max open files
3 修改max user processes
4 附录: ulimit命令说明
1 问题说明
Linux 系统默认的max open files = 1024, 在大内存服务器中, 如果运行负载比较大的程序, 很容易发生error: too many open files, 特别是提供大量静态文件访问的Web服务器、缓存服务器中这种错误更加常见.

open files表示系统级别的能够打开的文件句柄的数量, 是系统级别的安全策略: 限制所有应用打开的文件数量.

发生error: too many open files时, 如果不好定位程序问题, 可在系统的配置文件中做一定的修改.

为了让服务器重启之后, 配置仍然有效, 需要用永久生效的配置方法进行修改.

2 修改max open files
说明: 这里以Cent OS 6.5为例.

使用ulimit -a命令可以查看当前系统的所有限制值, 括号中的命令是查看单项限制值的方式, 比如要查看系统可打开的最大文件数量(open files), 就可以用ulimit -n命令: (具体命令说明请参考末尾部分的附录)

[root@localhost ~]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited # 数据段长度
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 1031426
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited # 最大内存大小
open files (-n) 65536 # 最大打开文件数
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 10240 # 栈大小
cpu time (seconds, -t) unlimited # CPU时间
max user processes (-u) 131072
virtual memory (kbytes, -v) unlimited # 虚拟内存大小
file locks (-x) unlimited
(1) 短期修改, 重启服务器后即失效:

把文件句柄数改为65535

ulimit -n 65535

也可用下属方式修改:

ulimit -SHn 65535

其中-S是soft软限制模式, -H指hard硬限制模式;

默认是软限制, 如果只指定-n, 那就会同时配置-SH.

(2) 永久修改, 重启服务器也不变:

网络上常见的方式有如下三种:

① 在/etc/security/limits.conf最后增加如下两行记录:

nofile - 可以打开的最大文件数, *通配符表示对所有用户有效

  • soft nofile 65536
  • hard nofile 65536
    修改完成后保存, 退出当前用户并重新登录(不用重启服务器), 当前修改就会生效.

② 在/etc/profile中增加一行ulimit -SHn 65535, 然后运行source /etc/profile命令让修改立即生效.

—— /etc/profile文件是所有系统用户的配置文件, 修改后会影响当前系统的所有注册用户.

③ 在/etc/rc.local文件中增加一行ulimit -SHn 65535, 修改完后, 重启服务器就可生效.

值得注意的是, 博主在CentOS 6.5系统中测试, 发现只有第 ① 和第 ② 种方式才有效.

另外, 在《阿里巴巴Java开发手册》中, 关于最大文件句柄数有这样的描述:

【推荐】调大服务器所支持的最大文件句柄数(File Descriptor,简写为fd)。

说明:主流操作系统的设计是将 TCP/UDP 连接采用与文件一样的方式去管理,即一个连接对应于一个 fd。主流的 Linux 服务器默认所支持最大 fd 数量为 1024,当并发连接数很大时很容易因为 fd 不足而出现“open too many files”错误,导致新的连接无法建立。 建议将 Linux 服务器所支持的最大句柄数调高数倍(与服务器的内存数量相关)。

3 修改max user processes
(1) 问题描述: 在使用Java程序多线程大批量生成模拟数据时, Cent OS报出如下错误:

ulimit: max user processes: cannot modify limit
错误说明: Linux系统为每个用户都设置了一个最大进程数, 这个特性可以让我们控制服务器上现有用户可以创建的进程数量.

(2) 查看max user processes:

与查看max open files类似, 可使用 ulimit -u查看max user processes:

ulimit -u
(3) 修改max user processes:

① 方案一: 修改/etc/security/limits.conf文件, 在文件最后添加下述内容:

  • soft nproc 131072
  • hard nproc 131072
    ② 方案二: 修改/etc/security/limits.d/90-nproc.conf文件, 在文件最后添加下述内容:

用户进程数的默认限制, 下面这个是对root外的其他用户限制max user processes, 要注释掉:

* soft nproc 1024

root soft nproc 131072
(4) 关于nproc配置信息的扩展说明:

对max user processes的配置, Linux系统默认先读取/etc/security/limits.conf 中的信息, 如果/etc/security/limits.d/目录下还有配置文件的话, 也会依次遍历读取, 最终, /etc/security/limits.d/中的配置会覆盖/etc/security/limits.conf 中的配置.

另外, max open files和max user processes是不能配置unlimited的 —— 极不安全的设置, 此时系统会使用默认的配置值. 对nproc而言, 默认值的计算方法为:

计算公式为:

default_nproc = max_threads / 2;

其中, max_threads = mempages / (8 * THREAD_SIZE / PAGE_SIZE);

mempages是机器的物理页面个数, THREAD_SIZE=8K, 所以, 计算公式为:

default_nproc = max_threads / 2

          = (mempages * PAGE_SIZE) / ( 2 * 8 *THREAD_SIZE ) 
          = total_memory / 128K;
          

计算本机默认nproc配置:

cat /proc/meminfo | grep MemTotal
MemTotal: 115571480 kB

echo "115571480 / 128" | bc
902902

ulimit -u
902682

算出来default_nproc = 902902, 和实际的902682很接近,

因为物理页面会存储一些关键数据, 所以实际的比计算出来的要小一些.

4 附录: ulimit命令说明
(1) 列出所有当前资源极限, 命令为: ulimit -a, 其他命令可参考输出信息中括号内的提示:

ulimit -a 命令的输出信息:

core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited # 一个进程的数据段的最大值
scheduling priority (-e) 0
file size (blocks, -f) unlimited # Shell创建文件的最大体积, 1block = 512bytes
pending signals (-i) 1031426 # 最多允许多少个待处理的信号
max locked memory (kbytes, -l) 64 # 每个进程可以锁住的物理内存的最大值
max memory size (kbytes, -m) unlimited # 每个进程可以使用的常驻内存的最大值
open files (-n) 65536 # 每个进程可以同时打开的最大文件数, 不能是unlimited
pipe size (512 bytes, -p) 8 # 管道的最大值, 1block = 512bytes
POSIX message queues (bytes, -q) 819200 # POSIX的消息队列的最大值
real-time priority (-r) 0
stack size (kbytes, -s) 10240 # 单个进程能够使用的最大栈大小
cpu time (seconds, -t) unlimited # 单个进程的最大CPU时间, 也就是可使用CPU的秒数, 到硬极限时, 这个进程就会立即自杀; 到软极限时, 每秒发送一次限制超时信号SIGXCPU
max user processes (-u) 131072 # 单个用户可同时运行的最大进程数, 不能是unlimited
virtual memory (kbytes, -v) unlimited # 每个进程可使用的最大虚拟内存
file locks (-x) unlimited # 每个进程能锁住的最大文件个数
(2) ulimit的其他命令:

-H 设置某个给定资源的硬极限. 如果用户拥有root权限, 可以增大硬极限. 任何用户均可减少硬极限
-S 设置某个给定资源的软极限, 软极限可增大到硬极限的值
(3) 注意事项:

① 其中, unlimited是指不限制用户可以使用的资源, 但这个设置对系统可打开的最大文件数(max open files)和各个用户可同时运行的最大进程数(max user processes)无效.

② 如果某个指标没有明确指定-H和-S限制, 那么当前的极限值就是 -H 和 -S 两者的极限值.

参考资料
ulimit限制之nproc问题

linux修改max user processes limits

版权声明
作者: ma_shoufeng(马瘦风)

出处: 博客园 马瘦风的博客

从你提供的 `ulimit -a` 命令输出可以看到,这是对当前 shell 用户的各种资源限制设置。以下是详细的解释: ### 资源限制详解 ```plaintext real-time non-blocking time (microseconds, -R) unlimited # 实时非阻塞时间无限制,通常不影响普通应用。 core file size (blocks, -c) 0 # 核心转储文件大小设为0,表示不会生成核心转储文件(用于调试崩溃程序)。 data seg size (kbytes, -d) unlimited # 数据段最大尺寸无限制,允许进程拥有无限的数据段空间。 scheduling priority (-e) 0 # 进程调度优先级默认值为0,即标准优先级。 file size (blocks, -f) unlimited # 单个文件的最大长度无限制,可以创建任意大的文件。 pending signals (-i) 127927 # 最大挂起信号数为127927,这个数值足够应对大部分应用场景。 max locked memory (kbytes, -l) 4107572 # 锁定内存上限为4107572 KB(约4GB),防止部分内存页面被换出到磁盘。 max memory size (kbytes, -m) unlimited # 进程占用的最大驻留集大小无限制,理论上不限制内存使用量。 open files (-n) 1024 # 允许同时打开的文件句柄数目为1024,默认值较低,在高并发环境下可能不够用。 pipe size (512 bytes, -p) 8 # 管道缓冲区大小为8 * 512字节 = 4KB,一般够用了。 POSIX message queues (bytes, -q) 819200 # POSIX消息队列总容量为819200字节,适用于大多数场景。 real-time priority (-r) 0 # 实时优先级默认为0,意味着不会有实时特权。 stack size (kbytes, -s) unlimited # 栈空间大小无限制,避免栈溢出问题。 cpu time (seconds, -t) unlimited # CPU 时间无限制,进程可以在不受CPU使用时间约束的情况下运行。 max user processes (-u) 127927 # 单用户最多可拥有的进程数量为127927,足够满足绝大多数需求。 virtual memory (kbytes, -v) unlimited # 虚拟地址空间无限制,保证充分的虚拟内存供进程分配。 file locks (-x) unlimited # 文件锁的数量无限制,支持大量并发操作。 ``` ### 关键关注点 1. **核心转储文件 (`-c`) 设置为0**:这会阻止生成核心转储文件,如果你正在调试有问题的应用程序,建议将其更改为更大的值以便捕获崩溃信息。 2. **最大打开文件数 (`-n)` 设为1024**:对于某些高并发的服务来说,1024个文件描述符可能不足以处理所有连接或文件访问请求。你可以通过修改此参数来增加其限制。例如: ```bash ulimit -n 65535 ``` 3. **最大锁定内存 (`-l)` 较低**:虽然已经设置了相对较高的值(4GB),但在特定环境中仍需根据实际情况评估是否需要进一步提高该值以适应特殊用途的工作负载。 ### 解决方案与优化建议 如果你想解决之前提到的 `fork: cannot allocate memory` 类似的问题,除了检查内存使用情况外,还可以考虑以下几个方面: 1. 提升单用户可创建的最大进程数 (`-u`) 到更高的水平,确保足够的线程/进程资源供给; 2. 扩展每个进程能够持有的最大文件描述符数目 (`-n`),特别是当服务涉及频繁I/O操作时尤为关键; 3. 如果确实遇到内存瓶颈,则适当调整 `-m`, `-d`, 或者 `-v` 参数限制,不过这种情况较少见于现代计算机系统上; 最后记得重启相关的守护进程让新的limits生效,或者直接在启动脚本中加入永久性配置变更命令行选项。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值