linux下让进程运行在指定的cpu上

最近负责的svr压力比较大,业务逻辑有点复杂,能优化的地方已经全部优化了,

目前每秒3k次,cpu负载还是比较高

top看一下,4核的cpu负载不是太均衡,打算考虑一下将业务进程指定到3个cpu上运行,另外一个cpu专门负责处理网络收发包;打算尝试一下,如果还是不行,再过段时间,访问量再增加的话,就要加机器了,呜呜

补充:今天测试了一下,效果挺好,同样进程数的情况下,进行cpu绑定

每个cpu都利用起来了,负载也比不绑定的情况下好了很多

分析一下有效果的原因:

看了《linux内核设计与实现》的42节,觉得人为控制一下cpu的绑定还是有用处的
1、linux的SMP负载均衡是基于进程数的,每个cpu都有一个可执行进程队列,只有当其中一个cpu的可执行队列里进程数比其他cpu队列进程数多25%时,才会将进程移动到另外空闲cpu上,也就是说cpu0上的进程数应该是比其他cpu上多,但是会在25%以内


2、我们的业务中耗费cpu的分四种类型,(1)网卡中断(2)1个处理网络收发包进程(3)耗费cpu的n个worker进程(4)其他不太耗费cpu的进程

基于1中的 负载均衡是针对进程数,那么(1)(2)大部分时间会出现在cpu0上,(3)的n个进程会随着调度,平均到其他多个cpu上,(4)里的进程也是随着调度分配到各个cpu上;

当发生网卡中断的时候,cpu被打断了,处理网卡中断,那么分配到cpu0上的worker进程肯定是运行不了的

其他cpu上不是太耗费cpu的进程获得cpu时,就算它的时间片很短,它也是要执行的,那么这个时候,你的worker进程还是被影响到了;按照调度逻辑,一种非常恶劣的情况是:(1)(2)(3)的进程全部分配到cpu0上,其他不太耗费cpu的进程数很多,全部分配到cpu1,cpu2,cpu3上。。那么网卡中断发生的时候,你的业务进程就得不到cpu了

如果从业务的角度来说,worker进程运行越多,肯定业务处理越快,人为的将它捆绑到其他负载低的cpu上,肯定能提高worker进程使用cpu的时间

找了个例子:

现在多CPU的趋势越来越大了. 有时候为了更好地操作机器, 需要将某个进程绑定到具体的CPU上去. 下面给出了一个进程绑定到具体的CPU上去的一个例子.


cpu.c

#include<stdlib.h>
#include<stdio.h>
#include<sys/types.h>
#include<sys/sysinfo.h>
#include<unistd.h>

#define __USE_GNU
#include<sched.h>
#include<ctype.h>
#include<string.h>

int main(int argc, char* argv[])
{
int num = sysconf(_SC_NPROCESSORS_CONF);
int created_thread = 0;
int myid;
int i;
int j = 0;

cpu_set_t mask;
cpu_set_t get;

if (argc != 2)
{
printf("usage : ./cpu num/n");
exit(1);
}

myid = atoi(argv[1]);

printf("system has %i processor(s). /n", num);

CPU_ZERO(&mask);
CPU_SET(myid, &mask);

if (sched_setaffinity(0, sizeof(mask), &mask) == -1)
{
printf("warning: could not set CPU affinity, continuing.../n");
}
while (1)
{

CPU_ZERO(&get);
if (sched_getaffinity(0, sizeof(get), &get) == -1)
{
printf("warning: cound not get cpu affinity, continuing.../n");
}
for (i = 0; i < num; i++)
{
if (CPU_ISSET(i, &get))
{
printf("this process %d is running processor : %d/n",getpid(), i);
}
}
}
return 0;
}

下面是在两个终端分别执行了./cpu 0 ./cpu 2 后得到的结果. 效果比较明显.

QUOTE:
Cpu0 : 5.3%us, 5.3%sy, 0.0%ni, 87.4%id, 0.0%wa, 0.0%hi, 2.0%si, 0.0%st
Cpu1 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu2 : 5.0%us, 12.2%sy, 0.0%ni, 82.8%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu3 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu4 : 0.0%us, 0.0%sy, 0.0%ni, 99.7%id, 0.3%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu5 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu6 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu7 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
///////////////////////////////////////////////
CPU Affinity (CPU亲合力)

CPU亲合力就是指在Linux系统中能够将一个或多个进程绑定到一个或多个处理器上运行.
一个进程的CPU亲合力掩码决定了该进程将在哪个或哪几个CPU上运行.在一个多处理器系统中,设置CPU亲合力的掩码可能会获得更好的性能.
一个CPU的亲合力掩码用一个cpu_set_t结构体来表示一个CPU集合,下面的几个宏分别对这个掩码集进行操作:
CPU_ZERO() 清空一个集合
CPU_SET()与CPU_CLR()分别对将一个给定的CPU号加到一个集合或者从一个集合中去掉.
CPU_ISSET()检查一个CPU号是否在这个集合中.
其实这几个的用法与select()函数那几个调用差不多.
下面两个函数就是最主要的了:
sched_setaffinity(pid_t pid, unsigned int cpusetsize, cpu_set_t *mask)
该函数设置进程为pid的这个进程,让它运行在mask所设定的CPU上.如果pid的值为0,则表示指定的是当前进程,使当前进程运行在mask所设定的那些CPU上.第二个参数cpusetsize是

mask所指定的数的长度.通常设定为sizeof(cpu_set_t).如果当前pid所指定的CPU此时没有运行在mask所指定的任意一个CPU上,则该指定的进程会从其它CPU上迁移到mask的指定的

一个CPU上运行.
sched_getaffinity(pid_t pid, unsigned int cpusetsize, cpu_set_t *mask)
该函数获得pid所指示的进程的CPU位掩码,并将该掩码返回到mask所指向的结构中.即获得指定pid当前可以运行在哪些CPU上.同样,如果pid的值为0.也表示的是当前进程.

这几个宏与函数的具体用法前面已经有讲解.

关于cpu_set_t的定义

# define __CPU_SETSIZE 1024
# define __NCPUBITS (8 * sizeof (__cpu_mask))

typedef unsigned long int __cpu_mask;

# define __CPUELT(cpu) ((cpu) / __NCPUBITS)
# define __CPUMASK(cpu) ((__cpu_mask) 1 << ((cpu) % __NCPUBITS))

typedef struct
{
__cpu_mask __bits[__CPU_SETSIZE / __NCPUBITS];
} cpu_set_t;


# define __CPU_ZERO(cpusetp) /
do { /
unsigned int __i; /
cpu_set_t *__arr = (cpusetp); /
for (__i = 0; __i < sizeof (cpu_set_t) / sizeof (__cpu_mask); ++__i) /
__arr->__bits[__i] = 0; /
} while (0)
# define __CPU_SET(cpu, cpusetp) /
((cpusetp)->__bits[__CPUELT (cpu)] |= __CPUMASK (cpu))
# define __CPU_CLR(cpu, cpusetp) /
((cpusetp)->__bits[__CPUELT (cpu)] &= ~__CPUMASK (cpu))
# define __CPU_ISSET(cpu, cpusetp) /
(((cpusetp)->__bits[__CPUELT (cpu)] & __CPUMASK (cpu)) != 0)

在我的机器上sizeof(cpu_set_t)的大小为128,即一共有1024位.第一位代表一个CPU号.某一位为1则表示某进程可以运行在该位所代表的cpu上.例如
CPU_SET(1, &mask);
则mask所对应的第2位被设置为1.
此时如果printf("%d/n", mask.__bits[0]);就打印出2.表示第2位被置为1了.


具体我是参考man sched_setaffinity文档中的函数的.
然后再参考了一下IBM的 developerWorks上的一个讲解.
http://www.ibm.com/developerworks/cn/linux/l-affinity.html


本文来自优快云博客,转载请标明出处:http://blog.youkuaiyun.com/eroswang/archive/2009/07/09/4336093.aspx

<think>好的,用户想知道如何在Linux系统中限制某个进程在特定CPU内核上运行。我之前处理过类似的问题,记得有几种方法可以实现,比如taskset、cgroups和启动时绑定。首先,我需要回忆一下这些工具的具体用法和相关命令。 首先想到的是taskset命令。这个工具允许用户设置或检索进程CPU亲和性。用户可以通过指定CPU掩码来绑定进程到特定的核心。比如,使用taskset -c 0,1 ./program可以将程序运行CPU0和CPU1上。需要注意的是,进程启动后调整的话需要加上-p参数和进程ID。这里需要确认掩码的格式是否正确,用户可能需要了解十六进制和列表形式的区别。 接下来是cgroups,特别是cpuset子系统。cgroups提供了更精细的资源控制,可以限制进程组使用的CPU和内存。用户需要先挂载cpuset子系统,创建子cgroup,然后配置允许的CPU核心,最后将进程添加到该cgroup中。这方法适合需要长期管理的场景,比如服务器上的资源分配。不过步骤稍微复杂一些,用户可能需要安装相关工具,并且确保系统支持cgroups。 然后是启动时通过numactl进行绑定。numactl通常用于NUMA架构,但也可以用来设置CPU亲和性。比如numactl --physcpubind=0,1 ./program。这对于多NUMA节点的系统可能更有用,但同样适用于普通的CPU绑定。需要确认用户系统是否安装了numactl,可能需要额外安装。 用户可能还需要动态调整已运行进程CPU亲和性。这时候taskset的-p选项就派上用场了,比如taskset -pc 0,1 1234将进程1234绑定到核心0和1。不过要注意权限问题,可能需要root权限。 另外,用户可能会关心如何验证绑定是否生效。这时候可以用top命令,按F键添加PSR列,或者用taskset -p查看进程的亲和性。引用中的方法二和三提到了top和taskset的用法,可以引用这些内容作为参考。 还要考虑不同方法的优缺点。taskset简单易用,适合临时调整,而cgroups适合持久化配置和复杂资源管理。用户的需求是限制进程,可能涉及到性能优化或避免资源竞争,比如在高负载时隔离关键进程到独立核心。引用1提到了绑定进程CPU核可以减少上下文切换开销,特别是线程间共享资源的情况,所以用户可能是在优化多线程应用的性能。 需要检查是否有其他方法或工具,比如sched_setaffinity系统调用,但用户可能更倾向于命令行工具而不是编程方法。另外,确保提到的命令示例正确,比如taskset的-c参数是否正确,掩码转换是否准确。比如,CPU0对应掩码0x1,CPU0和1是0x3,或者用逗号分隔的列表更直观。 最后,总结步骤,分点说明每种方法,给出具体命令示例,并提示验证方法。还要注意用户可能需要根据不同的使用场景选择合适的方法,比如临时测试用taskset,长期管理用cgroups。同时,提醒用户注意权限问题和系统兼容性,比如cgroups v1和v2的差异。</think>### 如何在Linux系统中限制进程指定CPU内核上运行? 在Linux系统中,可以通过以下方法限制进程在特定CPU内核上运行: --- #### 1. **使用`taskset`命令(临时绑定)** `taskset`允许设置或查看进程CPU亲和性(Affinity),即指定进程运行CPU核心。 ##### 操作步骤: - **启动进程时绑定**: ```bash taskset -c <CPU列表> <命令> ``` 示例:将程序绑定到CPU0和CPU1: ```bash taskset -c 0,1 ./your_program ``` - **对已运行进程绑定**: ```bash taskset -pc <CPU列表> <PID> ``` 示例:将PID为1234的进程绑定到CPU2: ```bash taskset -pc 2 1234 ``` ##### 验证绑定: - 使用`top`命令查看: ```bash top -p <PID> # 按下`F`键,勾选`P`(PSR)列,查看进程运行CPU核心[^3] ``` - 或使用`taskset`查询: ```bash taskset -p <PID> ``` --- #### 2. **通过`cgroups`(控制组)配置(持久化绑定)** `cgroups`(控制组)提供更精细的资源控制能力,适合长期限制进程CPU核心。 ##### 操作步骤: 1. **挂载cpuset子系统**(若未挂载): ```bash mount -t cgroup -o cpuset cpuset /sys/fs/cgroup/cpuset ``` 2. **创建子cgroup**: ```bash mkdir /sys/fs/cgroup/cpuset/my_group ``` 3. **配置允许的CPU核心**: ```bash echo <CPU列表> > /sys/fs/cgroup/cpuset/my_group/cpuset.cpus echo 0 > /sys/fs/cgroup/cpuset/my_group/cpuset.mems # 必须设置内存节点 ``` 4. **将进程加入cgroup**: ```bash echo <PID> > /sys/fs/cgroup/cpuset/my_group/tasks ``` ##### 示例: 将PID为4567的进程限制在CPU3: ```bash echo 3 > /sys/fs/cgroup/cpuset/my_group/cpuset.cpus echo 4567 > /sys/fs/cgroup/cpuset/my_group/tasks ``` --- #### 3. **使用`numactl`(NUMA架构优化)** `numactl`常用于NUMA架构的系统,但也可用于绑定CPU核心。 ##### 操作步骤: ```bash numactl --physcpubind=<CPU列表> <命令> ``` 示例:绑定到CPU0和CPU2: ```bash numactl --physcpubind=0,2 ./your_program ``` --- #### 4. **通过启动脚本配置** 在程序启动脚本中结合`taskset`或`numactl`,例如: ```bash #!/bin/bash taskset -c 0,1 /path/to/your_program ``` --- ### 注意事项: 1. **权限问题**:修改已运行进程CPU亲和性可能需要`root`权限。 2. **性能影响**:绑定进程到特定CPU核心可减少上下文切换开销,但需避免过度集中导致负载不均[^1]。 3. **兼容性**:`cgroups`配置需要系统支持,部分旧版本可能需安装`cgroup-tools`。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值