Cgroups控制cpu,内存,io示例

Cgroups资源隔离实践
本文通过实际案例展示了如何使用Cgroups技术对CPU、内存及I/O资源进行有效的隔离与管理,帮助读者理解Cgroups的工作原理及其在系统资源管理中的应用。

百度私有PaaS云就是使用轻量的cgoups做的应用之间的隔离,以下是关于百度架构师许立强,对于虚拟机VM,应用沙盒,cgroups技术选型的理解

 

 

本文用脚本运行示例进程,来验证Cgroups关于cpu、内存、io这三部分的隔离效果。

测试机器:CentOS release 6.4 (Final)

启动Cgroups

service cgconfig start   #开启cgroups服务
chkconfig cgconfig on   #开启启动

在/cgroup,有如下文件夹,默认是多挂载点的形式,即各个子系统的配置在不同的子文件夹下

[root@localhost /]# ls /cgroup/
blkio  cpu  cpuacct  cpuset  devices  freezer  memory  net_cls

 

cgroups管理进程cpu资源

跑一个耗cpu的脚本

x=0
while [ True ];do
    x=$x+1
done;

top可以看到这个脚本基本占了100%的cpu资源

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND          
30142
root 20 0 104m 2520 1024 R 99.7 0.1 14:38.97 sh

下面用cgroups控制这个进程的cpu资源

mkdir -p /cgroup/cpu/foo/   #新建一个控制组foo
echo 50000 > /cgroup/cpu/foo/cpu.cfs_quota_us  #将cpu.cfs_quota_us设为50000,相对于cpu.cfs_period_us的100000是50%
echo 30142 > /cgroup/cpu/foo/tasks

然后top的实时统计数据如下,cpu占用率将近50%,看来cgroups关于cpu的控制起了效果

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                         30142 root      20   0  105m 2884 1024 R 49.4  0.2  23:32.53 sh 

cpu控制组foo下面还有其他的控制,还可以做更多其他的关于cpu的控制

[root@localhost ~]# ls /cgroup/cpu/foo/
cgroup.event_control  cgroup.procs  cpu.cfs_period_us  cpu.cfs_quota_us  cpu.rt_period_us  cpu.rt_runtime_us  cpu.shares  cpu.stat  notify_on_release  tasks

 

 

cgroups管理进程内存资源

跑一个耗内存的脚本,内存不断增长

x="a"
while [ True ];do
    x=$x$x
done;

top看内存占用稳步上升

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                         30215 root      20   0  871m 501m 1036 R 99.8 26.7   0:38.69 sh  
30215 root      20   0 1639m 721m 1036 R 98.7 38.4   1:03.99 sh 
30215 root      20   0 1639m 929m 1036 R 98.6 49.5   1:13.73 sh

下面用cgroups控制这个进程的内存资源

mkdir -p /cgroup/memory/foo
echo 1048576 >  /cgroup/memory/foo/memory.limit_in_bytes   #分配1MB的内存给这个控制组
echo 30215 > /cgroup/memory/foo/tasks  

发现之前的脚本被kill掉

[root@localhost ~]# sh /home/test.sh 
已杀死

因为这是强硬的限制内存,当进程试图占用的内存超过了cgroups的限制,会触发out of memory,导致进程被kill掉。

实际情况中对进程的内存使用会有一个预估,然后会给这个进程的限制超配50%比如,除非发生内存泄露等异常情况,才会因为cgroups的限制被kill掉。

也可以通过配置关掉cgroups oom kill进程,通过memory.oom_control来实现(oom_kill_disable 1),但是尽管进程不会被直接杀死,但进程也进入了休眠状态,无法继续执行,仍让无法服务。

关于内存的控制,还有以下配置文件,关于虚拟内存的控制,以及权值比重式的内存控制等

复制代码
[root@localhost /]# ls /cgroup/memory/foo/
cgroup.event_control  memory.force_empty         memory.memsw.failcnt             
memory.memsw.usage_in_bytes memory.soft_limit_in_bytes memory.usage_in_bytes tasks cgroup.procs memory.limit_in_bytes memory.memsw.limit_in_bytes
memory.move_charge_at_immigrate memory.
stat memory.use_hierarchy memory.failcnt memory.max_usage_in_bytes memory.memsw.max_usage_in_bytes
memory.oom_control memory.swappiness notify_on_release
复制代码

 

 

cgroups管理进程io资源

跑一个耗io的脚本

 dd if=/dev/sda of=/dev/null &

通过iotop看io占用情况,磁盘速度到了284M/s

30252 be/4 root      284.71 M/s    0.00 B/s  0.00 %  0.00 % dd if=/dev/sda of=/dev/null  

下面用cgroups控制这个进程的io资源

mkdir -p /cgroup/blkio/foo

echo '8:0   1048576' >  /cgroup/blkio/foo/blkio.throttle.read_bps_device
#8:0对应主设备号和副设备号,可以通过ls -l /dev/sda查看
echo 30252 > /cgroup/blkio/foo/tasks

再通过iotop看,确实将读速度降到了1M/s

30252 be/4 root      993.36 K/s    0.00 B/s  0.00 %  0.00 % dd if=/dev/sda of=/dev/null  

对于io还有很多其他可以控制层面和方式,如下

复制代码
[root@localhost ~]# ls /cgroup/blkio/foo/
blkio.io_merged         blkio.io_serviced      blkio.reset_stats                
blkio.throttle.io_serviced blkio.throttle.write_bps_device blkio.weight cgroup.procs blkio.io_queued blkio.io_service_time blkio.sectors
blkio.throttle.read_bps_device blkio.throttle.write_iops_device blkio.weight_device notify_on_release blkio.io_service_bytes blkio.io_wait_time blkio.throttle.io_service_bytes
blkio.throttle.read_iops_device blkio.
time cgroup.event_control tasks
复制代码
### CentOS 系统监控与性能测试示例 #### CPU 性能测试与监控 在 CentOS 系统中,`mpstat` 和 `top` 是常用的 CPU 性能监控工具。`mpstat` 是 `sysstat` 包的一部分,可以用来监控多处理器系统的 CPU 使用情况。以下是一个使用 `mpstat` 的示例: ```bash mpstat -P ALL 1 5 ``` 此命令将每秒更新一次,共更新五次,显示每个 CPU 的详细使用情况[^3]。 对于更简单的实时监控,可以使用 `top` 命令: ```bash top ``` 在 `top` 界面中,可以通过按 `1` 键来查看每个 CPU 的详细使用情况。 #### 内存使用监控 `free` 和 `vmstat` 是两个常用的内存使用监控工具。`free` 命令可以快速查看系统的总体内存使用情况: ```bash free -h ``` `-h` 参数使得输出更加人性化,易于阅读。为了获得更详细的内存使用信息,可以使用 `vmstat`: ```bash vmstat -s ``` 此命令将列出所有内存相关的统计信息,包括物理内存、交换分区的使用情况等。 #### IO 性能测试与监控 对于磁盘 I/O 性能测试,`fio` 是一个非常强大的工具。下面是一个使用 `fio` 进行随机读写测试的例子: ```bash fio --filename=/testfile --direct=1 --rw=randrw --bs=4k --size=10G --numjobs=4 --runtime=60 --group_reporting --name=rand_io ``` 此命令将创建一个 10GB 的测试文件,进行 4KB 块大小的随机读写操作,持续时间为 60 秒,并发任务数为 4,最后输出汇总报告[^5]。 对于实时监控磁盘 I/O 使用情况,`iostat` 是一个很好的选择: ```bash iostat -x 1 5 ``` 此命令将每秒更新一次,共更新五次,显示详细的 I/O 统计信息,包括设备利用率、服务时间等。 #### 进程监控 `ps` 和 `pidstat` 都是监控进程的有效工具。`ps` 可以用来获取当前进程的状态快照: ```bash ps aux | grep 'process_name' ``` 此命令将列出所有包含指定进程名的进程信息。 `pidstat` 则可以用来监控特定进程的 CPU内存、线程、设备 I/O 等资源的使用情况: ```bash pidstat -p <PID> 1 5 ``` 此命令将针对指定 PID 的进程每秒更新一次,共更新五次,显示详细的资源使用情况[^3]。 #### 网络性能监控 `netstat` 和 `ss` 是两个常用的网络连接监控工具。`netstat` 可以显示各种网络连接、路由表、接口统计等信息: ```bash netstat -tuln ``` 此命令将列出所有监听的 TCP 和 UDP 端口。 `ss` 是 `netstat` 的替代品,提供了更快的速度和更丰富的功能: ```bash ss -tuln ``` 此命令的功能与 `netstat -tuln` 类似,但执行速度更快。 #### 内核性能监控 `dmesg` 命令可以用来查看内核环形缓冲区的内容,这对于诊断硬件问题和内核错误非常有用: ```bash dmesg | tail -20 ``` 此命令将显示最近的 20 行内核消息。 此外,`/proc` 文件系统也提供了大量的内核运行时信息,例如 `/proc/cpuinfo` 提供了关于 CPU 的详细信息: ```bash cat /proc/cpuinfo ``` 此命令将显示系统中所有 CPU 的详细信息。 #### 使用 cgroups 限制资源 `cgroups`(Control Groups)允许您限制、记录和隔离进程组使用的物理资源(如 CPU内存、磁盘 I/O 等)。以下是一个创建并配置 cgroup 来限制 CPU 使用的例子: ```bash sudo cgcreate -g cpu:/mygroup sudo cgset -r cpu.shares=512 mygroup sudo cgexec -g cpu:mygroup /path/to/myapp ``` 这些命令首先创建了一个名为 `mygroup` 的 cgroup,然后设置了 CPU 共享权重为 512,最后在该 cgroup 中启动了一个应用程序[^4]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值