1.影响 Linux服务器性能的因素
1.1 CPU
目前大部分CPU在同一时间只能运行一个线程,超线程的处理器可以在同一时间处理多个线程,因此可以利用超线程特性提高系统性能。
在inux系统下只有运行SMP内核才能支持超线程,但是安装的CPU数量越多从超线程获得的性能提升越少。另外inux内核会将多核的处理器当做多个单独的CPU来识别,例如,两个4核的CPU会被当成8个单个CPU,从性能角度讲,两个4核的CPU整体性能要比8个单核CPU低25%~30%
可能出现CPU瓶颈的应用有邮件服务器、动态web服务器等。
1.2 内存
内存太小,系统进程将被阻塞,应用也将変得缓慢,甚至失去响应;内存太大导致资源浪费,虚拟内存可以缓解物理内存的不足,但是虚拟内存的过多占用会导致应用程序的性能明显下降。
在一个32位处理器的inux系统中超过8GB的物理内存都将被浪费,因此要使用更大的内存建议安装64位的操作系统,同时开启inux的大内存内核支持。
1.3 磁盘I/O性能
磁盘RAID技术, Redundant Array of Independent Disk,即独立磁盘冗余阵列简称磁盘阵列。RAID通过将多块独立的磁盘(物理硬盘)按不同的方式组合起来形成一个磁盘组(逻辑硬盘),从而提供比单个磁盘更高的IO性能和数据冗余。
根据磁盘组合方式不同,分为 RAID0、RAID1、RAID2、RAID3、RAID4RAID5、RAID6、RAID7、 RAID0+1、RAID10等,常用的有 RAID0、RAID1、RAID5、 RAID0+1。
RAID0:通过把多块硬盘粘合成一个容量更大的硬盘组,提高磁盘的性能和吞吐量,成本低,至少两块磁盘,但是没有容错和数据修复功能,只能用在对数据安全性要求不高的环境。
RAID1:也就是磁盘镜像,通过把一个磁盘的数据镜像到另外一个磁盘上,最大限度的保证磁盘据的可靠性和可修改性,具有很高的数据冗余能力,但是磁盘利用率只有50%,成本较高,多用在保存重要数据的场合。
RAID5:磁盘分段加奇偶校验技术,提高了系统的可靠性。读出效率很高,写效率一般,至少需要3块磁盘,允许一块磁盘故障,不影响数据的可用性。
RAID0+1:把 RAID0和RAID1技术结合起来,至少需要4块硬盘,毎个盘都有其镜像盘,提高全冗余能力,并具有快速读写能力。
2.系统性能评估标准
影响性能因素 | 评判标准 | ||
好 | 坏 | 糟糕 | |
CPU | User% + sys% < 70% | User% + sys% = 85% | User% + sys% >= 90% |
内存 | Swap In( si ) = 0 Swap Out( so ) = 0 | Per CPU with 10 page/s | More swap in & swap Out |
磁盘 | Iowait% < 20% | Iowait% = 35% | Iowait % > 50% |
其中
%user:表示CPU处在用户模式下的时间百分比。
%sys:表示CPU处在系统模式下的时间百分比。
%iowat:表示CPU等待输入输出完成时间的百分比
swap In:即si,表示虚拟内存的页导入,即从 SWAP DISK交换到RAM
swap out:即so,表示虚拟内存的页导出,即从RAM交换到 SWAP DISK
3.系统性能分析工具
常用系统命令
Vmstat、sar、iostat、 netstat、free、ps、top等
常用组合方式
用 vmstat、sar、 iostat检测是否是CPU瓶颈
用free、 vmstat检测是否是内存瓶颈
用 iostat 检测是否是磁盘I/O瓶颈
3.1 系统整体性能评估( uptime命令)
root@demo-git:~# uptime
11:19:37 up 8 days, 23:56, 2 users, load average: 0.19, 0.19, 0.17
root@demo-git:~#
这里需要注意的是: load average这个输出值,这三个值的大小一般不能大于系统CPU的数,例如,本输出中系统有4个CPU,如果 load average的三个值长期大于4时,说明CPU很繁忙,负载很高,可能会影响系统性能,但是偶尔大于4时倒不用担心,一般不会影响系统性能。相反,如果 load average的输出值小于CPU的个数,则表示CPU还有空闲的时间片,比如本例中的输出,CPU是非常空闲的。
3.2 cpu性能评估
3.2.1 利用 vmstat命令监控系统CPU
该命令可以显示关于系统各种姿源之间相关性能的简要信息,这里我们主要用它来看CPU一个负载情况。
root@demo-git:~# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 713208 374872 3551068 0 0 58 57 10 2 6 1 93 0 0
0 0 0 713224 374872 3551060 0 0 0 0 402 753 0 0 100 0 0
0 0 0 717320 374872 3551060 0 0 0 12 554 916 2 0 98 0 0
root@demo-git:~#
注:vmstat 2 3 #每2秒更新信息,统计3次。
Process
r列表示运行和等待cpu时间片的进程数,这个值如果长期大于系统CPU的个数,说明CPU不足,需要增加CPU。
b列表示在等待资源的进程数,比如正在等待IO、或者内存交换等。
Cpu
us列显示了用户进程消耗的CPU时间百分比。us的值比较高时,说明用户进程消耗的CPU时间多,但是如果长期大于50%,就需要考虑优化程序或算法。
sy列显示了内核进程消耗的CPU时间百分比。Sy的值较高时,说明内核消耗的CPU资源很多。
根据经验,us+sy的参考值为80%,如果us+sy大于80%说明可能存在CPU资源不足。
3.2.1 利用sar 命令监控系统CPU
sar功能很强大,可以对系统的每个方面进行单独的统计,但是使用sar命令会增加系统开销,不过这些开销是可以评估的,对系统的统计结果不会有很大影响。
root@demo-git:~# sar -u 3 5
Linux 4.4.0-117-generic (demo-git) 03/10/2019 _x86_64_ (4 CPU)
11:34:04 AM CPU %user %nice %system %iowait %steal %idle
11:34:07 AM all 4.25 0.00 0.25 0.08 0.00 95.42
11:34:10 AM all 0.25 0.00 0.17 0.08 0.00 99.50
11:34:13 AM all 0.00 0.00 0.17 0.00 0.00 99.83
11:34:16 AM all 0.08 0.00 0.00 0.00 0.00 99.92
11:34:19 AM all 0.08 0.00 0.08 0.00 0.00 99.83
Average: all 0.93 0.00 0.13 0.03 0.00 98.90
root@demo-git:~#
注:u 显示系统所有cpu在采样时间内的负载状态,3 5 表示每3秒统计一次,共统计5次。
对上面每项的输出解释如下
- %user列显示了用户进程消耗的CPU时间百分比。
- %nice列显示了运行正常进程所消耗的CPU时间百分比。
- %system列显示了系统进程消耗的CPU时间百分比。
- %iowait列显示了IO等待所占用的CPU时间百分比。
- %steal 列显示了在内存相对紧张的环境下 pagein 强制对不同的页面进行的steal 操作。
- %idle列显示了CPU处在空闲状态的时间百分比。
3.3 内存性能评估
3.3.1 利用free指令监控内存
free是监控inux内存使用状况最常用的指令
root@demo-git:~# free -m
total used free shared buff/cache available
Mem: 7983 3509 568 53 3905 4097
Swap: 0 0 0
root@demo-git:~#
一般有这样一个经验公式:应用程序可用内存/系统物理内存>70%时,表示系统内存资源非常充足,不影响系统性能,应用程序可用内存/系统物理内存<20%时,表示系统内存资源紧缺,需要増加系统内存,20%<应用程序可用内存/系统物理内存<70%时,表示系统内存资源基本能满足应用需求,暂时不影响系统性能。
3.3.2 利用 vmstat命令监控内存
root@demo-git:~# vmstat 2 3
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 574788 378744 3620760 0 0 57 56 11 6 6 1 93 0 0
0 0 0 575052 378744 3620764 0 0 0 0 407 749 0 0 100 0 0
0 0 0 575052 378744 3620764 0 0 0 0 400 750 0 0 100 0 0
root@demo-git:~#
memory
swpd列表示切换到内存交换区的内存数量(以k为单位)。如果swpd的值不为0,或者比较大,只要si、so的值长期为0,这种情況下一般不用担心,不会影响系统性能。
free列表示当前空闲的物理内存数量(以k为单位) 。
buf列表示 buffers cache的内存数量,一般对块设备的读写才需要缓冲。
cache列表示 page cached的内存数量,一般作为文件系统 cached,频繁访问的文件都会被 cached,如果 cache值较大,说明 cached的文件数较多,如果此时IO中bi比较小,说明文件系统效率比较好。
swap
si 列表示由磁盘调入内存,也就是内存进入内存交换区的数量。
so 列表示由内存调入磁盘,也就是内存交换区进入内存的数量。
一般情况下,si、so的值都为0,如果si、so的值长期不为0,则表示系统内存不足,需要增加系统内存。
3.4 磁盘I/O性能评估
熟悉RAID存储方式,可以根据应用的不同,选择不同的RAID方式。尽可能用内存的读写代替直接磁盘I/O,使频繁访问的文件或数据放入内存中进行操作处理,因为内存读写操作比直接磁盘读写的效率要高千倍。
将经常进行读写的文件与长期不变的文件独立出来,分别放到不同的磁盘设备上。对于写操作频繁的数据,可以考虑使用裸设备代替文件系统。
使用裸设备的优点有:
数据可以直接读写,不需要经过操作系统级的缓存,节省了内存资源,避免了内存资源争用。
避免了文件系统级的维护开销,比如文件系统需要维护超级块、I-node等。
避免了操作系统的 cache 预读功能,减少了1O请求。
3.4.1 利用 iostat评估磁盘性能
root@demo-git:~# iostat 2 3
Linux 4.4.0-117-generic (demo-git) 03/10/2019 _x86_64_ (4 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
5.99 0.00 0.55 0.26 0.00 93.19
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
vda 15.04 229.26 223.09 181532765 176646240
avg-cpu: %user %nice %system %iowait %steal %idle
0.12 0.00 0.12 0.00 0.00 99.75
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
vda 0.00 0.00 0.00 0 0
avg-cpu: %user %nice %system %iowait %steal %idle
0.12 0.00 0.00 0.00 0.00 99.88
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
vda 0.00 0.00 0.00 0 0
root@demo-git:~#
对上面每项的输出解释如下:
kB_read/s 表示每秒读取的数据块数。
kB_wrtn/s 表示毎秒写入的数据块数。
kB_read 表示读取的所有块数
kB_wrtn 表示写入的所有块数
可以通过 kB_read/s 和 kB_wrtn/s 的值对磁盘的读写性能有一个基本的了解,如果kB_wrtn/s值很大,表示磁盘的写操作很频繁,可以考虑优化磁盘或者优化程序,如果 kB_read/s值很大,表示磁盘直接读取操作很多,可以将读取的数据放入内存中进行操作。对于这两个选项的值没有一个固定的大小,根据系统应用的不同,会有不同的值,但是有一个规则还是可以遵循的:长期的、超大的数据读写,肯定是不正常的,这种情况一定会影响系统性能。
3.4.2 利用sar评估磁盘性能
通过“sar -d "组合,可以对系统的磁盘IO做一个基本的统计
root@demo-git:~# sar -d 2 3
Linux 4.4.0-117-generic (demo-git) 03/10/2019 _x86_64_ (4 CPU)
03:22:57 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
03:22:59 PM dev253-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
03:22:59 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
03:23:01 PM dev253-0 2.50 0.00 104.00 41.60 0.00 0.80 0.80 0.20
03:23:01 PM DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
03:23:03 PM dev253-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
Average: DEV tps rd_sec/s wr_sec/s avgrq-sz avgqu-sz await svctm %util
Average: dev253-0 0.83 0.00 34.67 41.60 0.00 0.80 0.80 0.07
root@demo-git:~#
需要关注的几个参数含义:
- await 表示平均每次设备IO操作的等待时间(以毫秒为单位)。
- svctm 表示平均每次设备IO操作的服务时间(以毫秒为单位) 。
- %util 表示一秒中有百分之几的时间用于IO操作。
对以磁盘IO性能,一般有如下评判标准:
正常情况下 svctm 应该是小于 await 值的,而 svctm 的大小和磁盘性能有关,CPU、内存的负荷也会对 svctm 值造成影响,过多的请求也会间接的导致 svctm 值的增加。
await值的大小ー般取決与svctm的值和 IO 队列长度以及 I/O 请求模式,如果 svctm 的值与 await 很接近,表示几乎没有IO等待,磁盘性能很好,如果await的
值远高于 svctm 的值,则表示IO队列等待太长,系统上运行的应用程序将変慢,此时可以通过更换更快的硬盘来解决问题。
%util项的值也是衡量磁盘IO的一个重要指标,如果%util接近100%,表示磁盘产生的IO请求太多,IO系统已经满负荷的在工作,该磁盘可能存在瓶颈。长期下去势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。