使用zabbix discovery监控网卡百兆

Zabbix网络监控优化
本文讨论了使用Zabbix进行网络监控的最佳实践,包括如何利用Low-level Discovery特性自动生成监控项,针对网络速度变化的监控触发器调整,以及网卡绑定(bonding)模式下流量分布的观察。
最近在review一些基础监控项,发现有部分基础的监控缺失,比如disk usage,network card相关的监控。
因为机器的配置不同,不太好配置一个统一的模板,不过在新版本的zabbix中有个功能Low-level discovery,可以根据主机的配置自动生成需要的监控,只需要传入宏变量即可。
比如监控每个网卡的出流量net.if.out[{#IFNAME}],监控网卡的speed os.get[NetworkCardSpeed,{#IFNAME}]
有些情况下网卡会从1000M变成100M,因此添加了相关的trigger:
1
{os.get[NetworkCardSpeed,{#IFNAME}].last(0)}<1000
这里有两个细节的问题:
1)新版本的network card speed的item是os.get[NetworkCardSpeed,xxxx],在网卡的speed为unknown时,其结果是0。
1
2
zabbix_get -s 127.0.0.1 -k 'os.get[NetworkCardSpeed,eth2]'
0
为了排除这种情况,更改trigger为如下规则:
1
2
{os.get[NetworkCardSpeed,{#IFNAME}].last(0)}<1000 &
{os.get[NetworkCardSpeed,{#IFNAME}].last(0)}#0
可以通过如下sql查看speed 为100M的机器:
1
2
3
4
select
distinct(a.host),c.ip,b.name,b.lastvalue from hosts a,items b,
interface c where a.hostid=c.hostid and a.hostid=b.hostid and
b.key_ like 'os.get[NetworkCardSpeed%' and b.lastvalue='1000';
2)关于bonding
由于datanode的shuffle阶段需要大量的网络操作,很容易出现网卡瓶颈,因此datanode一般会做网卡的bonding,常用的模式是6,根据原理来看outgoing和incoming的流量大致应该是相同的,但实际情况下看到,outgoing的流量一般是比较平均,而incoming的流量相差很大,下面是一个sar的结果:
1
2
3
4
14时24分28秒     IFACE   rxpck/s   txpck/s   rxbyt/s   txbyt/s   rxcmp/s   txcmp/s  rxmcst/s
14时24分29秒      eth0      6.93  28139.60    473.27 41837599.01      0.00      0.00      6.93
14时24分29秒      eth1  29448.51  31732.67 1929669.31 47286517.82      0.00      0.00      6.93
14时24分29秒     bond0  29455.45  59872.28 1930142.57 89124116.83      0.00      0.00     13.86
另外,如果一个网卡由1000M变为100M也不会出现短板效应(之前一直以为会出现短板效应),而是根据speed的情况来做流量分发,speed大的流量大,speed小的流量小。

另外注意bonding配置中miimon参数的含义,它是检测的server到switch的直连链路问题,如果switch的上层链路出问题是不会work的。交换机链路的ha就需要考虑以太通道等技术了。。


本文转自菜菜光 51CTO博客,原文链接:http://blog.51cto.com/caiguangguang/1393656,如需转载请自行联系原作者
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值