限速之TC

限速,关于限速,主要是限制服务器与客户端的之间的速度传输。
服务器与客户端的速度主要有两种:
第一个:服务器发信息给客户端,这时候,客户端会返回信息给服务器,主要是在服务器端ping值客户端的ip 
第二个,客户端发信息给服务器,这时候,服务器会返回信息给客户端,主要是在客户端ping值服务器
关于第一个,服务器没有必要获取到客户端返回的延迟的信息,但是我们需要模拟客户端获得服务器的延迟信息。所以,只需要在linux端限速就好。
使用linux限速的是自带的流量控制器:TC
首先介绍,网络发包会出现的情况
1、 延时:发送包的过程中,从客户端发送数据给服务器,服务器返回信息,有个时间的延时,不是发送包的同时就获得了服务器返回的包
2、 波动:每次发包都会有延时,但是延时的时间是不同的,会有包的延时,甚至延时过多了会出现包的丢失的情况
代码如下:
模拟延迟传输


 # tc  qdisc  add  dev  eth0  root  netem  delay  100ms  
该命令将 eth0 网卡的传输设置为延迟100毫秒发送。


更真实的情况下,延迟值不会这么精确,会有一定的波动,我们可以用下面的情况来模拟出带有波动性的延迟值:


 # tc  qdisc  add  dev  eth0  root  netem  delay  100ms  10ms
该命令将 eth0 网卡的传输设置为延迟 100ms ± 10ms (90 ~ 110 ms 之间的任意值)发送。


还可以更进一步加强这种波动的随机性:


 # tc  qdisc  add  dev  eth0  root  netem  delay  100ms  10ms  30%


该命令将 eth0 网卡的传输设置为 100ms ,同时,大约有30%的包会延迟 ± 10ms 发送。




模拟网络丢包:


 # tc  qdisc  add  dev  eth0  root  netem  loss  1%  


该命令将 eth0 网卡的传输设置为随机丢掉 1% 的数据包。
也可以设置丢包的成功率:


 # tc  qdisc  add  dev  eth0  root  netem  loss  1%  30%
该命令将 eth0 网卡的传输设置为随机丢掉 1% 的数据包,成功率为30% 。




模拟包重复:
 # tc  qdisc  add  dev  eth0  root  netem  duplicate 1% 
该命令将 eth0 网卡的传输设置为随机产生 1% 的重复数据包 。


 
模拟数据包损坏:
 # tc  qdisc  add  dev  eth0  root  netem  corrupt  0.2% 
该命令将 eth0 网卡的传输设置为随机产生 0.2% 的损坏的数据包 。 (内核版本需在2.6.16以上)


 


模拟数据包乱序:


 # tc  qdisc  change  dev  eth0  root  netem  delay  10ms   reorder  25%  50%


该命令将 eth0 网卡的传输设置为:有25%的数据包(50%相关)会被立即发送,其他的延迟10秒。


新版本中,如下命令也会在一定程度上打乱发包的次序:


 # tc  qdisc  add  dev  eth0  root  netem  delay  100ms  10ms


代码转自:http://sophia611.blog.163.com/blog/static/8544659720114610529960/ 亲自使用过,是正确的,很不错的工具,,楼主这几天在研究桥接、zip格式转换成rpm包以及linux的桥接问题,其实还想研究一下tcpdump等工具的实现原理,先记录着,希望以后能记得能歇歇文章,也能提高实战水平
在 Linux 系统中,使用 `tc`(Traffic Control)工具可以实现对网络流量的限速与管理。`tc` 是 Linux 内核提供的一个强大的流量控制机制,通常结合队列调度算法(如 HTB、CBQ 等)来实现带宽限制、优先级划分等功能。 ### 基本概念 - **qdisc(Queueing Discipline)**:队列规则,是流量控制的核心部分,决定了数据包如何排队和被发送。 - **class(类)**:用于将流量分类,每个类可以定义不同的带宽限制。 - **filter(过滤器)**:用于将流量分配到不同的类中,可以根据 IP 地址、端口等条件进行匹配。 ### 配置步骤 #### 1. 添加根队列规则 首先,需要为网络接口添加一个根队列规则。以 `htb`(Hierarchical Token Bucket)为例: ```bash tc qdisc add dev eth0 root handle 1: htb default 10 ``` 此命令表示在 `eth0` 接口上添加一个根队列规则,使用 `htb` 调度算法,句柄为 `1:`,默认类别为 `10`。 #### 2. 设置总体带宽限制 接下来,设置整个接口的总体带宽限制: ```bash tc class add dev eth0 parent 1: classid 1:1 htb rate 10mbit ceil 10mbit ``` 该命令设置了总体带宽为 10 Mbps,`ceil` 表示最大允许突发带宽。 #### 3. 设置特定类别的带宽限制 然后,为特定流量设置带宽限制。例如,限制某个 IP 地址的下载带宽为 1 Mbps: ```bash tc class add dev eth0 parent 1:1 classid 1:10 htb rate 1mbit ceil 1mbit ``` #### 4. 添加过滤器 最后,通过过滤器将特定流量引导到相应的类别中。例如,限制源 IP 为 `192.168.1.100` 的流量: ```bash tc filter add dev eth0 protocol ip parent 1:0 prio 1 u32 match ip src 192.168.1.100 flowid 1:10 ``` 此命令将源 IP 为 `192.168.1.100` 的流量引导到类别 `1:10` 中,从而应用其带宽限制[^2]。 #### 5. 上传限速的特殊处理 由于 `tc` 只能对从网卡出去的数据流进行限速,对于上传流量的限制,可以通过创建虚拟网卡(如 `ifb` 设备)来实现。具体步骤如下: 1. 加载 `ifb` 模块: ```bash modprobe ifb ``` 2. 创建虚拟网卡: ```bash ip link set dev ifb0 up ``` 3. 将入站流量重定向到虚拟网卡: ```bash tc qdisc add dev eth0 ingress tc filter add dev eth0 parent ffff: protocol ip u32 match ip dst 192.168.1.100/32 action mirred egress redirect dev ifb0 ``` 4. 在虚拟网卡上设置限速规则: ```bash tc qdisc add dev ifb0 root handle 1: htb default 10 tc class add dev ifb0 parent 1: classid 1:1 htb rate 500kbit ceil 500kbit ``` 通过上述步骤,可以实现对上传流量的限速[^1]。 ### 注意事项 - **网络波动影响**:实际限速效果可能会受到网络波动的影响,因此设定的带宽值可能不会完全精确。 - **测试环境**:建议在测试环境中先验证配置,确保满足需求后再部署到生产环境。 - **清除规则**:如果需要清除所有规则,可以使用以下命令: ```bash tc qdisc del dev eth0 root tc qdisc del dev eth0 ingress tc qdisc del dev ifb0 root ``` ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值