拥堵控制算法-Linux BBR算法优化了哪里?

本文探讨了网络拥塞控制中流量控制与拥塞控制的区别,重点介绍了BBR算法如何通过测量最大网络带宽和最小延迟来优化网络性能,避免了传统拥塞控制算法依赖丢包率的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

刚读书时候接触,根本分不清流量控制和堵塞控制,就是因为“丢包率”在干扰我的思考。“丢包率”区分不了是错误引起的丢包还是堵塞引起的丢包。


首先能确定的是,拥堵控制有特定的算法就是早期BIC到后来的CUBIC,很好都是基于“慢启动”“快速失败”来设计的。
然后这个算法用到了一个很奇怪的参数,那就是“丢包率”。而我们知道引起丢包的原因可以是各种突发引起的发送失败丢包,还可以是拥堵丢包。而后者是我们所期待的。但是实际网络中2种情况都存在,这影响了拥堵控制算法的实现。
再之,用“丢包率”在探测网络会导致延迟增大,因为你为了探测丢包率的峰值会去填满发送缓冲区,而这个缓存区是网络延迟增大的原因祸水。

而BBR算法中放弃了“丢包率”这个参数,但是算法的设计思想仍然采用“慢启动”“快速失败”,取而代之的是用了“网络带宽”和“实际网络延迟(在延迟空的情况下)”。
我们在初始化网络的时候,需要测量两个值“最大网络带宽”和“最小的延迟”,这两个值的乘积就是网络的实际最大容量了。如果延迟变大了那就是网络容量过饱和了,如果带宽没有趋于稳定,而是在不断增加或者说存在增加的空间,那就证明还未达到网络的最大容量。

有了这两个初始化参数,之后我们把获得的值和初始值做对比就可以知道网络现在的状态,并反馈给发送机从而达到堵塞控制。

使用了这个两个参数使得拥堵控制时宽带和延迟不再耦合了丢包率。这样就减少了高延迟的发送次数。
如果整个网络都采用BBR算法,是否会给网络带来一次新的优化呢?期待会吧。
### TCP拥塞控制算法的主要种类 TCP拥塞控制算法旨在通过动态调整发送方的数据传输速率来避免网络过载。以下是几种常见的TCP拥塞控制算法及其特点: #### 1. **TCP Reno** 这是最经典的TCP拥塞控制算法之一,广泛应用于早期互联网环境。它采用AIMD(Additive Increase Multiplicative Decrease)机制来进行拥塞控制[^1]。 - 在慢启动阶段,每接收到一个ACK,拥塞窗口(cwnd)会呈指数级增长。 - 进入拥塞避免阶段后,每次往返时间(RTT),cwnd仅增加一个MSS(最大报文段长度)。 当发生丢包时,假设是由于网络拥塞引起,此时将ssthresh设置为当前cwnd的一半,并进入慢启动或拥塞避免模式[^1]。 --- #### 2. **BBR (Bottleneck Bandwidth and RTT)** BBR是一种较新的拥塞控制算法,主要目标是最小化延迟并最大化吞吐量。其核心理念在于估计瓶颈带宽和最小RTT,从而主动调节发送速率而非依赖丢包信号[^4]。 - BBR分为四个阶段:Startup、Drain、ProbeBW 和 ProbeRTT。 - 它通过持续监控链路特性来自适应不同网络条件下的性能需求。 尽管如此,BBR也存在一些局限性,比如可能与其他传统算法不兼容的情况以及在某些特定场景下表现不佳等问题[^4]。 --- #### 3. **Cubic** 作为一种改进版的TCP Reno,CUBIC特别适合高速率长距离网络环境。它的设计思路是在高带宽条件下提供更平稳的增长曲线而不是简单线性的增减方式[^2]。 - Cubic利用立方函数模型定义了拥塞窗口随时间变化的关系表达式。 - 相对于传统的乘法减少策略,Cubic能够在恢复期更快地提升流量水平而不会造成剧烈波动。 这种优化使得Cubic成为Linux内核默认使用的拥塞控制协议之一[^2]。 --- #### 4. **NewReno** 作为对原始Reno版本的一个增强型变体,NewReno解决了部分丢失情况下效率低下的问题。即使只有一个分组丢失也能有效触发快速重传机制而不必等待整个窗口超时。 具体来说,如果检测到单个数据包丢失,则只对该丢失的部分执行修复操作;而对于多处连续损失则依旧遵循标准流程处理逻辑。 --- #### 5. **Vegas** 不同于上述基于丢包事件驱动的方法,TCP Vegas尝试预测潜在即将发生的拥堵状况并通过提前降低发送速度的方式来预防实际堵塞的发生[^3]。 - Vegas引入了一个额外参数——期望延迟差值Δtarget ,用来衡量理想状态下两个相继到达探针之间的差异程度。 - 如果测量得到的实际延长时间超过了设定阈值范围,那么就相应削减输出负载直至恢复正常为止。 这种方法虽然理论上可以显著改善用户体验质量(QoE),但在面对复杂真实世界中的异构拓扑结构时常显得不够灵活实用。 --- ```cpp // 下面展示的是一个简化版模拟TCP拥塞控制过程的例子: #include <iostream> using namespace std; int main(){ int threshold = 8; int cwnd = 1; // 初始拥塞窗口大小 bool lossDetected = false; while(true){ cout << "Current CWND: " << cwnd << endl; if(!lossDetected && cwnd<threshold){ // 慢启动阶段 cwnd *=2 ; } else{ // 拥塞避免阶段 cwnd +=1; } // 假设某种情况发生了丢包 if(/* condition for packet loss */ ){ lossDetected=true; threshold=cwnd/2; cwnd=threshold/2; } sleep(1); // 模拟每个周期的时间间隔 } } ``` 以上代码片段展示了如何用程序形式表示基本的TCP拥塞管理行为。 --- ### 总结 综上所述,各种类型的TCP拥塞控制算法各有优劣之处,适用于不同类型的应用场合。选择合适的方案取决于具体的业务需求和技术背景考量因素。 相关问题
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值