tcp tso

根据Linux的协议栈,在发送tcp数据时,最终会调用如下函数:
文件 net/ipv4/tcp.c 
int tcp_sendmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg, size_t size)

 

在此函数中,要根据mss来将大数据拆分成小封包发送到网络上。

mss是通过如下函数获取的:

mss_now = tcp_send_mss(sk, &size_goal, flags);

static int tcp_send_mss(struct sock *sk, int *size_goal, int flags)

{

         int mss_now;

         mss_now = tcp_current_mss(sk);

         *size_goal = tcp_xmit_size_goal(sk, mss_now, !(flags & MSG_OOB));

         return mss_now;

}

 

tcp_current_mss返回TCP链接建立时协商的MSS,考虑协商的TCP选项。

tcp_xmit_size_goal考虑网卡是否支持gso,如果网卡支持gso,返回网卡的gso max size最为mss

static unsigned int tcp_xmit_size_goal(struct sock *sk, u32 mss_now,

                                            int large_allowed)

{

         …

if (large_allowed && sk_can_gso(sk)) {

                   xmit_size_goal = ((sk->sk_gso_max_size - 1) -

                                      inet_csk(sk)->icsk_af_ops->net_header_len -

                                      inet_csk(sk)->icsk_ext_hdr_len -

                                      tp->tcp_header_len);

         …

         return max(xmit_size_goal, mss_now);

}

socket创建时对gso的设置:

void sk_setup_caps(struct sock *sk, struct dst_entry *dst)

{

         __sk_dst_set(sk, dst);

         sk->sk_route_caps = dst->dev->features;

         if (sk->sk_route_caps & NETIF_F_GSO)

                   sk->sk_route_caps |= NETIF_F_GSO_SOFTWARE;

         sk->sk_route_caps &= ~sk->sk_route_nocaps;

         if (sk_can_gso(sk)) {

                   if (dst->header_len) {

                            sk->sk_route_caps &= ~NETIF_F_GSO_MASK;

                   } else {

                            sk->sk_route_caps |= NETIF_F_SG | NETIF_F_HW_CSUM;

                            sk->sk_gso_max_size = dst->dev->gso_max_size;

                   }

         }

}

//完整的看一下gso对tcp发包过程的影响

int tcp_sendmsg(struct kiocb *iocb, struct socket *sock, struct msghdr *msg,

                   size_t size)

{

         mss_now = tcp_send_mss(sk, &size_goal, flags); //考虑gso后的mss

         sg = sk->sk_route_caps & NETIF_F_SG;

   ...

if (merge) {

          skb_shinfo(skb)->frags[i - 1].size +=      copy;

   } else {

          skb_fill_page_desc(skb, i, page, off, copy); //安排skb数据的存储方式

          if (TCP_PAGE(sk)) {

               get_page(page);

          } else if (off + copy < PAGE_SIZE) {

                get_page(page);

                TCP_PAGE(sk) = page;

          }

    }

......

}

//填充tcp数据分片结构:

skb_fill_page_desc()

{

         skb_frag_t *frag = &skb_shinfo(skb)->frags[i];

         frag->page                  = page;

         frag->page_offset    = off;

         frag->size                    = size;

         skb_shinfo(skb)->nr_frags = i + 1;

}

### TSO 实现与 `skb` 的关系 TSOTCP Segmentation Offload)是一种网络性能优化技术,允许操作系统将较大的数据包传递给网卡驱动程序,由硬件负责将其分割成较小的数据段。这种设计减少了主机 CPU 的开销并提高了吞吐量。 #### 1. `struct sk_buff` 和 TSO 的基本交互Linux 网络栈中,`struct sk_buff` 是核心数据结构之一,用于表示网络层中的数据包。当启用 TSO 功能时,Linux 内核会利用 `skb` 提供的功能来支持大尺寸数据包的传输。具体来说: - 数据包被封装到单个 `skb` 中,并标记为可分段(即设置了 `SKB_GSO_TCPV4` 或其他相关标志)。这表明该数据包需要由硬件完成进一步的分片操作[^1]。 - 驱动程序接收到这样的巨型帧后,依据 MTU 值对其进行实际切割,并填充必要的 TCP 头部字段,比如序列号更新等逻辑均交予 NIC 完成[^2]。 #### 2. 关键成员变量及其功能 以下是几个与 TSO 密切相关的 `sk_buff` 成员变量描述: - **`gso_size`:** 表明当前 GSO (Generic Segment Offload) 对象能够容纳的最大载荷长度。对于启用了 TSO 的情况而言,则代表每次划分出来的子片段所携带的有效负载字节数目上限[^3]。 ```c /* Maximum size of a single fragment */ __u16 gso_size; ``` - **`tstamp`:** 时间戳记录,可用于延迟测量或者流量控制目的,在某些高级特性里也会涉及此参数调整。 - **`cb[]`:** 控制块数组可以存储特定协议栈上下文中需要用到的小型元数据信息,例如 QoS 设置或者其他定制化需求下的附加属性配置。 #### 3. 性能考量及潜在问题 尽管 TSO 显著提升了效率,但也可能带来一些挑战: - 如果应用程序生成大量小型消息流,则可能导致频繁调用 sendmsg() API 而无法充分利用批量处理优势;此时关闭 TSO 反而有助于改善整体表现。 - 此外还需注意的是,不当配置窗口缩放选项(tcp_window_scaling),可能会干扰正常的拥塞管理和重传策略执行效果。 #### 示例代码展示如何判断是否开启TSO 下面给出了一段简单的伪代码用来检测指定设备上是否有激活TSO能力: ```bash ethtool -k eth0 | grep "tcp-segmentation-offload" ``` 如果返回值显示 on 则说明已打开对应开关状态。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值