[转载]带外数据OOB与紧急模式URG

本文深入解析TCP协议中的带外数据(OOB)特性及其与紧急模式URG的关系,探讨如何发送和接收OOB数据,以及不同模式下的数据处理方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

A,TCP支持带外数据OOB?与紧急模式URG有什么关系?
     TCP
支持带外数据,但是只有一个OOB字节,TCP的带外数据是通过紧急模式URG实现的
.
B,
我们知道send(sendfd,"ABC",3,MSG_OOB),将发送3个字节的带外数据OOB数据.但是这里TCP又只支持一个字节的OOB,难道丢掉2个字节
?
     TCP
将把紧急模式URG 置位,紧急指针定位第三个字节("C")(这里不管它的具体位置,紧急指针的作用就是提供定位那个OOB字节的信息),前两个字节("AB")当作普通字节发送.其实TCP总是把最后一个字节当作OOB数据,其他的当作普通字节.不管你通过带MSG_OOB标志的sendxxx函数发送多少字节带外数据OOB数据,发送端只把最后一个字节当作OOB数据,接收端也只能收到一个字节的OOB数据
.
C,
如果一定要发送多字节的带外数据,让接收端能一次收到多个字节的带外数据.能不能做到
?
     
对于TCP协议,不能
!
D,
对于TCP,收到的带外数据怎么保存
?
     
两种模式
:
     1,
OOBINLINE 模式,这是套接字的默认模式,OOB字节与普通字节分开存放.存放在一个OOB缓冲区中,当然TCP只有一个字节,可以用一个字节保存OOB数据
.
     2,OOBINLINE 
模式,OOB字节和普通字节一起存放,它和普通字节本来就是一起发送,当然可以一起存放
.
E,recv(recvfd,buff,256,MSG_OOB).
会有哪些结果
?
     recvxxxx函数,在MSG_OOB模式下,将在OOB缓冲区中寻找数据。
     如果发送端没发送OOB字节,它返回错误.
     
如果发送端发送了OOB字节
:
     1,
对于非OOBINLINE 模式,它返回1字节的OOB数据
.
     2,
对于OOBINLINE 模式,它返回错误.因为OOB字节没有放到OOB缓冲区中
.
F,
如果发送端使用MSG_OOB模式,send(sendfd,sndbuff,64,MSG_OOB),发送了包含"OOB字节"64字节数据,然后用非MSG_OOB模式,send(sendfd,sndbuff,64,0)发送64字节,当接收端收到64+64字节的数据后,recv(recvfd,revbuff,256,0).会有哪些结果
?
1,
对于非OOBINLINE 模式,第一次recv(recvfd,revbuff,256,0)只返回前63字节的普通数据,接收缓冲区剩下64字节.要获得1字节的OOB数据,必须使用MSG_OOB模式的revxxx函数.再次recv(recvfd,revbuff,256,0),返回第二次发送的64字节.一次recvxxx不跨越urg-mark标记
.
2,
对于OOBINLINE 模式,第一次recv(recvfd,revbuff,256,0)只返回前63字节的普通数据,接收缓冲区剩下65字节(OOB+64字节),第二次recv(recvfd,revbuff,256,0),对于windows,只返回一字节的OOB字节,需要第三次rev才能返回最后的64字节,对于linux/unix,第二次rev 就返回65字节(OOB+64字节).总之与协议栈的实现有关
.
G,
如果OOB字节没被应用程序读取,协议栈又收到了新的OOB字节,会出现什么情况
?
    TCP
协议对每个socket保持一个URG指针,此时直接刷新URG指针,指向新的OOB字节
.
对于非OOBINLINE,旧的OOB字节直接被丢弃,被新的OOB字节覆盖
(经过本人测试,旧的OOB字节并不会被丢弃,而是被放入普通数据的接受缓冲区).
对于OOBINLINE,旧的OOB字节仍然在接收缓冲区中,但被当着普通数据看待,每个socket只有一个URG指针,只能定位一个OOB字节.

注:本人测试发现,OOBINLINE是否设置带来的区别仅仅在于读取URG字节的时候是否需要MSG_OOB标志,其他包括sockatmark函数,新到OOB字节时对于尚未被读出的OOB字节的处理都是相同的。另外,即使在SIGURG处理函数中已经使用MSG_OOB读出了OOB数据,只要在普通接收缓冲区中的读指针还没有越过带外标记,OOB数据还是会被放入普通的接收缓冲区中(行为与没有读出OOB数据一样)。

资源下载链接为: https://pan.quark.cn/s/140386800631 通用大模型文本分类实践的基本原理是,借助大模型自身较强的理解和推理能力,在使用时需在prompt中明确分类任务目标,并详细解释每个类目概念,尤其要突出类目间的差别。 结合in-context learning思想,有效的prompt应包含分类任务介绍及细节、类目概念解释、每个类目对应的例子和待分类文本。但实际应用中,类目和样本较多易导致prompt过长,影响大模型推理效果,因此可先通过向量检索缩小范围,再由大模型做最终决策。 具体方案为:离线时提前配置好每个类目的概念及对应样本;在线时先对给定query进行向量召回,再将召回结果交给大模型决策。 该方法不更新任何模型参数,直接使用开源模型参数。其架构参考GPT-RE并结合相关实践改写,加入上下文学习以提高准确度,还使用BGE作为向量模型,K-BERT提取文本关键词,拼接召回的相似例子作为上下文输入大模型。 代码实现上,大模型用Qwen2-7B-Instruct,Embedding采用bge-base-zh-v1.5,向量库选择milvus。分类主函数的作用是在向量库中召回相似案例,拼接prompt后输入大模型。 结果方面,使用ICL时accuracy达0.94,比bert文本分类的0.98低0.04,错误类别6个,处理时添加“家居”类别,影响不大;不使用ICL时accuracy为0.88,错误58项,可能未修改prompt有关。 优点是无需训练即可有较好结果,例子优质、类目界限清晰时效果更佳,适合围绕通用大模型api打造工具;缺点是上限不高,仅针对一个分类任务部署大模型不划算,推理速度慢,icl的token使用多,用收费api会有额开销。 后续可优化的点是利用key-bert提取的关键词,因为核心词语有时比语意更重要。 参考资料包括
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值