离散数学图论和树的知识点总结

离散数学图论和树的知识点总结

图论

图的定义和表示

:一个图是一个序偶<V,E>,记为G=<V,E>,其中:
① V={V1,V2,V3,…,Vn}是有限非空集合,Vi称为节点,V称为节点集
②E是有限集合,称为边集,E中的每个元素都有V中的节点对与之对应,称之为边
③与边对应的节点对既可以是无序的,也可以是有序的
表示方法
集合表示法,邻接矩阵法
邻接矩阵:设图G=<V,E>,其中V={V1,V2,…,Vn},并假定节点已经有了从V1到Vn的次序,则n阶方阵AG=(aij)nxn称为G的邻接矩阵,其中aij=1 <vi,vj>∈E或(vi,vj)∈E,否则aij=0
图中不与任何节点相邻接的节点称为孤立节点
两个端点相同的边称为或者自回路
零图:仅有孤立节点组成的图
平凡图:仅含一个节点的零图

无向图和有向图

无向图:每条边都是无向边的图
有向图:每条边都是有向边的图
多重图:含有平行边的图
线图:非多重图
简单图:无环的线图

子图,真子图,导出子图,生成子图,补图

子图:边和定点都是原图的子集,则称该图为原图的子图
真子图:该图为原图的子图,但是不跟原图相等
生成子图:顶点集跟原图相等,边集是原图的子集
导出子图:顶点集是原图的子集,边集是由顶点集在原图中构成的所有边构成的图
完全图:任何两个节点之间都有边
补图:完全图-简单图
握手定理:图中节点度数的总和等于变数的两倍,
图的重构:通俗来说就是两个图的顶点和边之间有双射关系,并且每条边对应的重数相同

图的连通性及判定条件

可达性:对节点vi和vj之间存在通路,则称vi和vj之间是可达的
无向图的连通性:图中每两个顶点之间都是互相可达的
强连通图:有向图G的任意两个顶点之间是相互可达的
判定条件:G中存在一条经过所有节点至少一次的回路
单向连通图:有向图G中任意两个顶点之间至少有一个节点到另一个节点之间是可达的
判定条件:有向图G中存在一条路经过所有节点
弱连通图:有向图除去方向后的无向图是连通的
判定条件:有向图邻接矩阵与转置矩阵的并是全一的矩阵

欧拉图,哈密顿图,偶图(二分图),平面图

欧拉通路(回路):图G是连通图,并且存在一条经过所有边一次且仅一次的通路(回路)称为欧拉通路(回路)
欧拉图:存在欧拉回路的图
欧拉通路判定:图G是连通的,并且有且仅有零个或者两个奇度数的节点
欧拉回路判定:图G是连通的,并且所有节点的度数均为偶数
有向欧拉图判定:图G是连通的,并且所有节点的出度等于入度
哈密顿图:图G中存在一条回路,经过所有点一次且仅一次
偶图:图G中的顶点集被分成两部分子集V1,V2,其中V1∩V2=∅,V1∪V2=V,并且图G中任意一条边的两个端点都是一个在V1中,一个在V2中
平面图:如果把无向图G中的点和边画在平面上,不存在任何两条边有不在端点处的交叉点,则称图G是平面图,否则是非平面图

无向树和有向树

无向树:连通而不含回路的无向图称为无向树
生成树:图G的某个生成子图是树
有向树:一个有向图,略去所有有向边的方向所得到的无向图是一棵树

最小生成树

最小生成树:设G=<V,E>是连通赋权图,T是G的一个生成树,T的每个树枝所赋权值之和称为T的权,记为W(T),G中具有最小权的生成树称为G的最小生成树

最优树(哈夫曼树)

设有一棵二元树T,若对所有的树叶赋以权值w1,w2,…,wn,则称之为赋权二元树,若权为wi的叶的层数为L(wi),则称W(T)=∑WixL(wi)为该赋权二元树的权,W(T)最小的二元树称为最优树

### RT-DETRv3 网络结构分析 RT-DETRv3 是一种基于 Transformer 的实时端到端目标检测算法,其核心在于通过引入分层密集正监督方法以及一系列创新性的训练策略,解决了传统 DETR 模型收敛慢和解码器训练不足的问题。以下是 RT-DETRv3 的主要网络结构特点: #### 1. **基于 CNN 的辅助分支** 为了增强编码器的特征表示能力,RT-DETRv3 引入了一个基于卷积神经网络 (CNN) 的辅助分支[^3]。这一分支提供了密集的监督信号,能够与原始解码器协同工作,从而提升整体性能。 ```python class AuxiliaryBranch(nn.Module): def __init__(self, in_channels, out_channels): super(AuxiliaryBranch, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.bn = nn.BatchNorm2d(out_channels) def forward(self, x): return F.relu(self.bn(self.conv(x))) ``` 此部分的设计灵感来源于传统的 CNN 架构,例如 YOLO 系列中的 CSPNet 和 PAN 结构[^2],这些技术被用来优化特征提取效率并减少计算开销。 --- #### 2. **自注意力扰动学习策略** 为解决解码器训练不足的问题,RT-DETRv3 提出了一种名为 *self-att 扰动* 的新学习策略。这种策略通过对多个查询组中阳性样本的标签分配进行多样化处理,有效增加了阳例的数量,进而提高了模型的学习能力和泛化性能。 具体实现方式是在训练过程中动态调整注意力权重分布,确保更多的高质量查询可以与真实标注 (Ground Truth) 进行匹配。 --- #### 3. **共享权重解编码器分支** 除了上述改进外,RT-DETRv3 还引入了一个共享权重的解编码器分支,专门用于提供密集的正向监督信号。这一设计不仅简化了模型架构,还显著降低了参数量和推理时间,使其更适合实时应用需求。 ```python class SharedDecoderEncoder(nn.Module): def __init__(self, d_model, nhead, num_layers): super(SharedDecoderEncoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead) self.decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers) def forward(self, tgt, memory): return self.decoder(tgt=tgt, memory=memory) ``` 通过这种方式,RT-DETRv3 实现了高效的目标检测流程,在保持高精度的同时大幅缩短了推理延迟。 --- #### 4. **与其他模型的关系** 值得一提的是,RT-DETRv3 并未完全抛弃经典的 CNN 技术,而是将其与 Transformer 结合起来形成混合架构[^4]。例如,它采用了 YOLO 系列中的 RepNCSP 模块替代冗余的多尺度自注意力层,从而减少了不必要的计算负担。 此外,RT-DETRv3 还借鉴了 DETR 的一对一匹配策略,并在此基础上进行了优化,进一步提升了小目标检测的能力。 --- ### 总结 综上所述,RT-DETRv3 的网络结构主要包括以下几个关键组件:基于 CNN 的辅助分支、自注意力扰动学习策略、共享权重解编码器分支以及混合编码器设计。这些技术创新共同推动了实时目标检测领域的发展,使其在复杂场景下的表现更加出色。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值