PAT A1021 Deepest Root(25 分)------图2---求最大联通子图和最大深度的节点集合(看)

博客讲述了一道图论题的解题过程。开始因没读懂题意,被acyclic误导。该题需先判断图是否只有一个最大连通子图,若是则求最大深度的节点集合,否则输出。解题时先采用dfs求最大连通图,再用bfs求最大深度的集合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

总结:
1.这道题算是相对比较麻烦的一道题,开始题意没读懂,A graph which is connected and acyclic can be considered a tree.开始没明白他说的这个树是什么,被acyclic误导了,以为不能出现三角形这种循环的图,结果是大于2个最大连通子图都不是树

2.这道题的麻烦之处在于先要看该图是不是只有一个最大连通子图,如果是则要求最大深度的节点集合,不是输出。

我先采用dfs求最大连通图,再用了bfs求最大深度的集合,麻烦。

代码:

#include<iostream>
#include<queue>
#include<vector>
#include<map>
#include<algorithm>
using namespace std;
int vi1[10000];
int maxarea = 0;
vector<vector<int> >pp;
map<int, vector<int> >sk;
void dfs(int index)
{
    if (vi1[index] == 1)return;
    else {
        vi1[index] = 1;
        for (int i = 0; i < pp[index].size(); i++)
            dfs(pp[index][i]);
    }
}
int main()
{
    int n;
    cin >> n; pp.resize(n+1);
    for (int i = 1; i <= n - 1; i++)
    {
        int a, b;
        scanf("%d%d",&a,&b);
        pp[a].push_back(b); pp[b].push_back(a);
    }
    for (int i = 1; i <= n; i++)
    {
        if (!vi1[i])
        {
            dfs(i);
            maxarea++;
        }
    }
    if (maxarea > 1){
                cout <<"Error: "<<maxarea<<" components"; return 0;
            }
    int deep = 0;
    struct node{
        int x;
        int deep;
    };
    for (int i = 1; i <= n; i++)
    {
        queue<node> s; int vi[10000];
        fill(vi, vi + 10000, 0); node ps; ps.deep = 1; ps.x = i;
        s.push(ps); vi[i] = 1; int maxdeep = 0;
        while (!s.empty())
        {
            node k = s.front(); s.pop();
            for (int j = 0; j < pp[k.x].size(); j++)
            {
                if (!vi[pp[k.x][j]])
                {
                    node p;
                    vi[pp[k.x][j]] = 1;
                    p.x = pp[k.x][j]; p.deep=k.deep+1;
                    if (p.deep>maxdeep)maxdeep = p.deep;
                    s.push(p);
                
                }
            }
        }
        sk[maxdeep].push_back(i);
        
    }
    auto it = sk.end(); it--; sort(it->second.begin(),it->second.end());
    for (int i = 0; i<it->second.size(); i++)
    {
        printf("%d",it->second[i]);
        if (i != it->second.size() - 1)printf("\n");
    }
    return 0;
}

 

### YOLOv11 中改进 C2F-Mamba 的实现方法及效果 #### 背景与动机 在目标检测领域,YOLO系列模型不断演进,在不同版本中引入了多种优化技术来提升性能。对于YOLOv11而言,过融合注意力机制多尺度特征处理的方法进一步增强了模型的表现力[^1]。 #### 改进思路概述 为了提高C2F-Mamba模块的效果,采用了Attentional Scale Sequence Fusion (ASSF),该方法能够更好地捕捉跨层之间的依赖关系,并有效聚合来自多个尺度的信息。具体来说: - **增强的空间感知能力**:利用自适应加权策略调整各支权重,使得网络可以动态学习到适合当前任务的组合方式。 - **更高效的计算流程**:过对输入数据进行预处理以及合理设计下采样路径,减少了冗余运算量的同时保持甚至提升了精度水平。 #### 关键组件解析 ##### Attention Module 设计 引入了一种新型注意力单元——Spatial Pyramid Pooling with Attention(SPPA),它不仅继承了传统SPP结构的优点,还加入了channel-wise attention机制,从而实现了更加精准的目标定位。 ```python class SPPA(nn.Module): def __init__(self, c1, c2, k=(5, 9, 13)): super().__init__() c_ = c1 // 2 # hidden channels self.cv1 = Conv(c1, c_, 1, 1) self.cv2 = Conv(c_ * (len(k) + 1), c2, 1, 1) self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x // 2) for x in k]) # Channel-wise attention module self.attention = SELayer(c_) def forward(self, x): y = [] y.append(self.attention(self.cv1(x))) for m in self.m: y.append(m(y[-1])) return self.cv2(torch.cat(y, dim=1)) ``` ##### Multi-Scale Feature Integration 采用级联的方式将低层次细节信息逐步传递给高层次语义表示,形成一个完整的上下文理解框架。这种做法有助于解决因物体大小差异而导致的小目标漏检问题[^2]。 ```python def fuse_multi_scale_features(features_list): fused_feature = None for feature_map in reversed(features_list): # Start from the deepest layer if fused_feature is not None: upsampled_fused = F.interpolate(fused_feature, size=feature_map.shape[2:], mode='nearest') fused_feature = torch.add(feature_map, upsampled_fused) else: fused_feature = feature_map return fused_feature ``` #### 实验验证与结果析 经过一系列对比测试表明,应用上述改进措施后的YOLOv11-C2F-Mamba模型无论是在速度还是准确性方面都有显著进步。特别是在复杂场景下的表现尤为突出,例如拥挤人群、遮挡严重等情况下的识别率得到了明显改善[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不要绝望总会慢慢变强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值