nyoj贪心算法

本文总结了贪心算法在nyoj平台上的应用,包括覆盖区间、最大活动安排、套娃区间、并发事件最短时间、数字变换、二分加贪心、找规律、过河问题和背包问题等九类典型问题,通过实例解析了解决策略和关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在nyoj上做了不少贪心算法的题了,作为一个很重要的基础算法,贪心还是有很强的规律性的。在这篇博文里简单总结一下,欢迎大家多提宝贵意见。


第一、二、三类为几种经典的贪心算法,都涉及到若干区间,而我们第一步要做的都是将这些区间按右端点排序(通常为从小到大排序,若右端点一致则按左端点从小到大排序)。


第一类,用最少点数覆盖给定区间左右端点的所有区间,要求每个区间内至少一个点,如nyoj287、nyoj891和nyoj1036。方法是将所有区间按右端点从小到大排序,记录第一个区间右端点值tmp,并依次判断每个区间的左端点是否在tmp左侧,若不是,更新tmp为当前区间右端点并将计数值++;


第二类,能安排活动最大数,如nyoj14。14题首先将各活动按右区间端点排序,记录第一个区间右端点值tmp,依次找区间左端点是否在tmp右边。若是,更新tmp为当前区间右端点并将计数值++。


第三类,给定一些区间,若某区间能像套娃一样互相包含(不允许一直接套二,但可以一套一套一),则可将其视为一个区间,求这些区间最少可视为几个区间,如nyoj236。此题要设置一个标记数组,先按右端点大到小排序,记录第一个区间左端点值tmp,更新第一位标记数组,依次判断之后的区间,若左区间大于tmp,证明该区间可被囊括,将tmp更新为该区间左端点值,并更新标记数组对应位置。用此方法判断至最后一个区间为以第一个区间为最外侧“套娃”最多能包含哪些区间。再进行第二轮,此时最外侧的区间为从未使用过的第一个区间。重复以上步骤,看有多少个大“套娃”即为所求。


第四类,多项事件并发求最短时间。如nyoj220,方法是依次将每项事件占用的资源(如时间,房间等)++,最终所有资源中最大数值即为所求;


第五类,给定一个数字,规定某种变换方式,求若干步变换后的最大值或最小值,如nyoj448和nyoj1057等。一般考虑每一步都是最优的变换方法,不过像1057这道题就不能逐步考虑,由此题题干可知,若可以移动两次,那么第1、2、3位均可以移动到第一位,这样先挑选前三位中的最大的数字(一样的话取靠前位),在总步数上扣去选定位和当前位(第0位)位数差后看还剩多少步。若还剩余移动步数,则用同样的方法挑选第二位,直到挑选完倒数第二位或没有步数时停止。附上本人此题ac代码:

#include<iostream>
using namespace std;

int finds(string s,int be,int a)
{
    int max=s[be];
    int ans=be;
    int ss=s.size();
    for(int i=be;i<=be+a&&i<ss;i++)
    {
        if(s[i]>max)
        {
            max=s[i];
            ans=i;
        }
    }
    return ans;
}

int main()
{
    string s;
    int a;
    while(cin>>s>>a)
    {
        int ss=s.size();
        int be=0;
        while(a&&(be<ss-1))
        {
            int i=finds(s
### RT-DETRv3 网络结构分析 RT-DETRv3 是一种基于 Transformer 的实时端到端目标检测算法,其核心在于通过引入分层密集正监督方法以及一系列创新性的训练策略,解决了传统 DETR 模型收敛慢和解码器训练不足的问题。以下是 RT-DETRv3 的主要网络结构特点: #### 1. **基于 CNN 的辅助分支** 为了增强编码器的特征表示能力,RT-DETRv3 引入了一个基于卷积神经网络 (CNN) 的辅助分支[^3]。这一分支提供了密集的监督信号,能够与原始解码器协同工作,从而提升整体性能。 ```python class AuxiliaryBranch(nn.Module): def __init__(self, in_channels, out_channels): super(AuxiliaryBranch, self).__init__() self.conv = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1) self.bn = nn.BatchNorm2d(out_channels) def forward(self, x): return F.relu(self.bn(self.conv(x))) ``` 此部分的设计灵感来源于传统的 CNN 架构,例如 YOLO 系列中的 CSPNet 和 PAN 结构[^2],这些技术被用来优化特征提取效率并减少计算开销。 --- #### 2. **自注意力扰动学习策略** 为解决解码器训练不足的问题,RT-DETRv3 提出了一种名为 *self-att 扰动* 的新学习策略。这种策略通过对多个查询组中阳性样本的标签分配进行多样化处理,有效增加了阳例的数量,进而提高了模型的学习能力和泛化性能。 具体实现方式是在训练过程中动态调整注意力权重分布,确保更多的高质量查询可以与真实标注 (Ground Truth) 进行匹配。 --- #### 3. **共享权重解编码器分支** 除了上述改进外,RT-DETRv3 还引入了一个共享权重的解编码器分支,专门用于提供密集的正向监督信号。这一设计不仅简化了模型架构,还显著降低了参数量和推理时间,使其更适合实时应用需求。 ```python class SharedDecoderEncoder(nn.Module): def __init__(self, d_model, nhead, num_layers): super(SharedDecoderEncoder, self).__init__() decoder_layer = nn.TransformerDecoderLayer(d_model=d_model, nhead=nhead) self.decoder = nn.TransformerDecoder(decoder_layer, num_layers=num_layers) def forward(self, tgt, memory): return self.decoder(tgt=tgt, memory=memory) ``` 通过这种方式,RT-DETRv3 实现了高效的目标检测流程,在保持高精度的同时大幅缩短了推理延迟。 --- #### 4. **与其他模型的关系** 值得一提的是,RT-DETRv3 并未完全抛弃经典的 CNN 技术,而是将其与 Transformer 结合起来形成混合架构[^4]。例如,它采用了 YOLO 系列中的 RepNCSP 模块替代冗余的多尺度自注意力层,从而减少了不必要的计算负担。 此外,RT-DETRv3 还借鉴了 DETR 的一对一匹配策略,并在此基础上进行了优化,进一步提升了小目标检测的能力。 --- ### 总结 综上所述,RT-DETRv3 的网络结构主要包括以下几个关键组件:基于 CNN 的辅助分支、自注意力扰动学习策略、共享权重解编码器分支以及混合编码器设计。这些技术创新共同推动了实时目标检测领域的发展,使其在复杂场景下的表现更加出色。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值