cf1141f2 greedy

本文介绍了一种使用C++解决区间覆盖问题的方法,通过结构体存储区间信息,运用vector容器进行区间管理,实现对区间进行排序和合并,以找到最小的区间覆盖集合。
#include <iostream>
#include <cstdio>
#include <algorithm>
#include <cstring>
#include <cmath>
#include <string>
#include <map>
#include <vector>
using namespace std;
int n;
struct node
{
    int l,r;
    friend bool operator<(node x,node y)
    {
        return x.r<y.r;
    }
};

long long sum[1505];
long long a[1505];

vector<node> v[1501*1501];
int cnt;

int get(int id,int f)
{
    int len=v[id].size();
    int ans=0;
    int pre=0;
    for(int i=0;i<len;i++)
    {
        if(v[id][i].l>pre)
        {
            ans++;
            pre=v[id][i].r;
            if(f==1)
                printf("%d %d\n",v[id][i].l,v[id][i].r);
        }
    }
    return ans;
}
int main() {

    while(~scanf("%d",&n))
    {
        memset(sum,0, sizeof(sum));
        map<long long,int> mp;
        cnt=0;

        for(int i=1;i<=n;i++)
            scanf("%lld",&a[i]),sum[i]=sum[i-1]+a[i];

        for(int i=1;i<=n;i++)
        {
            for(int j=1;j<=i;j++)
            {
                long long tp=sum[i]-sum[j-1];
                if(mp[tp]==0)
                    mp[tp]=++cnt;
                int id=mp[tp];
                node cur;cur.l=j;cur.r=i;
                v[id].push_back(cur);
            }
        }

        int ans=0,ansid;
        for(int i=1;i<=cnt;i++)
        {
            //sort(v[i].begin(),v[i].end());
            int tans=get(i,0);
            if(tans>ans)
                ans=tans,ansid=i;
        }
        printf("%d\n",ans);
        get(ansid,1);
    }
    return 0;
}

 

在提供的引用中,涉及到与 -greedy 相关的主要是 Greedy 和 Epsilon - GreedyGreedy 技术常用于资源受限场景,如在智能手机和平板电脑等移动设备中,该技术通过逐个选择具有最高加权效用的应用变体,在一定程度上减少了计算复杂度和资源消耗。例如在资源有限的智能手机上同时运行多个社交、娱乐和办公应用时,Greedy 技术可发挥作用,不过 Serene Greedy 技术在其基础上更进一步,通过考虑自适应的非功能方面,进行重要性判断和应用分类,避免不必要的自适应,在保证一定效用的同时,减少对用户体验的负面影响 [^1]。 Epsilon - Greedy 是强化学习中的一种策略。强化学习关注智能体在与环境的交互中学习最优策略以最大化累积奖励,在很多领域如游戏 AI、机器人控制、自然语言处理等有广泛应用。而 Epsilon - Greedy 变体相对基本的形式稍微复杂一些,与基本的 Epsilon - Greedy 变体相比,后续讨论的变体需要优化更多的参数,有时特定的算法变体甚至可能需要在估计过程中存储值才能正常工作,这些因素会进一步增加行为策略的复杂性 [^2][^4]。 ### 代码示例(简单的 Epsilon - Greedy 策略伪代码) ```python import random # 定义 Epsilon - Greedy 策略函数 def epsilon_greedy(epsilon, actions, q_values): if random.uniform(0, 1) < epsilon: # 探索:随机选择一个动作 return random.choice(actions) else: # 利用:选择具有最高 Q 值的动作 max_q_index = q_values.index(max(q_values)) return actions[max_q_index] # 示例使用 actions = [0, 1, 2] # 动作列表 q_values = [0.1, 0.5, 0.3] # Q 值列表 epsilon = 0.2 # Epsilon 值 selected_action = epsilon_greedy(epsilon, actions, q_values) print(f"选择的动作是: {selected_action}") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值