C - Super Mario(分块3)————分块

本文详细介绍了如何使用C语言实现超级马里奥游戏中的分块技术,通过分块来优化游戏地图的加载和显示,提高游戏性能。内容涵盖了分块的基本原理、数据结构的设计以及在实际编程中如何应用这些概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

/******
分块+二分

***********/
#include <iostream>
#include<cstdio>
#include<cstring>
#include<cmath>
#include<map>
#include<algorithm>
using namespace std;
const int maxn = 1e5+50;
long n;// n个元素
long block;//每块元素个数
long num;// 块的个数

long belong[maxn]; // 第i个元素属于第几块

long l[1000], r[1000]; // 每块的左端点, 右端点

void build()
{
    block = sqrt(n);

    num = n/block;
    if(n%block!= 0)num++;

    for(long i = 1; i<= num; i++)
    {
        l[i] = (i-1)*block+1;
        r[i] = i*block;
    }
    r[num] = n;
    for(long i = 1; i<= n; i++)
    {
        belong[i] = (i-1)/block +1;
    }


}


long arr[maxn];
long after[maxn];

void input()
{
    for(long i = 1; i<= n; i++)
    {
        scanf("%ld", &arr[i]);

        after[i] = arr[i];
    }

    for(int i = 1;i <= num;i++)
    {
        sort(after+l[i], after+r[i]+1);
    }


}

long query(long x, long y, long h)
{
    long res = 0;
    if(belong[x] == belong[y])
    {
        for(long i = x; i <= y; i++)
        {
            if(arr[i] <= h)res++;
        }
    }
    else
    {
        for(long i = x; i <= r[belong[x]]; i++)
        {
            if(arr[i] <= h)res++;
        }

        for(long i = l[belong[y]]; i <= y; i++)
        {
            if(arr[i]<= h)res++;
        }


        for(long i = belong[x]+1; i < belong[y]; i++)
        {
            long l1 = l[i], r1 = r[i];
            long p = upper_bound(after+l1, after+r1+1, h)- (after+l1);

            res+=p;

        }
    }

    return res;
}
int main()
{
    ios::sync_with_stdio(false);
    long m;
    int T;
    scanf("%d", &T);
    int c = 0;
    while(T--)
    {
        c++;

        scanf("%ld %ld", &n, &m);
        build();

        input();

        printf("Case %d:\n",c);
        long x, y, h;
        for(long i = 1; i <= m; i++)
        {
            scanf("%ld %ld %ld", &x, &y,&h);
            long res = query(x+1, y+1, h);
            printf("%ld\n", res);
        }
    }

    return 0;
}

### 使用PPO算法在gym-super-mario-bros环境中的实现 为了在 `gym-super-mario-bros` 游戏环境中应用近端策略优化 (Proximal Policy Optimization, PPO),可以按照以下方法构建模型并训练代理。以下是详细的说明: #### 安装依赖库 首先,确保安装必要的 Python 库来支持 `gym-super-mario-bros` 和强化学习框架 Stable Baselines3。 ```bash pip install nes-py gym-super-mario-bros stable-baselines3[extra] ``` 上述命令会安装 `nes-py`, `gym-super-mario-bros` 以及用于实现 PPO 的强化学习工具包 `Stable-Baselines3`[^1]。 --- #### 创建超级马里奥环境 通过导入 `SuperMarioBros-v0` 或其他变体创建游戏环境,并设置动作空间和观察空间。 ```python import gym_super_mario_bros from nes_py.wrappers import JoypadSpace from gym.spaces import Box from gym.wrappers import FrameStack from stable_baselines3.common.env_checker import check_env from stable_baselines3 import PPO # 初始化 Super Mario Bros 环境 env = gym_super_mario_bros.make(&#39;SuperMarioBros-v0&#39;) # 设置简化操作集 env = JoypadSpace(env, [[&#39;right&#39;], [&#39;right&#39;, &#39;A&#39;]]) # 将帧堆叠到一起以提供时间序列数据给神经网络 env = FrameStack(env, num_stack=4) # 验证环境是否兼容稳定基线的要求 check_env(env) ``` 此部分代码定义了一个简单的控制方案(右移或跳跃),并通过 `FrameStack` 提供连续四帧作为输入状态。 --- #### 训练PPO模型 使用 `stable-baselines3.PPO` 来初始化和训练代理。 ```python model = PPO( policy="CnnPolicy", env=env, verbose=1, tensorboard_log="./mario_ppo_tensorboard/" ) # 开始训练过程 model.learn(total_timesteps=int(1e6)) # 保存训练好的模型 model.save("ppo_mario") ``` 在此配置中: - **policy**: 使用卷积神经网络 (`CnnPolicy`) 处理图像型观测值。 - **total_timesteps**: 总共执行 $1 \times 10^6$ 时间步数进行训练。 - **tensorboard_log**: 可视化日志路径以便监控训练进展。 --- #### 测试已训练的模型 加载先前保存的模型并对环境运行推理测试。 ```python del model # 删除旧模型以防冲突 # 加载预训练模型 model = PPO.load("ppo_mario") state = env.reset() done = False while not done: action, _states = model.predict(state) state, reward, done, info = env.step(action) env.render() env.close() ``` 这段脚本展示了如何利用训练完成后的模型在游戏中做出决策。 --- ### 注意事项 1. 超参数调整对于性能至关重要。例如,更改学习率、批量大小或其他超参数可能显著影响收敛速度与最终效果。 2. 如果希望扩展功能,可考虑引入更复杂的奖励机制或者自定义环境封装器。 3. 对于更高难度级别(如世界 1-2 或以上),建议增加训练时间和样本数量。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值