深度增强学习之走迷宫矩阵

本文介绍了如何使用DQN(深度Q学习)解决走迷宫问题。DQN结合了卷积神经网络和Q-Learning,将迷宫矩阵视为状态,通过CNN学习最优策略。迷宫矩阵为5*6,0代表可行走,1表示障碍。智能体在环境中依据状态选择行动以最大化奖励。文章还涵盖了预处理、代理、环境、训练和预测模型的细节,以及最终结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

DQN(深度Q学习)

通常,强化学习的设置由两部分组成,一个是智能体(Agent),另一个是环境(环境)。
强化学习图示

强化学习是学习一个最优策略(policy),可以让智能体(Agent)特定环境(Environment)中,根据当前状态(state),做出行动(action),从而获得最大回报(奖励)

DQN要做的就是将卷积神经网络(CNN)和Q-Learning结合起来,CNN的输入是原始图像数据(作为状态State),输出则是每个动作行动对应的价值评估价值函数(Q值) 。

要走的迷宫矩阵

图片

是一个5 * 6的矩阵其中0表示可走,1表示障碍物

现在把迷宫矩阵想象为一张图,高度为5,跨度为6,当走到(行,列)时,令迷宫矩阵在(行,列)处的值为2,当离开(行,列)时,迷宫矩阵在(行,列)处的值恢复为0

预处理

import numpy as np
import pandas as pd
import os
from collections import deque
from sklearn.utils import shuffle
from keras.losses import mean_squared_error
import copy
import random
from keras.models import Model, load_model
from keras.layers import Input, Dense, Reshape, Conv2D, Flatten

# 迷宫矩阵
maze = np.array(
    [[0, 0, 0, 0, 0, 0, ],
     [1, 0, 
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值