TensorFlow实现估值网络(Q-learning)代码遇到的问题

TensorFlow实战》8.3 TensorFlow实现估值网络这一节看了3遍之后终于明白了大概思路。本人使用是Windows10、 TensorFlow-0.12、 GTX 1070 GPU,在代码实现的过程中遇到几个问题。第二个问题看了2个小时外加睡了一觉才解决。

  该例子代码的实现思路是先搭建一个吃箱子的小游戏,然后再搭建Q-learning网络跑这个

游戏,每轮走50步然后去获取该轮积分的最大值。完整代码可以参考这位美女同学的博客:

http://blog.youkuaiyun.com/Felaim/article/details/70880726

问题1:  

   (参考代码144行)

    self.streamAC,self.streamVC=tf.split(self.conv4,2,3)   	
    释义: 把卷积层conv4的输出在第三个维度上平分为2个矩阵
    报错: TypeError: Input 'split_dim' of 'Split' Op has type float32 
         that does not match expected type of int32.
    修复方案: TensorFlow-0.12的tf.split函数已经修改为:
     def split(split_dim, num_split, value, name="split"):
     split_dim: 需要平分的是第几维度
     num_split: 平分的份数
     value: 需要平分的矩阵
     修改后的代码为:
     self.streamAC, self.streamVC = tf.split(3, 2, self.conv4)
     备注:TensorFlow-1.21参数顺序又修改了,如果出现问题可以考虑查看下具体api

问题2:

      (参考代码157行)
self.actions_onehot = tf.one_hot(self.actions, env.actions, dtype=tf.float32)
      这句代码TensorFlow在GPU下跑会报错
 
错误提示为:
E c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\cuda\cuda_event.cc:49] Error polling for event status: failed to query event: CUDA_ERROR_ILLEGAL_ADDRESS
F c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\core\common_runtime\gpu\gpu_event_mgr.cc:198] Unexpected Event status: 1   
Stack Overflow的这篇文章给了我启示  
     https://stackoverflow.com/questions/41115476/
		tensorflow-gpu-cuda-error-launch-failed-on-tf-one-hot
         "On the Windows 10 GPU, tf.matmul, tf.reduce_mean, tf.reduce_sum are run ok. But tf.one_hot is not ok."
               代码修改为:		 
	with tf.device('/cpu:0'):
    	     self.actions_onehot = tf.one_hot(self.actions, env.actions, dtype=tf.float32)
	让tf.one_hot这个函数回到CPU下运行则OK
    

### Q-learning算法工作原理 #### 3.1 定义与目标 Q-learning属于基于价值的强化学习方法,旨在通过迭代更新策略来最大化累积奖励。该算法试图找到最优的行为价值函数\(Q^*(s, a)\),表示在给定状态\(s\)执行行动\(a\)后的预期回报总和[^1]。 #### 3.2 行动价值函数 对于任意一对状态-动作\((s,a)\),存在一个对应的数值称为行动价值或简称Q值。此值反映了当处于特定的状态并选择某个行为时所能期待得到的最大化未来折扣奖励总额。随着经验积累,这些估计逐渐逼近真实情况下的最佳可能结果[^2]。 #### 3.3 更新机制 每当智能体在一个环境中经历一次交互周期(感知当前状况、做出决定、观察后果以及接收即时回馈),便会依据下面的经验回放公式调整相应条目的估值: \[Q(s_t, a_t) \leftarrow Q(s_t, a_t)+\alpha[r_{t+1}+\gamma max_a(Q(s_{t+1},a))-Q(s_t,a_t)]\] 这里, - \(r_{t+1}\)代表立即收到的报酬; - \(\alpha\)是学习率参数控制新旧信息融合程度; - \(\gamma\)作为衰减因子衡量长远利益的重要性; - 而内部求极大运算符确保每次只考虑最有利后续步骤的影响。 ```python import numpy as np def q_learning_update(q_table, state, action, reward, next_state, alpha=0.1, gamma=0.9): best_next_action = np.argmax(q_table[next_state]) td_target = reward + gamma * q_table[next_state][best_next_action] td_error = td_target - q_table[state][action] # Update the Q-value using TD error and learning rate q_table[state][action] += alpha * td_error return q_table ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值