我有个问题想请教,DQN中,在初始化阶段Q function 和 Target network输出都是随机的,那么减少这两个随机输出的误差为什么能update出一个好的policy,是reward起的作用吗,如果是reward引导q值往正确的方向update,那即使是过估计,reward应该也能纠正过来?实在想不明白,望解答

关于DQN中的疑惑
最新推荐文章于 2025-11-03 21:00:49 发布
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Anything-LLM
AI应用
AnythingLLM是一个全栈应用程序,可以使用商用或开源的LLM/嵌入器/语义向量数据库模型,帮助用户在本地或云端搭建个性化的聊天机器人系统,且无需复杂设置
845

被折叠的 条评论
为什么被折叠?



