深度强化学习中的深度Q学习:架构、框架与实践
1. 人工神经网络基础
人工神经网络(ANN)能够处理非线性或不连续问题,这使其可以近似非线性函数或进行非线性分类。ANN通过改变权重值来“学习”,在每次更新时,训练程序会根据误差函数的梯度来调整权重。关键在于通过反复刺激黑盒并修正其估计值,迭代更新权重。只要有足够的数据和时间,ANN就能准确预测数值或类别。
2. 常见神经网络架构
2.1 多层感知器(MLPs)
MLPs是深度学习中最简单和传统的架构。多层神经网络完全连接且前馈,上一层每个神经元的输出都传递到下一层的每个神经元。输入层的神经元数量与数据大小相同,输出层的大小设置为类别数量,并通常通过softmax函数提供类别上的概率分布。
2.2 深度信念网络(DBNs)
DBNs与MLPs类似,但顶部两层(或更多层)之间的连接是无向的,信息可以从第二层传回第一层。无向层是受限玻尔兹曼机(RBMs),RBMs可对数据进行建模,MLP层则基于该模型进行分类。不过,RBMs的训练难度会随网络规模增大而增加。
2.3 自编码器
自编码器的架构中间变窄,类似沙漏。其目标是在中间变窄的约束下,尽可能重现输入数据。例如,如果中间有两个神经元且重现结果可接受,就可以用这两个神经元的输出来表示数据,实现数据压缩。许多架构将自编码器用作自动特征提取的一种形式。
2.4 卷积神经网络(CNNs)
CNNs适用于个体观测局部相关的领域,如图像、自然语言和时间序列。其基本原理是通过一组卷积滤波器对数据进行预处理,经过多层滤波后将结果输入MLP。训练
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



