
深度学习
文章平均质量分 79
nbszg
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
强化学习笔记+代码(七):Actor-Critic、A2C、A3C算法原理和Agent实现(tensorflow)
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现(tensorflow)Double-DQN、Dueling DQN算法原理和Agent实现(tensorflow)Policy Gradients算法原理...原创 2020-03-27 11:41:58 · 7510 阅读 · 1 评论 -
强化学习笔记+代码(六):Policy Gradient结构原理和Agent实现(tensorflow)
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN、Dueling DQN算法原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Age...原创 2020-03-25 18:59:17 · 2594 阅读 · 6 评论 -
强化学习笔记+代码(五):Double-DQN、Dueling DQN结构原理和Agent实现
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN、Dueling DQN结构原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Age...原创 2020-03-24 17:03:57 · 7784 阅读 · 1 评论 -
强化学习笔记+代码(四):DQN算法原理和Agent实现
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN、Dueling DQN结构原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Age...原创 2020-03-23 19:36:51 · 10716 阅读 · 4 评论 -
强化学习笔记+代码(三):Q-learning算法原理和Agent实现
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN、Dueling DQN算法原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Age...原创 2020-03-23 15:54:37 · 5268 阅读 · 0 评论 -
强化学习笔记+代码(二):SARSA算法原理和Agent实现
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN算法原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Agent实现一、SARS...原创 2020-03-23 12:03:33 · 9122 阅读 · 6 评论 -
强化学习笔记+代码(一):强化学习背景介绍
本文主要整理和参考了李宏毅的强化学习系列课程和莫烦python的强化学习教程本系列主要分几个部分进行介绍强化学习背景介绍SARSA算法原理和Agent实现Q-learning算法原理和Agent实现DQN算法原理和Agent实现Double-DQN算法原理和Agent实现Policy Gradients算法原理和Agent实现A2C、A3C算法原理和Agent实现一、什么是强...原创 2020-03-23 11:12:59 · 6886 阅读 · 0 评论 -
tensorflow使用DNN、CNN、RNN(lstm)分别实现识别mnist手写数字图片
本文只用全连接神经网络+batchNormlization_dropout实现mnist手写数字图片识别。import osimport structimport numpy as npimport tensorflow as tf#数据加载函数def load_mnist(path, kind='train'): """load mnist date Args: ...原创 2020-03-20 22:11:12 · 1119 阅读 · 3 评论 -
迁移学习与代码举例
迁移学习出现背景在有监督的机器学习和尤其是深度学习的场景应用中,需要大量的标注数据。标注数据是一项枯燥无味且花费巨大的任务,关键是现实场景中,往往无法标注足够的数据。而且模型的训练是极其耗时的。因此迁移学习营运而生。传统机器学习(主要指监督学习)基于同分布假设需要大量标注数据然而实际使用过程中不同数据集可能存在一些问题,比如数据分布差异标注数据过期训练数据过期,也就是好不容易标定...原创 2020-03-18 16:40:34 · 14589 阅读 · 4 评论 -
Seq2Seq与Attention
一、seq2seq对于序列数据常用的深度学习结构是RNN,但是普通RNN的结构存在缺陷,比如梯度消失,输入序列与输出序列要求等长等问题。这在许多情况下,比如翻译、生成总结等,RNN没有很好的效果。为了解决RNN梯度消失问题,提出了lstn结构,但是仍没有解决输入序列与输出序列要求等长的问题。Sequence-to-sequence(seq2seq)解除了输入和输出序列等长和长度固定的问题。一个...原创 2020-03-16 16:16:49 · 662 阅读 · 0 评论 -
Batch Normalization原理理解与Tensorflow实现
一、原始神经网络层和Internal Covariate Shift问题在原始DNN中,隐藏层(HiddenLayer)将输入x通过系数矩阵W相乘得到线性组合z=Wx,再通过激活函数a=f(z),得到隐藏层的输出a(X可以为输入层输入或者上一个隐藏层的输出),具体结构如下:图中为一个批次(batch)的样本在隐藏层的传播过程。由于批次的不断传入和训练,DNN内部参数在不断改变,导致每一次隐藏...原创 2020-03-14 20:27:38 · 1736 阅读 · 0 评论 -
FM、DeepFM原理和Tensorflow代码解读
本文主要讲述FM的推导,DeepFM结构与DeepFM的tensorflow代码解读FM算法当我们在使用LR(多元线性回归时)并没有考虑特征交叉项对目标的影响。当我们加入交叉项时,多元线性回归变为以下形式:(注,在计量中,上面形式仍为线性回归,最小二乘依然是有效的)这样做的好处考虑的特征之间的相互效应,模型的精度会上升。但代价是模型参数量大量增加(算法由O(n)变为O(n^2)。对此,可...原创 2020-03-12 20:40:54 · 1082 阅读 · 0 评论 -
卷积神经网络CNN相关模型python案例(LeNet-5、Inception_v3)
一、卷积神经网络CNN卷积神经网络是通过卷积层(convolutions)和池化层(pooling)将特征从多个的通道(channel)生成Feature Map,再通过全连接网络(full connections)得到最终输出的一种神经网络结构。卷积神经网络的结构通常如下:输入−>(卷积层convolution×N+采样层pooling)×M−>全连接层FC×K\mathrm{...原创 2019-12-16 17:56:59 · 3609 阅读 · 1 评论