
神经网络
JohnieLi
cs qq:1187426712
展开
-
从训练集Label到神经网络预测的简单思路
思路如下:1. 导入各种模块 2. 导入数据(以两类分类问题为例,即numClass = 2)3. 将导入的数据转化我keras可以接受的数据格式keras要求原创 2017-08-04 10:23:15 · 3444 阅读 · 0 评论 -
从理解RNN到LSTM 网络
人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。 传统的神经网络并不能做到这点,看起来也像是一种巨大的弊端。例如,假设你希望对电影中的每个时间点的时间类型进行分类。传统的神经网络应该很难来处理这个问题——使用电影中先前的事件推断转载 2017-08-30 11:05:43 · 1435 阅读 · 1 评论 -
Rectified Linear Units, 线性修正单元激活函数
ReLU在神经网络中,常用到的激活函数有sigmoid函数:f(x)=11+e−x而本文要介绍的是另外一种激活函数,Rectified Linear Unit Function(ReLU, 线性激活函数) ReLU函数可以表示为f(x)=max(0,x)显然,线性激活函数简单地将阈值设置在零点,计算开销大大降低,而且很多工作显示 ReLU 有助于提升效果sigmoid、tanh、ReLU、soft转载 2017-10-11 13:26:25 · 2470 阅读 · 0 评论 -
17种GAN变体的Keras实现
从2014年诞生至今,生成对抗网络(GAN)始终广受关注,已经出现了200多种有名有姓的变体。这项“造假神技”的创作范围,已经从最初的手写数字和几百像素小渣图,拓展到了壁纸级高清照片、明星脸,甚至艺术画作。心痒难耐想赶快入门?通过自己动手、探索模型代码来学习,当然是坠吼的~如果用简单易上手的Keras框架,那就更赞了。一位GitHub群众eriklindernoren就发布了17种...转载 2018-03-17 20:05:34 · 13220 阅读 · 1 评论 -
从SRCNN到EDSR,总结深度学习端到端超分辨率方法发展历程
超分辨率技术(Super-Resolution, SR)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。本文针对端到端的基于深度学习的单张图像超分辨率方法(Single Image Super-Resolution, SISR),总结一下从SRCNN到...转载 2018-12-18 11:15:04 · 998 阅读 · 0 评论