
Keras
Atomwh
中南大学计算机专业研究生,目前研究方向为深度学习与医学影像处理。希望能与各位多多交流~
个人邮箱:haowei@csu.edu.cn
展开
-
Keras自定义Loss函数
前言Keras本身提供了很多常用的loss函数(即目标函数),但这些损失函数都是比较基本的、通用的。有时候我们需要根据自己所做的任务来自定义损失函数,虽然Keras是一个很高级的封装,自定义loss还是比较简单的。这里记录一下自定义loss的方法,一为助记、二为助人。官方定义的损失函数第一种方式:自定义一个函数自定义loss函数之前,我们可以看看Keras官方是如何定义loss原创 2018-01-13 12:00:09 · 61532 阅读 · 11 评论 -
TensorFlow函数:tf.where
前言最近在研究Focal Loss的Keras实现过程中,由于要实现类似交叉熵的函数,需要将label图像中class=1和class=0的位置拿出来,以寻找在该位置对应的CNN预测值。经过百度查找,发现有人使用tf.where来实现这个功能,但看官方文档看来好久(下午+晚上)才看明白这个函数是如何使用的,特在此记录下。 之后会专门写一篇有关Focal Loss的Keras实现的博客原创 2018-01-12 21:49:13 · 47483 阅读 · 4 评论 -
Keras官方示例代码解释(1):variational autoencoder
前言Keras源码中附有一个examples的文件夹,里面包含一些使用Keras进行编写的常用的神经网络模型,如CNN、LSTM、ResNet等。这些例子基本上是Keras学习入门必看的,作为Keras的学习者,就在这里记录一下examples中的代码解析,一为自身记忆,二为帮助他人。源码这里解析的源码是变分自动编码器(variational autoencoder,VAE),其是原创 2018-01-08 16:14:30 · 10321 阅读 · 7 评论 -
反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)
前言在看图像语义分割方面的论文时,发现在网络解码器结构中有的时候使用反卷积、而有的时候使用unpooling或或者unsampling,查了下资料,发现三者还是有不同的。这里记录一下。图示理解使用三张图进行说明: 图(a)表示UnPooling的过程,特点是在Maxpooling的时候保留最大值的位置信息,之后在unPooling阶段使用该信息扩充Feature Map,除最大值原创 2018-01-27 16:06:18 · 53305 阅读 · 26 评论