deep learning
Lwang2018
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
tenflow中的tf.where()用法
tf.where的函数调用为tf.where(condition, x = None, y = None, name = None)根据condition判定返回, condition是True,选择x;condition是False,选择y。换句话说condition中元素为True的元素替换为x中的元素,为False的元素替换为y中对应元素, x只负责对应替换True的元素,y只负责对...原创 2019-06-25 19:22:02 · 1829 阅读 · 0 评论 -
医学图像分割中常用的loss函数
loss函数的选择是个很大的命题,最近在做3D医学图像分割,我这里只是记录一下我用过的loss函数。Binary Cross Entropy Loss交叉熵损失比较常用,代码实现:from keras import backend as Kdef binary_crossentropy(y_true, y_pred): return K.mean(K.binary_cross...原创 2019-08-11 16:59:16 · 3768 阅读 · 0 评论 -
tensorflow: 模型恢复及使用模型进行测试
tensorflow模型选择采用ckpt文件格式进行保存的时候,会有四个文件:checkpoint3D_unet18001.ckpt.meta3D_unet18001.ckpt.index3D_unet18001.ckpt.data-00000-of-00001把这四个看做一个整体即可,不用单独处理。aim_shape = (128,128,96)def prediction(m...原创 2019-08-13 10:02:47 · 564 阅读 · 0 评论 -
[Deep Learning] 计算机视觉中的注意力机制 Attention mechanism
最近想要往网络里面加一些注意力机制的模块,从网上整理了一些资料,了解一下attention mechanism.什么是Attention机制?没有找到attention的准确定义,但是我理解的注意力机制是这样的:当我们在看一个东西时,我们会把我们的注意力集中在某些部位,忽略其他部位,比如我们看见一个人的脸的时候,我们最关注的可能是他的眼睛,其次是他的鼻子。所以说,我们对于目标物体不同的部分分...原创 2019-09-16 16:53:46 · 2607 阅读 · 0 评论
分享