深度学习
普通网友
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习
深度学习原创 2018-05-06 11:10:20 · 381 阅读 · 0 评论 -
训练神经网络
该版本为tensorflow+keras版本一、工具cuda与cudnn安装请参考我之前博客: http://blog.youkuaiyun.com/l297969586/article/details/53320706 http://blog.youkuaiyun.com/l297969586/article/details/67632608 tensorflow安装: http://blog.csdn...原创 2018-07-10 11:13:26 · 683 阅读 · 0 评论 -
代码解读记录
Dataset: image_info = [ {“source”: “id”: “path”: “width”: “height”: “mask_path”: “yaml_path”: }, { }, { }… ] 用add_image()添加 class_info = [ {“source”: “id”: “name”: }, { }, { }… ] 用add_cla...原创 2018-07-21 14:39:52 · 885 阅读 · 0 评论 -
目标检测--论文解读--SIN(CVPR2018)
Structure Inference Network(SIN) 同时利用了 scene context 和 object relationships。 使用RNN进行目标检测。原创 2018-08-01 15:31:06 · 1405 阅读 · 0 评论 -
Tensorflow笔记
tf.nn.top_k(input, k, name=None)解释:这个函数的作用是返回 input 中每行最大的 k 个数,并且返回它们所在位置的索引。原创 2018-08-19 19:07:35 · 640 阅读 · 0 评论 -
卷积神经网络CNN的一些基础概念理解
Relu函数的导数计算先从最简单的开始,Relu激活在高等数学上的定义为连续(局部)不可微的函数,它的公式为 Relu(x)= x, x>0 0, x≤0其在x=0处是不可微的,但是在深度学习框架的代码中为了解决这个直接将其在x=0处的导数置为0或1,所以它的导数也就变为了 δRelu(x)= 1, x>0 0, x<=0 Pooling池化原创 2018-08-17 20:50:41 · 691 阅读 · 0 评论
分享