tensorflow
Lingerzxx
一包烟一杯茶,一行代码熬断肠。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
在TF.DATASET和keras的ImageDataGenerator中应用CV2完成复杂图像处理
前言在深度学习的实际工作和比赛中,对于小规模数据集我们可以采用运用opencv的各种操作处理,然后全部读取到内存中再传入tf.data.dataset的pipline完成数据读取(tf.data.dataset的预处理在一般情况只支持TF预置的一些简单图像操作)。但是在大规模数据集中,这种是方案需要大量消耗内存,对于我们这种平民玩家是不可行的方案。对于这种情况,有两个解决方法(是我个人常用的两种...原创 2019-08-03 12:37:50 · 842 阅读 · 0 评论 -
经典CNN论文系列之ResNet(包含tensorflow 代码实现)
摘要总结一下作者在摘要中简明扼要的提出了Resnet解决了什么问题以及其优越性:针对深层神经网络难以训练,提出了一种残差学习框架来简化网络训练,这些网络可以比以前使用的网络要深入得多。通过重复利用已学习过的参考层输出,将层重新表示为参考层输出与当前层的和。因为参考层的输出是以及学习过的,而不是未学习的函数。所以添加这样子的框架并不会给网络带来参数的巨大增加。对比了VGG网络,实验表明即...原创 2019-08-10 14:51:02 · 937 阅读 · 0 评论 -
经典CNN论文系列之 VGG(包含tensorflow代码)
摘要这篇论文的主题其实在其论文名就能看出来,VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION即,用于大规模图像识别的深度卷积网络。我概述一下这篇文章的摘要:研究了卷积网络的深度对其在大规模图像一些识别设置中的精度影响。(主要贡献是使用一个非常小(3x3x3)卷积滤波器代替了7X7的卷积滤波器)提出了一种深度...原创 2019-08-10 16:45:53 · 556 阅读 · 0 评论 -
神经网络训练的一些方法
前言许多神经网络不WORK的原因在于逻辑与语法的错误,我们可以分单元逐个测试排除错误。但这只是训练神经网络的一个开始。一切都可能在语法上正确,但整个事情没有妥善安排,而且很难说清楚。“可能的错误表面”是大的,逻辑的(与语法相反),并且对单元测试非常棘手。例如,在数据增强期间左右翻转图像时,您可能忘记翻转标签。您的网络仍然可以(令人震惊地)工作得非常好,因为您的网络可以在内部学习检测翻转的图像,然...原创 2019-08-20 15:58:12 · 4487 阅读 · 0 评论 -
CNN经典论文系列之 Inception(包含tensorflow代码)
摘要大名鼎鼎的的Inception系列网络,是由Google Inc在2018年9月发布的“Going deeper with convolutions”,中文意思为更深的卷积。由此也可见一斑,该文章在深度神经网络的结构大做文章。提出了一种代号为Inception的深度卷积神经网络结构,并在分类和检测上取得了新的最好结果。inception体系结构的主要特点是提高了网络内计算资源的利用率。...原创 2019-08-11 21:09:09 · 937 阅读 · 0 评论 -
CNN经典论文系列之 Inception(V1~V4及其他版本比较)
Inception V1Inception v1的网络,将1x1,3x3,5x5的conv和3x3的pooling,堆叠在一起,一方面增加了网络的width,另一方面增加了网络对尺度的适应性。第一张图是论文中提出的最原始的版本,所有的卷积核都在上一层的所有输出上来做,那5×5的卷积核所需的计算量就太大了,造成了特征图厚度很大。为了避免这一现象提出的inception具有如下结构,在3x3...原创 2019-08-12 12:22:59 · 1175 阅读 · 0 评论 -
图像分割的损失
前言记录一下在kaggle图像分割比赛中用到的一些损失函数,基于tensorflow与keras的实现。交叉熵在Keras中,损失函数是binary_crossentropy(y_true, y_pred);在TensorFlow中,它是softmax_cross_entropy_with_logits_v2加权交叉熵加权交叉熵(WCE)是CE的变体,其中所有正例都通过某个系数...原创 2019-08-26 18:57:19 · 2056 阅读 · 0 评论 -
CNN经典论文系列之从Faster R-CNN再到Mask R-CNN
前言这篇文章是记录jiongnima大神那里学习实例分割的过程,地址:https://blog.youkuaiyun.com/jiongnima/article/details/79094159。在当前的目标检测、实例分割领域中这两个大名鼎鼎的cnn网络可谓是一枝独秀。至于为什么要把他们两放到一起说,那是因为Mask R-CNN的大量工作是继承与Faster R-CNN。我们先从Faster R-CNN讨...原创 2019-08-27 21:26:51 · 372 阅读 · 0 评论
分享