
机器学习
文章平均质量分 83
fang_chuan
打打杂啦
展开
-
tensorflow安装问题总结
今天心血来潮安装了一把tensorflow,跟着《tensorflow-without-a-phd》教程走的,但是一直爆出各种错误,折腾了一下午。Ubuntu/Linux: sudo -H apt-get install git sudo -H apt-get install python3 sudo -H apt-get install python3-matplotlib su...原创 2018-07-14 20:21:49 · 406 阅读 · 2 评论 -
MobileNetV2论文笔记
原文链接:https://blog.youkuaiyun.com/Dlyldxwl/article/details/79101293论文:Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation.Introduction本文是谷歌公司的又一新作...转载 2019-06-29 15:59:31 · 2322 阅读 · 0 评论 -
理解LSTM网络
英文原文链接:Understanding LSTM Networks转载原文地址:(译)理解 LSTM 网络 (Understanding LSTM Networks by colah)前言:其实之前就已经用过 LSTM 了,是在深度学习框架 keras 上直接用的,但是到现在对LSTM详细的网络结构还是不了解,心里牵挂着难受呀!今天看了 tensorflow 文档上面推荐的这篇博文,看...转载 2019-04-09 15:22:31 · 731 阅读 · 0 评论 -
tf.name_scope()、tf.variable_scope()变量共享问题
今天在查阅tf.variable_scope()时看到一篇博文对tf中scope的解释很全面,特此转载记录。1. tf.name_scope('scope_name')或tf.name_scope(named_scope)主要与tf.Variable搭配使用;当传入字符串时,用以给变量名添加前缀,类似于目录,如case1所示;当传入已存在的name_scope对象时,则其范围内变量...转载 2019-03-07 19:31:30 · 841 阅读 · 0 评论 -
tf.one_hot()用法与理解
前几天看代码时遇到tf.one_hot()函数,当时没太关注,代码正常运行就OK,终于有时间回头好好看看这个函数。 先来看看官方文档上的解释:tf.one_hot( indices, depth, on_value=None, off_value=None, axis=None, dtype=None, name=No...原创 2019-03-14 20:35:17 · 20170 阅读 · 3 评论 -
神经网络中的1x1卷积核
本文参考自CVer公众号的文章"一文读懂神经网络中的1x1卷积核",但我在读他的文章时觉得作者对1x1卷积核的理解或阐述有失偏颇,特此记文来发表我的看法,文中图片都摘自CVer的博文。在介绍卷积神经网络中的1x1卷积之前,首先回顾卷积网络的基本概念。1. 卷积核(convolutional kernel):可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能...转载 2019-02-24 23:16:03 · 2242 阅读 · 0 评论 -
tf.expand_dims和tf.squeeze函数
tf.expand_dims()Functiontf.expand_dims(input, axis=None, name=None, dim=None)Inserts a dimension of 1 into a tensor’s shape. (给input的形状在第axis位置增加一个维度)Given a tensor input, this operation inser...转载 2019-02-23 12:31:00 · 477 阅读 · 0 评论 -
神经网络中常见的激活函数
原文地址。2019-03-15补充: 26种激活函数的可视化.不管是传统的神经网络模型还是时下热门的深度学习,我们都可以在其中看到激活函数的影子。所谓激活函数,就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常见的激活函数包括 **Sigmoid、TanHyperbolic(tanh)、ReLu、 softplus、softmax** 这些函数有一个共同的特点那就是...转载 2019-02-22 19:26:53 · 3802 阅读 · 0 评论 -
tensorflow中常见的损失函数
今天在构建一个卷积网络时看到书上例程里用的tf.nn.sparse_softmax_cross_entropy_with_logits()这个函数,打开Documentation看了没太明白,特地讲三种常见的loss function归纳总结下。1、对数概率logit首先解释什么是logit.我们在学ML时一开始都是使用线性模型进行回归学习,其实线性模型也可以进行分类:对给定数据集(X...转载 2019-02-21 19:34:43 · 8077 阅读 · 0 评论 -
强化学习(一)Deep Q-Network
今天在看tensorflow-without-a-phd视频教程时,看到强化学习那一章时略有所思,随做记录。tensorflow-without-a-phd所有教程,三步视频教程(带英文字幕)。原文地址。1. 前言虽然将深度学习和增强学习结合的想法在几年前就有人尝试,但真正成功的开端就是DeepMind在NIPS 2013上发表的 Playing Atari with Deep ...转载 2018-09-16 19:19:01 · 4668 阅读 · 0 评论 -
U-Net网络详解
U-Net: Convolutional Networks for Biomedical Image Segmentation原文地址:https://zhuanlan.zhihu.com/p/43927696前言U-Net是比较早的使用全卷积网络进行语义分割的算法之一,论文中使用包含压缩路径和扩展路径的对称U形结构在当时非常具有创新性,且一定程度上影响了后面若干个分割网络的设计,该网...转载 2019-07-07 10:02:26 · 162950 阅读 · 12 评论