
神经网络
qq_29566629
热爱生活,热爱安全,热爱编程
展开
-
使用python实现简单神经网络
# **使用python实现简单神经网络** 根据博主的经历,许多人在学习神经网络的时候都存在眼高手低的情况,或者对那宛如天书一样的数学公式望而却步,作为一个刚刚入门的菜鸟,接触到了一个大牛写的实现神经网络的小程序,受益匪浅,在这里和大家分享一下。 话不多说,直接上代码#coding=utf-8import numpy ...原创 2018-10-23 20:13:46 · 362 阅读 · 0 评论 -
卷积神经网络中padding后计算输出大小公式
转载地址:https://blog.youkuaiyun.com/weixin_43469047/article/details/89337027转载 2019-08-21 16:44:26 · 657 阅读 · 0 评论 -
CNN与计算机视觉(一) 图片预处理
1.零均值化(数据归一化的一种形式):将输入的图像减去数据集中的红色、绿色和蓝色三个颜色通道的平均值。2.patch Preprocessing:在训练过程中,随机从原始图像中提取MxN大小特征图像。3.过采样:在测试时,对输入图像的五个区域(四个角+中心区域)进行裁剪并且对剪裁之后的特征图像进行水平翻转,总共会得到10张特征图像。...原创 2019-06-20 18:37:29 · 2400 阅读 · 0 评论 -
FP,FN,TP,TN
FP,FN,TP,TNTP:预测为正向(P),实际上预测正确(T),即判断为正向的正确率TN:预测为负向(N),实际上预测正确(T),即判断为负向的正确率FP:预测为正向(P),实际上预测错误(F),误报率,即把负向判断成了正向FN:预测为负向(N),实际上预测错误(F),漏报率,即把正向判断称了负向准确率Accuracy=(TP+TN) / (TP+FP+TN+FN), 即预测正确的...原创 2019-05-27 16:28:19 · 749 阅读 · 0 评论 -
以Kaggle中猫狗大战为例,总结图像分类问题的一般步骤
前言一直在学习计算机视觉方面的基础知识,前几天接触到了第一个实际的使用CNN来进行图像分类的Kaggle上的猫狗分类的问题,虽然最后效果不太理想,但是个人觉得对于图像分类问题,这个项目的解决过程和方法具有很强的借鉴意义,这里进行一次详细的总结。项目条件ubuntu 18.04 LTStensorflow-gpupycharmGTX 1050Kaggle 竞赛网址:https://w...原创 2019-05-15 15:08:03 · 1721 阅读 · 0 评论 -
tf.nn.in_top_k的用法
tf.nn.in_top_k组要是用于计算预测的结果和实际结果的是否相等,返回一个bool类型的张量,tf.nn.in_top_k(prediction, target, K):prediction就是表示你预测的结果,大小就是预测样本的数量乘以输出的维度,类型是tf.float32等。target就是实际样本类别的标签,大小就是样本数量的个数。K表示每个样本的预测结果的前K个最大的数里面是否含有...转载 2019-05-10 14:29:31 · 187 阅读 · 0 评论 -
tensorflow 中 tf.nn.max_pool参数含义和用法
max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似有些地方可以从卷积去参考【TensorFlow】tf.nn.conv2d是怎样实现卷积的?tf.nn.max_pool(value, ksize, strides, padding, name=None)参数有四个,和卷积很类似:第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是featu...原创 2019-05-10 12:06:52 · 1681 阅读 · 0 评论 -
tensorflow 中 tf.nn.conv2d的用法
tf.nn.conv2d是TensorFlow里面实现卷积的函数,形式如下:tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, ...原创 2019-05-10 11:07:06 · 163 阅读 · 0 评论 -
tensorflow 中的Graph 和 Session
本篇博客参考网址:https://www.cnblogs.com/jiaxblog/p/9054051.html(侵删)graph即tf.Graph(),session即tf.Session(),很多人经常将两者混淆,其实二者完全不是同一个东西。graph定义了计算方式,是一些加减乘除等运算的组合,类似于一个函数。它本身不会进行任何计算,也不保存任何中间计算结果。session用来运行一个g...转载 2019-05-20 10:37:48 · 185 阅读 · 0 评论 -
tensorflow中协调器 tf.train.Coordinator 和入队线程启动器 tf.train.start_queue_runners
TensorFlow的Session对象是支持多线程的,可以在同一个会话(Session)中创建多个线程,并行执行。在Session中的所有线程都必须能被同步终止,异常必须能被正确捕获并报告,会话终止的时候, 队列必须能被正确地关闭。TensorFlow提供了两个类来实现对Session中多线程的管理:tf.Coordinator和 tf.QueueRunner,这两个类往往一起使用。Coor...原创 2019-05-09 15:09:20 · 144 阅读 · 0 评论 -
tensorflow tf.train.Saver()在网络模型参数保存以及提取时的用法
前言在辛辛苦苦跑了几个小时甚至几天之后,你训练出了几十万个或者更多的参数,那么你肯定不想只使用这些参数仅仅一次,那么就涉及到这些参数的保存以及提取,幸运的是,tensorflow已经帮我们集成好了相关函数,就是接下来要介绍的tf.train.Saver() 类。tf.train.Saver()一 . 用于保存权重和偏重(参数)在使用之前要先实例化一个类,例如以下代码:saver =...原创 2019-05-13 20:50:00 · 1582 阅读 · 0 评论 -
tensorflow中tf.reduce_prod()函数的使用
降纬函数tensorflow 里有一类函数是以reduce开头的,reduce 有减少的意思,这里就是减少纬度的意思。reduce_prod()先上一波官网解释:reduce_prod( input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)参数:...原创 2019-05-13 18:29:03 · 4235 阅读 · 0 评论 -
深度学习各大框架比较
前言为了针对不同的项目,使用不同的特制框架,这里对现在业界使用较为广泛的框架进行总结,后续随着各大框架的发展,会持续更新。1.tensorflow深度学习研究的热潮持续高涨,各种开源深度学习框架也层出不穷,其中包括TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、Leaf、Theano、DeepLearning4、Lasagne、Neon,等等。然而Tenso...转载 2019-04-22 10:11:00 · 781 阅读 · 0 评论 -
使用face recognition为女神们脸部识别
face recognition 项目实际使用最近在一个公众号上看到一个推荐的github上的项目,号称是最简单,最容易上手的人脸识别项目,折腾了两天才算把这个模块装好,其实大部分时间都花在了安装各种依赖包上,cmake,boost,dlib等,中间也踩了不少坑,有空再写一篇安装的教程,花了,废话不多说,开始项目的使用。1.前提要求Ubuntu 18.04.1 LTSpython 2.7...原创 2019-02-21 20:35:27 · 464 阅读 · 0 评论 -
标准卷积和深度可分离卷积对比详解
前言在卷积的细节方面老是觉得不太清楚,今天总结了一下,顺带总结下深度可分离卷积,对比如下:标准卷积情况如下:相对于标准卷积,mobileNet中的深度可分离卷积情况如下,分为DepthWise和PointWise两个过程:对比情况如下:...原创 2019-09-22 22:09:05 · 4142 阅读 · 0 评论