神经网络
文章平均质量分 78
uodgnez
这个人很懒,还没有添加简介
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
多尺度卷积
比如说,输出y4可以是x4经过一次卷积,也可以是x3经过2次卷积,还可以是x2经过三次卷积。如下图,黄色部分表示高频特征图,蓝色部分表示低频特征图。作者还提到,不仅在普通的卷积中可以改造成八度卷积的方法,对于分组和可分离卷积同样也是适用的。而且八度卷积是一个可插拔的整体操作,基本上只需要在特定位置上改成相应的八度卷积即可,卷积参数基本上保持不变,只是增加了一个低频占比的参数,以及在输入输出的特征图上分成了高频和低频部分。针对冗余问题,作者降低低频特征图的分辨率,即降低低频特征图的空间维度。原创 2023-07-20 14:51:34 · 6506 阅读 · 0 评论 -
SSD网络介绍
目标检测(object detection)的目的就是找出图像中所有感兴趣的目标,确定他们的类别和位置。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等许多因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。在Base Layer的基础上,作者将VGG16中的FC6,FC7改成了卷积层Conv6,Conv7,并且同时添加了Conv8,Conv9,Conv10,Conv11这几个特征层用于目标检测。:在多个尺度上进行目标检测以提高精度。:reshape后 大小为。原创 2023-07-20 09:28:47 · 1774 阅读 · 0 评论 -
pytorch实现pix2pix模型的搭建
pix2pix然后放入同一个文件夹即可原创 2023-03-01 17:42:04 · 1671 阅读 · 5 评论 -
迁移学习(Transfer Learning)
1. 迁移学习1.1 Motivation能在一个任务上学习一个模型,然后用其来解决相关的别的任务,这样我们在一个地方花的时间,学习的一些知识,研究的一些看法可以在可以在另外一个地方被使用到;在深度学习中我们会训练很多深层的神经网络, 训练这些神经网络需要大量(带标签)数据,同时训练的代价非常高。就是说,我们很难对每一个任务都去制作一个巨大的数据集去训练。如果我们在一个任务上训练好的模型,能在其他地方使用,效果最好。1.2 Approaches训练好一个模型,然后把它做成一个特征提取的原创 2022-03-30 14:37:13 · 5858 阅读 · 0 评论 -
VDSR神经网络
残差超分辨率网络原创 2022-01-28 14:01:11 · 7310 阅读 · 0 评论 -
ESPCN神经网络
ESPCN:加入亚像素卷积层的神经网络原创 2022-01-24 22:16:57 · 5490 阅读 · 0 评论 -
FSRCNN神经网络
FSRCNN——SRCNN的改进版原创 2022-01-20 13:30:07 · 5904 阅读 · 0 评论 -
SRCNN神经网络
SRCNN:一种用于单图像超分辨率的深度学习方法原创 2022-01-18 15:02:40 · 17148 阅读 · 4 评论 -
U-Net神经网络
0 引言随着深度学习领域中各类算法的迅速发展,卷积神经网络(CNN)被广泛应用在了分类任务上,输出的结果是整个图像的类标签。在生物医学领域,医生需要对病人的病灶区域进行病理分析,这时需要一种更先进的网络模型,即能通过少量的图片训练集,就能实现对像素点类别的预测,并且可以对像素点进行着色绘图,形成更复杂、严谨的判断。于是U-Net网络被设计了出来。1 U-Net概念及原理U-Net网络结构最早由Ronneberger等人于2015年提出。该图像的核心思想是引入了跳跃连接,使得图像分割的精度大大提升。U原创 2022-01-11 18:14:26 · 30817 阅读 · 0 评论 -
CNN系列框架
深度学习的思想被提出后, 卷积神经网络在计算机视觉等领域取得了快速的应用, 有很多经典、有意思的网络框架也应然而生.1. LeNet-5LeNet-5卷积网络是由LeCun在1998年发表的《Gradient-Based Learning Applied to Document. Recognition》中提出的网络框架. 这是最早的一类卷积神经网络, 其在数字识别领域的应用方面取得了巨大的成功 (手写字体识别).在LeNet-5中, 输入为 32×3232 \times 3232×32 的灰度图像原创 2021-11-09 20:24:26 · 3116 阅读 · 0 评论 -
Tensorflow训练简单神经网络
虽说闵老板不支持“调包侠”的行为,但y1s1,tensorflow作为工具使用来说,还是挺不错的。本文就基于tensorflow简单实现了一个神经网络的训练。tensorflow基础教学同时在油管上也看了莫烦老师的视频,按着自己想法写了个不知道啥的神经网络,如下:import tensorflow.compat.v1 as tfimport numpy as nptf.disable_v2_behavior()def add_layer(inputs, in_size, out_s原创 2021-07-21 18:44:17 · 741 阅读 · 0 评论 -
深度学习之神经网络(二)
深度学习之神经网络(一)在前面文章中,我们已经系统了解了神经网络的部分概念,以及如何去搭建一个简单的神经网络模型。这篇文章我将主要讲解损失函数、反向传播等神经网络知识。1. 损失函数之前我们已经提到,损失函数就是用来计算我们的结果与真实值之间的误差,从而指导进一步的训练向正确的方向进行。损失函数可以分为两大类:回归、分类。1.1 回归损失1.1.1 MAE(Mean Absolute Error)MAE为平均绝对误差,简单说就是计算输出值与真实值之间的误差绝对值大小的平均值。MA原创 2021-07-12 11:44:15 · 744 阅读 · 0 评论 -
深度学习之神经网络(一)
其中与大佬交流后,项目需要神经网络技术支撑。但恕本人才疏学浅,之前对这方面了解甚少,本贴就作为我的学习笔记。1.神经网络神经网络是深度学习的重要算法,在图像(如图像的分类、检测)和自然语言处理(如文本分类、聊天)有很多应用。人工神经网络(Artificial Neural Network),也简称为神经网络,是一种模仿生物神经网络(大脑)结构和功能的计算模型。经典的神经网络结构包含三个层次,即输入层、隐藏层、输出层。其中,每层的圆圈代表一个“神经元”,“神经元”之间的连线对应不同..原创 2021-07-07 13:58:30 · 1793 阅读 · 0 评论
分享