
深度学习
文章平均质量分 84
23#.lsy
所谓自由,不是随心所欲,而是自我主宰
展开
-
【深度学习】pix2pix GAN理论及代码实现
Pix2pixgan本质上是一个cgan,图片x作为此cGAN的条件,需要输入到G和D中。G的输入是x(x是需要转换的图片),输出是生成的图片G(x)。D则需要分辨出(x,G(x))和(x,y)pix2pixGAN主要用于图像之间的转换,又称图像翻译。...原创 2022-08-09 08:00:00 · 6024 阅读 · 14 评论 -
CGAN理论讲解及代码实现
CGAN生成的图像虽然有很多缺陷,譬如图像边缘模糊,生成的图像分辨率太低,但是它为后面的pix2pixGAN和CycleGAN开拓了道路,这两个模型转换图像网络时对属性特征的处理方法均受到CGAN启发。针对原始GAN不能生成具有特定属性的图片的问题,Mehdi Mirza等人提出了CGAN,其核心在于将属性信息y融入生成器和判别器中,属性y可以是任何标签的信息,例如图像的类别,人脸图像的面部表情等。生成的图像是随机的,不可预测的,无法控制网络输出特定的图片,生成目标不明确,可控性不强。...原创 2022-08-07 00:26:26 · 6822 阅读 · 6 评论 -
人工神经网络
这一学派认为,对于人工智能的研究应该立足于现代计算机的物理属性和体系结构,用数学和逻辑推理的方法从现有的计算机中获得确定性的知识,而不是一味的强调对人脑的模仿,这一学派是人工智能的数理学派,比如支持向量机就是这一学派的典型代表,而马上要学到的人工神经网络就是仿生学派的典型代表。在前馈网络当中,各个神经元按接受信息的先后分为不同层,每一层中的神经元接收前一层神经元的输出,经过计算后,输出到下一层神经元,整个网络中的信息是朝一个方向传播的,没有反向的信息。E是权重w的函数,何如找到使得函数值最小的w。...原创 2022-07-31 08:09:24 · 674 阅读 · 0 评论 -
DCGAN理论讲解及代码实现
DCGAN也叫深度卷积生成对抗网络,DCGAN就是将CNN与GAN结合在一起,生成模型和判别模型都运用了深度卷积神经网络的生成对抗网络。DCGAN将GAN与CNN相结合,奠定了之后几乎所有GAN的基本网络架构。DCGAN极大地提升了原始GAN训练的稳定性以及生成结果的质量...原创 2022-07-19 00:31:20 · 19264 阅读 · 21 评论 -
基础GAN实例(pytorch代码实现)
输出是长度为100的噪声(正态分布随机数)输出为(1,28,28)的图片linear1100---256linear2256--512linear3reshapenn.Tanh()#对于生成器,最后一个激活函数是tanh,值域-1到1)#定义前向传播#x表示长度为100的noise输入img=img.view(-1,28,28)#转换成图片的形式输入为为(1,28,28)的图片,输出为二分类的概率值,输出使用sigmoid的激活0-1BCEloss计算交叉熵损失。...原创 2022-07-16 22:24:22 · 8704 阅读 · 21 评论 -
【深度学习】损失函数(平均绝对误差,均方误差,平滑损失,交叉熵,带权值的交叉熵,骰子损失,FocalLoss)
损失函数是用于衡量模型所作出的预测离真实值(Ground Truth)之间的偏离程度。。俗话说,任何事情必然有它的两面性,因此,并没有一种万能的损失函数能够适用于所有的机器学习任务,所以在这里我们需要知道每一种损失函数的优点和...原创 2022-07-11 23:09:54 · 7110 阅读 · 0 评论 -
【经典卷积网络】ResNet理论讲解
我们知道在越深层的神经网络模型中,卷积层和池化层的数量就越多,而卷积和池化的目的是为了特征提取,所以理论上来讲越深层的网络会输出表示能力越强的特征 但是,我们发现在做实验时最深的56层网络得到了最高的错误率。说明了网络衰退的问题确实存在,即随着深度的增加,网络的性能会越来越差,残差网络就是解决这个问题的。那残差网络具体做了什么工作呢?下面来具体解释以上两点第一点(让深度网络后面的层实现恒等映射)的**解释**:恒等映射可以理解成:在某一层的输出已经很好的体现图像的特征了,后续的网络不能改变这些特征,即所谓恒原创 2022-07-11 22:31:57 · 416 阅读 · 0 评论 -
AlexNet代码实现
这次的课程我们就来复现一次`AlexNet`, 首先来看它的网络结构可以看出`AlexNet`就是几个卷积池化堆叠后连接几个全连接层, 下面就让我们来尝试仿照这个结构来解决[cifar10]分类问题. 依照上面的结构,我们定义AlexNet打印一下这个网络 我们验证一下网络结构是否正确,输入一张32×32的图片,看看输出 可以看到,训练 20 次,AlxeNet 能够在 cifar 10 上取得 70% 左右的测试集准确率...原创 2022-07-10 20:04:38 · 1697 阅读 · 0 评论 -
【经典神经网络】ResNet实现
ResNet 通过引入了跨层链接解决了梯度回传消失的问题。¶ 这就普通的网络连接跟跨层残差连接的对比图,使用普通的连接,上层的梯度必须要一层一层传回来,而是用残差连接,相当于中间有了一条更短的路,梯度能够从这条更短的路传回来,避免了梯度过小的情况。假设某层的输入是 x,期望输出是 H(x), 如果我们直接把输入 x 传到输出作为初始结果,这就是一个更浅层的网络,更容易训练,而这个网络没有学会的部分,我们可以使用更深的网络 F(x) 去训练它,使得训练更加容易,最后希望拟合的结果就是 F(x) = H(x)原创 2022-07-09 15:36:10 · 797 阅读 · 0 评论