
Python
文章平均质量分 76
Liu_Goodfellow
Healthy and happy every day
展开
-
C++调用PyTorch一个简单实现 附(从下载安装到输出例子)
目录关于PyTorch关于LibTorch安装卸载例子关于PyTorchPyTorch是一个Python包,提供了两个高级特性:-强大的GPU加速张量计算(如NumPy)-深度神经网络建立在一个基于磁带的autograd系统您可以在需要时重用您喜欢的Python包(如NumPy、SciPy和Cython)来扩展PyTorch。关于LibTorch从PyTorch版本迭代...原创 2020-02-16 11:32:36 · 998 阅读 · 0 评论 -
《机器学习实战》笔记(十五):Ch15 - 大数据与MapReduce
暂未更新Github原创 2020-01-31 13:22:27 · 455 阅读 · 0 评论 -
生成对抗性神经网络
生成对抗性神经网络!!代码地址!!论文作者: Lorna邮箱: shiyipaisizuo@gmail.com英文原版配置需求显卡: A TiTAN V 或更高.硬盘: 128G SSD.Python版本: python3.5 或更高.CUDA: cuda10.CUDNN: cudnn7.4.5 或更高.Tensorflow-gpu: 2.0.0-alpla0.运行以...原创 2019-05-29 21:35:32 · 9984 阅读 · 0 评论 -
什么?不喜欢用PGGAN?那试试IntroVAE!
PGGAN中已经可以生成很棒很真实的图片了,但是由于计算量稍复杂。有人提出使用VAE和GAN的结合体IntroVAE来实现高分辨图像的合成。一、摘要IntroVAE能够自我评估其生成的样品的质量并相应地改进自身。它的推理和生成器模型以内省的方式共同训练。一方面,需要发生器将来自推理模型的噪声输出的输入图像重建为正常VAE。另一方面,鼓励推理模型在生成的样本和实际样本之间进行分类,而生成器试图将...转载 2019-05-29 21:38:21 · 1171 阅读 · 0 评论 -
有关于解决GAN中模型崩塌的一点方法
GAN好是好,但是这个模型崩塌我是真的头大,好好的一个模型跑着跑着就变全噪声了。最近在论文的阅读当中,发现了一篇文章《Progressive growth of glycine to improve quality, stability, and variability》是有关于如何改善辨别器中对于生成器的生成的一些无用信息的剔除。同时可以提高生成图像的分辨率以及增强图片中的纹理和细节。一、摘...原创 2019-05-29 21:38:48 · 6612 阅读 · 0 评论 -
无条件下生成更真实的人脸图像PG-GAN!
code介绍GAN在2015年DCGAN[1]论文提出之后,开始迅速的被关注和被应用到各个领域。比较有影响力的应用,比如Image translation; Image Inpainting; Face image manipulation 以及 Semi-supervised learning等。当然作为当前最有竞争力的生成模型,相对于VAE, GAN虽然不稳定,相对于PixelCNN, ...转载 2019-05-29 21:39:46 · 897 阅读 · 0 评论 -
一个比WGAN更优秀的模型(WGAN-GP)
WGAN-GP (improved wgan)paperGitHubWGAN-GP是WGAN之后的改进版,主要还是改进了连续性限制的条件,因为,作者也发现将权重剪切到一定范围之后,比如剪切到[-0.01,+0.01]后,发生了这样的情况,发现大多数的权重都在-0.01 和0.01上,这就意味了网络的大部分权重只有两个可能数,对于深度神经网络来说不能充分发挥深度神经网络的拟合能力,简...原创 2019-05-29 21:40:09 · 3625 阅读 · 0 评论 -
Wasserstein GAN有这么神!吗?
Wasserstein GAN在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wasserstein GAN》却在Reddit的Machine Learning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢?要知道自从2014年Ian Goodfellow提出以来,GAN就存在着训练困难、生成器和判别器的loss无法指...转载 2019-05-29 21:40:34 · 824 阅读 · 0 评论 -
Pytorch实现GoogLeNet解决各类数据集(cifar10/mnist/imagenet)分类
有一段时间没有更新了,这次我给大家带来的是大名鼎鼎的GoogleNet模型。也可以称为Inception v3模型。参考了源代码,写出了可读性与性能更优的模型,在模型上有些许微调,输入的图片大小是224 x 224 x 3.!!! 图片大小可以任意调节,甚至用来训练CIFAR10也可以。本文先放出代码。完整代码点这里)import torchfrom torch import nnNU...原创 2019-05-29 21:41:12 · 4330 阅读 · 2 评论 -
Pytorch实现AlexNet解决各类数据集(cifar10/imagenet)分类(这可能是最简单的源论文实现了)
AlexNet完整代码地址Why AlexNet very good?为什么Alexnet能在图2012 ImageNet LSVRC-2012 像识别(分类) competition取得这么好的成绩Alexnet的网络结构以及,参数数量的计算为了避免过拟合使用的技巧:Data Augmentation(数据增强),正则化Relu以及dropout,局部响应归一化LRN。对比了多个小...原创 2019-05-29 21:41:35 · 4216 阅读 · 5 评论 -
torchvision.transforms用法介绍
pytorch源码解读之torchvision.transformsPyTorch框架中有一个非常重要且好用的包:torchvision,该包主要由3个子包组成,分别是:torchvision.datasets、torchvision.models、torchvision.transforms。这3个子包的具体介绍可以参考官网:http://pytorch.org/docs/master/tor...翻译 2019-05-29 21:42:15 · 4920 阅读 · 0 评论 -
随机加权平均使得深度学习获得最优的办法
这两篇论文提供了一种简单的方式,通过使用一种巧妙的集成方法提升神经网络的性能。Garipov 等人提出的 “Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs” https://arxiv.org/abs/1802.10026Izmailov 等人提出的 “Averaging Weights Leads...翻译 2020-01-31 13:02:18 · 1100 阅读 · 0 评论 -
《机器学习实战》笔记(十四):Ch14 - 利用SVD简化数据
暂未更新Github原创 2020-01-31 13:21:24 · 281 阅读 · 0 评论 -
《机器学习实战》笔记(十三):Ch13 - 利用PCA来简化数据
暂未更新Github原创 2020-01-31 13:19:57 · 374 阅读 · 0 评论 -
《机器学习实战》ch1 ~ ch15 笔记目录
机器学习实战笔记(附:源代码) 基于 GNU3.0 协议第一部分 分类第一章 机器学习基础(代码)熟悉Python即可。开发机器学习应用程序步骤1.收集数据。2.准备输入数据。3.分析输入数据。4.训练算法。5.测试算法。6.使用算法。掌握numpy函数库基础>> from numpy import *原创 2020-01-31 13:04:04 · 314 阅读 · 0 评论 -
《机器学习实战》笔记(一):Ch1 - 机器学习基础
第一章机器学习基础([代码](https://github.com/shiyipaisizuo/machine_learning_in_action/tree/master/src/ch01)) - 熟悉[Python](https://www.python .org /)即可。 - 开发机器学习应用程序步骤 - < p > 1.收集数据。 - <原创 2020-01-31 13:05:37 · 262 阅读 · 0 评论 -
《机器学习实战》笔记(二):Ch2 - k-邻近算法
第二章 K-近邻算法(代码)K-近邻算法优缺点优点:精度高,对异常值步敏感,无数据输入假定。缺点:计算复杂度高,空间复杂度高。范围:数值型和标称型。测试分类器错误率是常用的评估方法,完美评估器为0,最差的评估器为1.0例子:使用k-近邻算法改进约会网站的配对效果准备数据:从文本数据中解析出数据,用numpy转化文本为矩阵,同时进行归一化数值操作(将对数据有影响的...原创 2020-01-31 13:07:33 · 272 阅读 · 0 评论 -
《机器学习实战》笔记(三):Ch3 - 决策树
第三章 决策树(代码)决策树算法优缺点优点:计算复杂度不高,输出结果易于理解,对中间值不明干,可以处理不想管特征数据。缺点:可能会产生过度匹配。范围:数值型和标称型。信息增益原则: 将无序的数据变得更加有序。在划分数据集之前之后信息发生的变化熵: 信息的期望值,或者集合信息的度量方式。熵若数据都为一类,那么H=-1*log2(1)=0,不用任何信息就能区分这个数据。...原创 2020-01-31 13:08:26 · 263 阅读 · 0 评论 -
《机器学习实战》笔记(四):Ch4 - 基于概率论的分类方法:朴素贝叶斯
暂未更新代码托管见Github原创 2020-01-31 13:09:18 · 286 阅读 · 0 评论 -
《机器学习实战》笔记(五):Ch5 - Logistic回归
暂未更新代码托管见Github原创 2020-01-31 13:11:48 · 210 阅读 · 0 评论 -
《机器学习实战》笔记(六):Ch6 - 支持向量机
暂未更新代码托管见Github原创 2020-01-31 13:13:31 · 423 阅读 · 0 评论 -
《机器学习实战》笔记(七):Ch7 - 利用AdaBoost元算法提高分类性能
暂未更新代码托管见Github原创 2020-01-31 13:14:57 · 278 阅读 · 0 评论 -
《机器学习实战》笔记(八):Ch8 - 预测数值型数据:回归
暂未更新代码托管见Github原创 2020-01-31 13:15:41 · 362 阅读 · 0 评论 -
《机器学习实战》笔记(十):Ch10 - 利用k-均值聚类算法对未标注数据分组
暂未更新代码托管见Github原创 2020-01-31 13:17:15 · 344 阅读 · 0 评论 -
《机器学习实战》笔记(九):Ch9 - 树回归
暂未更新代码托管见Github原创 2020-01-31 13:16:31 · 253 阅读 · 0 评论 -
《机器学习实战》笔记(十一):Ch11 - 使用Apripri算法进行关联分析
暂未更新Github原创 2020-01-31 13:18:18 · 879 阅读 · 0 评论 -
《机器学习实战》笔记(十二):Ch12 - 使用FP-growth算法来高效发现频繁项集
暂未更新Github原创 2020-01-31 13:18:54 · 628 阅读 · 0 评论