
机器学习
文章平均质量分 94
adrianna_xy
假如编程易懂得,那么程序员就不会热情地写出注释,也不会有得到编程的快乐。
展开
-
python生成指定尺寸的缩略图
给定图片url和指定图片尺寸,生成缩略图并保存。用于生成正方形图并避免图片拉伸变形。import requests as reqfrom PIL import Imagefrom io import BytesIOdef make_thumb(url, sizes=(128, 128)): """ 生成指定尺寸缩略图 :param url: 图像链接 ...原创 2019-10-30 20:26:32 · 2195 阅读 · 0 评论 -
【tensorflow学习】最简单的GAN 实现
1.GAN基本思想生成式对抗网络GAN (Generative adversarial networks) 是Goodfellow 等在2014 年提出的一种生成式模型。GAN 的核心思想来源于博弈论的纳什均衡。它设定参与游戏双方分别为一个生成器(Generator)和一个判别器(Discriminator), 生成器捕捉真实数据样本的潜在分布, 并生成新的数据样本; 判别器是一个二分类器, 判别输原创 2017-07-13 14:00:50 · 31982 阅读 · 38 评论 -
【deeplearning.ai笔记第二课】1.4 正则化,权重初始化和输入归一化
正则化能减少过拟合,那么有哪些方法呢?我们来看一下:1.1 cost function加上正则项L2 regularization即在 cost function 加上 L2 norm: ∑θ2\sum\theta^2L1 regularization即在 cost function 加上 L1 norm: ∑∥θ∥\sum \lVert \theta\rVert1.2 weight原创 2017-10-19 11:27:33 · 2863 阅读 · 0 评论 -
【deeplearning.ai笔记第二课】1.3 机器学习基本方法(Basic recipe for machine learning)
在建立好模型后,我们通过训练测试得到最初的train error,valid error,test error,那么接下来应该怎么调整模型得到最优的模型呢? 可以归纳为以下流程图:原创 2017-10-19 11:27:32 · 615 阅读 · 0 评论 -
【deeplearning.ai笔记第二课】1.2 欠拟合和过拟合(bias variance)
偏差和方差(bias variance)很好理解,左图是high bias(高偏差),即欠拟合,右图是high variance(高方差),即过拟合。我们追求的是中间图,low bias AND low variance。注意的是并不是 高方差就一定低偏差,有可能既高方差又高偏差。怎么理解呢?看下面一个栗子: 判断图片是不是猫的一个分类问题,人的判断错误率为0%那么如果train error 和v原创 2017-10-19 11:09:16 · 1498 阅读 · 0 评论 -
【deeplearning.ai笔记第二课】1.1 训练集,验证集和测试集
一般把数据集分为三部分:train set, valid set, test set分别用于训练模型,调整超参数,测试模型。其中valid set 又叫development set ,简称 dev set。交叉验证(hold out cross validation)随机从一组测定数据中抽取一部分数据来建立模型,用其余的数据来检验此模型的方法。最常见的是十折交叉验证,即把训练集随机分为十份,每次原创 2017-10-19 11:05:40 · 2722 阅读 · 0 评论 -
LSTM 和GRU的区别
Reference:https://cs224d.stanford.edu/lecture_notes/LectureNotes4.pdfEmpirical Evaluation of Gated Recurrent Neural Networks on Sequence Modelinghttps://feature.engineering/difference-between-lstm-a原创 2017-08-31 14:50:44 · 66456 阅读 · 14 评论 -
cross entropy,logistic loss 和 KL-divergence的关系和区别
先给出结论:cross entropy和KL-divergence作为目标函数效果是一样的,从数学上来说相差一个常数。logistic loss 是cross entropy的一个特例1. cross entropy和KL-divergence假设两个概率分布p(x)p(x)p(x)和q(x)q(x)q(x), H(p,q)H(p,q)H(p,q)为cross entro...原创 2017-07-14 15:00:19 · 20319 阅读 · 0 评论 -
卷积神经网络CNN(LeNet)的Theano实现
一、LeNet 结构二、卷积层ConvOp是在Theano中实现卷积层的主要主力。 ConvOp由theano.tensor.signal.conv2d使用,它具有两个输入: 1. input:对应于小批量输入图像的4D tensor。 tensor的形状如下:[mini-batch大小,输入的feature maps数量,图像height,图像width]。 2. W: 对应于权重矩阵W的4D原创 2017-05-11 11:51:53 · 1704 阅读 · 0 评论 -
判别式模型与生成式模型的区别
判别式模型与生成式模型的区别产生式模型(Generative Model)与判别式模型(Discrimitive Model)是分类器常遇到的概念,它们的区别在于: 对于输入x,类别标签c: 产生式模型估计它们的联合概率分布P(x,c)=P(x|c)×P(c),实际估计P(x|c),求得P(x,c)=P(x|c)×P(c) 判别式模型估计条件概率分布P(c|x)产生式模型可以根据贝转载 2017-04-13 10:41:39 · 882 阅读 · 0 评论 -
理解back propagation反向传播
作用首先需要明白back propagation的作用: 深度学习的训练是成本函数(cost function)最小化的过程,一般采取梯度下降法求解。那么怎么计算梯度呢?这就要用到back propagation了。 计算一个数学表达式的梯度是很直接的,但计算是昂贵的。而反向传播算法使用简单的方法有效的减少了计算量。误解反向传播经常被误解为神经网络的整个学习算法。 实际上,反向传播仅用于计算梯度翻译 2017-04-01 11:47:14 · 8097 阅读 · 0 评论 -
数据挖掘笔记一(Intro)
Introwhy DM数据的急剧增长,产生了需求。whats DM?从海量数据中发现有趣的模式和知识。 KDD(knowledge discovery in databases) 过程: 数据清理,数据集成,数据选择,数据变换,模式发现,模式评估和知识展示。 KDD(knowledge discovery in databases) Multi-Dimensional View of原创 2016-11-08 22:10:51 · 574 阅读 · 0 评论 -
推荐系统的主要算法
主流的推荐系统算法大致分为两类: 1. 基于用户行为数据的协同过滤算法 2. 基于内容数据的过滤算法 大致而言,基于内容数据的算法适用于cold start,即用户和项目都比较少的时候,而基于用户行为数据的协同过滤算法在用户和项目较多,数据比较丰富的情况下有较高的准确率。除此之外,还包括基于社会网络数据的推荐,基于语境(上下文)感知数据的推荐,基于心理学数据的推荐等等。本文参考总结自:原创 2016-11-15 11:04:54 · 25637 阅读 · 4 评论