
machine learning
文章平均质量分 80
加勒比海鲜王
机器学习探索者,欢迎关注简书账号——加勒比海鲜王
展开
-
tf.nn.embedding_lookup
儿童节快乐,保留初心,砥砺前行embedding通俗易懂说就是将word映射为向量。对自然语言处理中需要让机器理解word与word之间的关系,例如法国对应巴黎、中国对应北京,就需要用到embedding技术使词与词产生的向量之间存在某种联系(例如意思相近的词产生的向量在空间上更加接近等等)。这些都是后话。这里只记录tensorflow中关于embedding给出的一个函数 embedding原创 2017-08-26 12:18:38 · 4857 阅读 · 0 评论 -
让你奶奶轻松搞懂Naive Bayes的理论与实践
这篇是从简书移植过来的 ,因为之前简书除了一些问题,所以有些格式无法完美兼容,所以附上链接,同学们请点我原创 2017-08-28 20:07:51 · 569 阅读 · 0 评论 -
从代码学ConditionalGAN
首先,代码引用自https://github.com/wiseodd/generative-models 感谢这位网友的代码支持。每个月总有30天不想看论文,所以直接看源码或许是一个好办法。因为有些时候它的改动就那么一点点。而论文却要用晦涩难懂的语言证明上十几页。上边这个链接中给出了很多GAN和VAE以及各种变体的源码,并且写得清晰易懂,再次感谢这位网友的贡献。ConditionalGAN顾名思义原创 2017-09-28 13:30:24 · 7729 阅读 · 3 评论 -
谈谈Adversarial Autoencoders
保留初心,砥砺前行最近看了Adversarial Autoencoders(以下简称AAE)这篇paper,就随便写几句笔记。paper链接,点我1. 概述:GAN和VAE是近年来很火的生成模型(关于GAN,我之前写过几篇了,需要的话点击文末的相关链接即可),对于这两个模型的研究层出不穷,变体无数,而将这两者结合也是一种优秀的思路。GAN说白了就是对抗,VAE就是一种Autoencoders,而本原创 2017-09-04 16:37:55 · 11616 阅读 · 4 评论 -
Bridging Collaborative Filtering and Semi-Supervised Learning:paper翻译与解读
桥接CF和半监督学习的POI推荐方式。 是一个使用了神经网络进行POI推荐的工作。文章中设计了一种叫做PACE的模型声称可以解决推荐问题中数据稀疏和存在一些相关的上下文(指的是某些关系会与推荐结果相关,称作上下文。例如社交关系可能对POI推荐带来影响)的问题。模型输入:one-hot形式的user向量和POI向量输出:1. (user-POI)以0, 1的形式输出,来代表user是否偏好这个POI原创 2017-11-27 11:39:56 · 1180 阅读 · 1 评论 -
贝叶斯方法与其中的思想
content连续性随机变量的分布以及概率密度似然函数贝叶斯方法参考资料(强烈推荐最后一个)连续性随机变量的分布以及概率密度连续性随机变量的分布不能像离散型的分布那样去描述。因为这种变量的取值充满一个区间,如果取一个点问他的概率,只能是0。 刻画连续性随机变量的概率分布的一个方法是使用概率密度函数。 - 定义:设连续型随机变量X有概率分布函数F(x),则F(x)的导数f(x) = F‘(x) 称原创 2018-01-03 11:29:12 · 874 阅读 · 0 评论 -
normalizing flows Tutorial
如果你是一个机器学习的实践者致力于生成模型、贝叶斯深度学习,或深度强化学习,normalizing flows是一个你算法工具包中方便的技术。normalizing flows变换简单的密度(如高斯函数)成为丰富复杂的分布,可用于生成模型,RL和变分推断。这个Tutorial由两部分组成: 1. 分布和决定因素:在这篇文章中,我解释了如何使用可逆转换的密度来实现更复杂的密度,以及这些转换可以链接在翻译 2018-01-22 22:11:10 · 4432 阅读 · 0 评论 -
推荐系统基础(上)
[Recommendation System] 推荐系统之协同过滤(CF)算法详解和实现【推荐系统】协同过滤(CF)算法详解,item-base,user-based,SVD,SVD++今日头条核心技术“个性推荐算法”揭秘应用层-个性化推荐系统基本概念及5种常规算法初探【推荐系统】特征值分解(谱分解)和奇异值分解(SVD),即在PCA上的应用SVD++...原创 2018-04-24 23:32:51 · 619 阅读 · 0 评论 -
Machine Learning Yearning - Ng 笔记
持续更新第一章:为什么选择机器学习策略如果你的团队要使用神经网络做一个猫图片识别系统。 如果你能够在以上可能的方向中做出正确的选择,那么你将建立起一个领先的猫咪图片识别平台,并带领你的公司获得成功。但如果你选择了一个糟糕的方向,则可能因此浪费掉几个月甚至数年的开发时间。第二章:如何使用本书帮助你的团队完成本书的阅读后,你将对于“如何在机器学习项目中设定一个技术方向”有着深层次的了...原创 2018-05-15 16:16:22 · 753 阅读 · 0 评论 -
TensorFlow实现流行机器学习算法教程汇集(上)
保留初心,砥砺前行文章来源:Github看到了其他同学发的这个资源,但是原文给的链接不能直接点击,很不方便,为了方便使用,在这里修改一下。给TF新手的教程指南tf初学者需要明白的入门准备机器学习入门笔记MNIST 数据集入门笔记tf初学者需要了解的入门基础Hello World基本操作代码基本操作笔记代码tf初学者需要掌握的基本模型最近邻笔记最近邻代码线性回归笔记线性回归代码Logis翻译 2017-08-26 12:22:07 · 1185 阅读 · 0 评论 -
TensorFlow实现流行机器学习算法教程汇集(下)
保留初心,砥砺前行文章来源:Github看到了其他同学发的这个资源,但是原文给的链接不能直接点击,很不方便,为了方便使用,在这里修改一下。为TF新手准备的各个类型的案例、模型和数据集初步了解:TFLearnTensorFlow接下来的示例来自TFLearn,这是一个为 TensorFlow 提供了简化的接口的库。里面有很多示例和预构建的运算和层。使用教程:TFLearn 快速入门。通过一个具体的机翻译 2017-08-26 12:23:20 · 579 阅读 · 0 评论 -
深度学习tips-训练集、开发集和测试集
training set、development set and test set这三者是在进行一个机器学习项目中非常重要的内容。它们的确定往往决定了这个项目的走向。错误的训练集、开发集和测试集的划分很可能会让一个团队浪费数月时间。training set:顾名思义,是用来训练模型的。因此它占了所有数据的绝大部分。development set:用来对训练集训练出来的模型进行测试,通过测试结果来不原创 2017-09-19 00:32:32 · 5754 阅读 · 0 评论 -
深度学习tips-降低模型的方差
bias和variance在深度学习中是两个不同的概念,一个是偏差,一个是方差,这两个中文名字反而更让人混淆一点。偏差可以理解为训练出来的模型和真实数据分布的差距。 例如偏差小,说明模型和真实分布相差不大;偏差很大,说明训练出来的模型和真实分布相差较大。例如只用了一个直线,进行了一个复杂分布的二分类。很明显这个模型的偏差是很大的。方差很好理解,在数学上就是统计模型离散程度的计量,在深度学习中,原创 2017-09-09 14:02:30 · 2531 阅读 · 0 评论 -
简述动量Momentum梯度下降
梯度下降是机器学习中用来使模型逼近真实分布的最小偏差的优化方法。 在普通的随机梯度下降和批梯度下降当中,参数的更新是按照如下公式进行的:W = W - αdW b = b - αdb其中α是学习率,dW、db是cost function对w和b的偏导数。 随机梯度下降和批梯度下降的区别只是输入的数据分别是mini-batch和all。然而,在曾经我发表的博客中提到了下图的问题。 可以看出原创 2017-09-12 13:53:17 · 37222 阅读 · 15 评论 -
Batch Norm
文中图片均出自本人之手,做的相当凑合我们都知道在一个如下图的单元中 将x1、x2、x3减去均值除以方差也就是使输入数据的均值为0方差为1,可以加快该网络的训练速度。如果是在如下图的深层网络中呢? 将输入值x1、x2、x3进行归一化操作之后只是加快了第一层网络的速度,并不能对后边的n层网络产生影响,这时我们应该怎么办呢。 简单来说就是将每一层前的输入包括输入层的x和隐藏层的a均进行减去均原创 2017-09-16 11:32:48 · 6119 阅读 · 2 评论 -
activation function的必要性和选择
在神经网络中,我们都要在每一个神经元的最后添加一个非线性的激活函数,也就是activation function。然而为什么需要呢?每一个神经元可以理解成y = w(input) + b –> output = activation function(y) 的过程。如果没有非线性的激活函数,则一个神经元的输出就变成了 output = w_1(input) + b_1 将这个ou...原创 2017-09-06 11:16:28 · 1296 阅读 · 0 评论 -
深度学习tips-搭建深度学习模型,不知如何下手?
很多刚刚入门的同学们面对一个刚刚到手的课题就像面对一块刚刚到手的烫山芋一样,无从下口… …是无从下手。那么应该如何开始呢?原创 2017-09-23 11:13:35 · 622 阅读 · 0 评论 -
简谈Linear Regression
要不要点紧呐20天没发文章了,罪过罪过。深夜了,就简单写一下今天了解到的一点关于Linear Regression的内容。什么是Linear Regression,具体怎么Regression,什么θ0 + θ1x1 + θ2x2,什么梯度下降的,(包括下图中1/m∑(…)x是怎么来的)没什么意思,就不再赘述。稍微需要注意的是下图中所示的 θ是如何在训练中被更新的,也就是梯度下降的具体公式。原创 2017-08-28 20:08:41 · 444 阅读 · 0 评论 -
k近邻理论与实践
保留初心,砥砺前行k-nearest neighbor, k-NN是一种可以用于多分类和回归的方法。knn是一个很简单的分类方法。k近邻法的输入是实例的特征向量,也就是特征空间中的点; k近邻法的输出是实例的类别,可以是多个类。接下来本文将从: - k近邻算法 - k近邻法的模型 - kd树三个方面进行阐述。1. k近邻算法本文的第一句话,就已经非常明确地告诉了你,k-NN是用来做什么的原创 2017-08-27 17:28:45 · 305 阅读 · 0 评论 -
机器学习之路,你可能需要用到的...
保留初心,砥砺前行这里不仅记录一些在学习中查阅的有营养的资料,同时也记录了一点我对于该资源的看法,供同路的同学们享用。资源都是零零碎碎的,没有完整的套路或者体系。但是每天除了正餐,有一些零食才会显得更加丰富多彩。所以,一定会有某些内容帮助到你。最小二乘法 这篇文章不仅仅把最小二乘法是什么说的一清二楚(这并不是我推荐这一篇的目的),而且把大部分同学从没有想过的、或者说从没有注意过的问题——为什么转载 2017-08-27 17:25:58 · 345 阅读 · 0 评论 -
GAN入门基础指导
保留初心,砥砺前行这次并没有标题党,说一文精通GAN什么的。因为毕竟paper才是基础。以下内容只是辅助作用,相当于paper重点内容的总结而已。再次强调,请读者先读paper。 Generative Adversarial Networkspaper不能完全搞懂没关系,看下边。第一个问题,GAN对噪声z的分布有要求吗?常用哪些分布?常用的有高斯分布 也可以用均匀分布为什么初始噪声是100维咧原创 2017-08-27 08:39:40 · 927 阅读 · 0 评论 -
继上一次GAN应用于NLP的讨论的后续讨论
保留初心,砥砺前行这是上一次GAN for NLP的讨论记录,需要的同学拿去享用: 记录一次与大神们的关于GAN应用于NLP的讨论这次的讨论可能是因为题目不够大众,或者是做这方面的同学们太过羞涩,因此讨论的内容基本偏题,最后形成了大家自由讨论的局面。但是只要仔细观察,是可以看到其中是有着耀眼的闪光点的,至少对于我来说是这样的。重申以下观点: 下边的讨论问题与解答有些是文不对题的,首先是因为按照原创 2017-08-27 08:38:01 · 1710 阅读 · 0 评论 -
记录一次与大神们的关于GAN应用于NLP的讨论
保留初心,砥砺前行说实话,是聆听了大神们,本人只是捧哏似的嗯、啊了几句。之前paperweekly的GAN讨论组要进行一次讨论,给出了很多议题进行投票。里边有GAN in NLP、GAN and RL、半监督GAN等我比较感兴趣的话题。也有图像相关的关于GAN的正统问题。没想到最后GAN in NLP获得了最多的票数。我原来对于把GAN应用于NLP叫做剑走偏锋,没想到志同道合的人这么多…接下来是对原创 2017-08-27 08:33:26 · 5655 阅读 · 1 评论 -
Deep Learning based Recommender System: A Survey and New Perspectives
introduction Recommender system (RS) is a useful information €ltering tool for guiding users in a personalized way of discovering products or services they might be interested in from a large sp...原创 2018-06-19 21:59:58 · 1987 阅读 · 0 评论