
机器学习
文章平均质量分 91
Erli11
机器学习 个性化推荐 数据结构 算法
展开
-
机器学习的最佳入门学习资源
本文由 伯乐在线 - programmer_lin 翻译自 Jason Brownlee。欢迎加入技术翻译小组。转载请参见文章末尾处的要求。这是一篇很难写的文章,因为我希望这篇文章能对学习者有所启发。我在空白页前坐下,并且问自己了一个很难的问题:什么样的库、课程、论文和书籍对于机器学习的初学者来说是最好的。文章里到底写什么、不写什么,这个问题真的让我很烦恼。我必须把自己当做转载 2014-01-22 10:10:33 · 3462 阅读 · 2 评论 -
线性判别分析(LDA), 主成分分析(PCA)
转自 http://www.cnblogs.com/LeftNotEasy/archive/2011/01/08/lda-and-pca-machine-learning.html转载 2014-06-10 11:03:09 · 1032 阅读 · 0 评论 -
机器学习中的数学(2)-线性回归,偏差、方差权衡
线性回归定义: 在上一个主题中,也是一个与回归相关的,不过上一节更侧重于梯度这个概念,这一节更侧重于回归本身与偏差和方差的概念。 回归最简单的定义是,给出一个点集D,用一个函数去拟合这个点集,并且使得点集与拟合函数间的误差最小。 上图所示,给出一个点集(x,y), 需要用一个函数去拟合这个点集,蓝色的点是点集中的点,而红色的曲线是函数的曲线,第一转载 2014-06-10 16:36:43 · 1056 阅读 · 0 评论 -
回归(regression)、梯度下降(gradient descent)
转自 - http://www.cnblogs.com/LeftNotEasy/archive/2010/12/05/mathmatic_in_machine_learning_1_regression_and_gradient_descent.html回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线转载 2014-06-10 16:22:56 · 1105 阅读 · 0 评论 -
国外程序员整理的机器学习资源大全
原文链接: awesome-machine-learning 翻译: 伯乐在线 - toolate译文链接: http://blog.jobbole.com/73806/本文汇编了一些机器学习领域的框架、库以及软件(按编程语言排序)。C++计算机视觉CCV —基于C语言/提供缓存/核心的机器视觉库,新颖的机器视觉库OpenCV—它提供C++, C, Py转载 2014-07-22 11:15:40 · 2524 阅读 · 0 评论 -
逻辑回归简介
回归问题在参数空间上(不妨假设为二维空间)有一些样本点,找一条曲线尽量拟合所有的样本点。这里面的“找一条”曲线不是漫无边际的找,而是先假定曲线的形式,如:直线、二次曲线等等,然后来学习确定曲线的各项参数。一方面,算法没有那么神奇,不能够告诉我们用什么类型的曲线拟合最好;另一方面,如果最初的假定就错了(用直线拟合最好,但是认为选择了二次曲线),最终的效果也是不好的。原创 2014-07-01 12:08:14 · 11044 阅读 · 1 评论 -
第八讲. 支持向量机进行机器学习——Support Vector Machine
http://blog.youkuaiyun.com/abcjennifer/article/details/7849812本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量转载 2014-06-23 10:32:32 · 11343 阅读 · 1 评论 -
梯度下降原理及在线性回归、逻辑回归中的应用
参考文献:http://blog.sina.com.cn/s/blog_62339a2401015jyq.html原创 2014-07-03 16:47:00 · 8702 阅读 · 2 评论 -
google news recommendation - 基于点击行为的用户个性化新闻推荐
1 摘要2 简介新闻阅读,随着互联网的发展,访问方式已经从订阅纸质媒体扩展到访问数目众多的网络新闻源。新闻聚集网站如google news、yahoo news,从不同的新闻网站采集数据,并提供一个聚合的视图。对于这样的新闻服务网站来说,一个严重的问题是文章的数目对于用户来说是巨大的。因此挑战是如何帮助用户找到他们感兴趣的新闻(听上去好有诱惑力呀)。基于内容的推荐是解决信息过载翻译 2014-07-30 16:22:05 · 6522 阅读 · 2 评论 -
强大的矩阵奇异值分解(SVD)及其应用
转自:http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留转载 2014-06-10 11:00:01 · 1195 阅读 · 0 评论 -
探索推荐引擎内部的秘密 - 推荐引擎初探
“探索推荐引擎内部的秘密”系列将带领读者从浅入深的学习探索推荐引擎的机制,实现方法,其中还涉及一些基本的优化方法,例如聚类和分类的应用。同时在理论讲解的基础上,还会结合 Apache Mahout 介绍如何在大规模数据上实现各种推荐策略,进行策略优化,构建高效的推荐引擎的方法。本文作为这个系列的第一篇文章,将深入介绍推荐引擎的工作原理,和其中涉及的各种推荐机制,以及它们各自的优缺点和适用场景,帮助转载 2014-04-09 19:52:15 · 6056 阅读 · 0 评论 -
Coursera公开课笔记: 第六课 逻辑回归
斯坦福大学机器学习第六课"逻辑回归“学习笔记,本次课程主要包括7部分:1) Classification(分类)2) Hypothesis Representation3) Decision boundary(决策边界)4) Cost function(代价函数,成本函数)5) Simplified cost function and gradient descent(简化版代转载 2014-03-12 18:59:23 · 4175 阅读 · 0 评论 -
探索推荐引擎内部的秘密:深入推荐引擎相关算法 - 聚类
智能推荐大都基于海量数据的计算和处理,然而我们发现在海量数据上高效的运行协同过滤算法以及其他推荐策略这样高复杂的算法是有很大的挑战的,在面对解决这个问题的过程中,大家提出了很多减少计算量的方法,而聚类无疑是其中最优的选择之一。 聚类 (Clustering) 是一个数据挖掘的经典问题,它的目的是将数据分为多个簇 (Cluster),在同一个簇中的对象之间有较高的相似度,而不同簇的对象差别较大。转载 2014-04-14 09:56:15 · 2047 阅读 · 0 评论 -
探索推荐引擎内部的秘密:深入推荐引擎相关算法 - 协同过滤
转自本系列的第一篇为读者概要介绍了推荐引擎,下面几篇文章将深入介绍推荐引擎的相关算法,并帮助读者高效的实现这些算法。 在现今的推荐技术和算法中,最被大家广泛认可和采用的就是基于协同过滤的推荐方法。它以其方法模型简单,数据依赖性低,数据方便采集 , 推荐效果较优等多个优点成为大众眼里的推荐算法“No.1”。本文将带你深入了解协同过滤的秘密,并给出基于 Apache Mahout 的协同过滤算转载 2014-04-11 10:15:55 · 3082 阅读 · 0 评论 -
k-means
Clustering 中文翻译作“聚类”,简单地说就是把相似的东西分到一组,同 Classification (分类)不同,对于一个 classifier ,通常需要你告诉它“这个东西被分为某某类”这样一些例子,理想情况下,一个 classifier 会从它得到的训练集中进行“学习”,从而具备对未知数据进行分类的能力,这种提供训练数据的过程通常叫做 supervised learning (监转载 2014-03-21 12:10:29 · 1215 阅读 · 0 评论 -
谱聚类
接收同事的工作,有个任务用kmeans解决的不好,有时间试试这个。 如果说 K-means 和 GMM 这些聚类的方法是古代流行的算法的话,那么这次要讲的 Spectral Clustering 就可以算是现代流行的算法了,中文通常称为“谱聚类”。由于使用的矩阵的细微差别,谱聚类实际上可以说是一“类”算法。Spectral Clustering 和传统的聚类方法(例如 K转载 2014-03-21 09:49:33 · 1323 阅读 · 1 评论 -
斯坦福大学自然语言处理第七课“情感分析(Sentiment Analysis)”
一、课程介绍斯坦福大学于2012年3月在Coursera启动了在线自然语言处理课程,由NLP领域大牛Dan Jurafsky 和 Chirs Manning教授授课:https://class.coursera.org/nlp/以下是本课程的学习笔记,以课程PPT/PDF为主,其他参考资料为辅,融入个人拓展、注解,抛砖引玉,欢迎大家在“我爱公开课”上一起探讨学习。课件汇转载 2014-04-17 11:05:41 · 29011 阅读 · 2 评论 -
A Large set of Machine Learning Resources for Beginners to Mavens
转自:我爱机器学习(52ml.net) » 《A Large set of Machine Learning Resources for Beginners to Mavens》Machine Learning 101:I. Introduction to Machine Learninghttp://homepages.inf.ed.ac.uk/rbf/IAPR/re转载 2014-05-06 14:53:10 · 2719 阅读 · 0 评论 -
SIFT算法详解
尺度不变特征变换匹配算法详解Scale Invariant Feature Transform(SIFT)Just For Funzdd zddmail@gmail.com or (zddhub@gmail.com)对于初学者,从David G.Lowe的论文到实现,有许多鸿沟,本文帮你跨越。1、SIFT综述尺度不变特征转换(Scale转载 2014-04-24 12:16:18 · 1108 阅读 · 0 评论 -
pattern recognition and machine learning这本书怎么看?
这篇是今年最后一篇博客了,年中的时候写过一部分,没能坚持下来。在新的一年里,希望自己能够在技术上有所突破,在推荐系统、机器学习、自然语言处理处理领域成为初级专家。转自知乎:http://www.zhihu.com/question/20970802,作者 杨超本书是经典中的经典我完整看了3遍以上 要算上没看完的几次 得有快10遍 (剖析自己,没有一本是认真看完的)是的 前几次我转载 2015-02-16 10:35:19 · 3593 阅读 · 1 评论