- 博客(12)
- 资源 (2)
- 收藏
- 关注
原创 Google推荐系统Wide & Deep Learning for Recommender Systems论文翻译&解读
Wide & Deep Learning for Recommender Systems推荐系统中的Wide & Deep Learning摘要Generalized linear models with nonlinear feature transformations are widely used for large-scale regression and class...
2018-12-12 14:41:47
3331
原创 手把手教你用Python实现感知机
实现Python代码import numpy as npimport matplotlibmatplotlib.use('TkAgg')from matplotlib import pyplot as plt# 载入数据def load_data_set(file_name): fr = open(file_name) data_set = [] l...
2018-04-19 18:47:52
4118
3
原创 手把手教你用Python+朴素贝叶斯实现垃圾邮件分类
用朴素贝叶斯进行简单的垃圾邮件分类import numpy as npimport reimport osimport randomimport numpy as np# 处理给定路径下的文件def load_data(folder_path): os.chdir(folder_path) doc_list = [] label = [] fo...
2018-04-19 18:46:27
6350
原创 带你搞懂GBDT算法原理
一、引言 在集成学习原理介绍中,简单的介绍了根据个体学习器学习方式不同划分的两大类集成学习方法,个体学习器间存在强依赖关系、必须串行生成的序列化方法,如Boosting;个体学习器间不存在强依赖关系、可同时生成的并行化方法,如Bagging。 回顾一下Boosting算法的学习机制:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的的训...
2018-04-19 18:42:36
19749
4
原创 带你搞懂Adaboost算法原理
一、引言 在集成学习原理介绍中,简单的介绍了根据个体学习器学习方式不同划分的两大类集成学习方法,个体学习器间存在强依赖关系、必须串行生成的序列化方法,如Boosting;个体学习器间不存在强依赖关系、可同时生成的并行化方法,如Bagging。 回顾一下Boosting算法的学习机制:先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的的训...
2018-04-18 18:38:47
550
原创 带你搞懂集成学习原理
一、集成学习是什么?举个例子,假设你有一个关于股票的问题,你身边有10个朋友,他们分别有自己擅长的行业股票,你想得到他们的帮助,你可以这样做。 (1)选出你最信任的那个朋友,听从他的建议(普通的学习算法,选择验证效果最好的) (2)让所有朋友给你建议,通过某个加权计算或者投票,计算出最终的答案(集成学习,训练多个基学习器,用某种结合策略得到最终学习器)二、集成学习怎么实现?实现集成...
2018-04-18 08:33:18
1132
原创 手把手教你用scikit-learn决策树算法库画出决策树
想了解决策树的原理,可以看我关于决策树理论的介绍参数的介绍 共同参数 含义 max_depth 决策树最大深度:默认可以不输入,决策树在生成的时候不会限制树的深度。一般来说,数据少或者特征少的时候可以不管这个值。如果模型样本量多,特征也多的情况下,推荐限制这个最大深度,具体的取值取决于数据的分布。常用的可以取值10-100之间。 max_features...
2018-04-16 13:50:10
3907
原创 带你搞懂决策树算法原理
一、决策树是什么? 顾名思义,决策树是由一个个“决策”组成的树,学过数据结构的同学对树一定不陌生。决策树中,结点分为两种,放“决策依据”的是非叶结点,放“决策结果”的是叶结点。 那么决策是什么呢?很好理解,和人一样,决策就是对于一个问题,有多个答案,选择答案的过程就是决策。在决策树中,通常有两种类型的问题,一种是离散值的问题,一种是连续值的问题。拿选一个好西瓜来比喻,西瓜的纹路是清晰的...
2018-04-15 21:59:30
15979
原创 机器学习中常见的概率知识
几个常见概率概念先验概率:事件发生前的预判概率。可以是基于历史数据的统计,可以由背景常识得出,也可以是人的主观观点给出。贝叶斯中的先验概率一般特指P(y)后验概率:事件发生后求的反向条件概率;或者说,基于先验概率求得的反向条件概率。概率形式与条件概率相同。 P(y|x) 是后验概率,一般是我们求解的目标。条件概率:一个事件发生后另一个事件发生的概率。一般的形式...
2018-04-14 20:27:17
463
原创 带你搞懂朴素贝叶斯算法原理
一、朴素贝叶斯是什么,怎么用? 贝叶斯定理:朴素贝叶斯定理体现了后验概率 P(y|x)P(y|x)P(y|x) 、先验概率 P(y)P(y)P(y) 、条件概率 P(x|y)P(x|y)P(x|y) 之间的关系: P(y|x)=P(x,y)P(x)=P(x|y)⋅P(y)P(x)P(y|x)=P(x,y)P(x)=P(x|y)⋅P(y)P(x)P(y|x)=\frac{P(x...
2018-03-18 21:42:16
4219
原创 带你搞懂支持向量机SVM算法原理
感知机是SVM的基础,详细介绍请戳http://blog.youkuaiyun.com/akirameiao/article/details/79436859一、原理1. 线性可分支持向量机问题的输入输出 X = {x1,x2,...,xnx1,x2,...,xnx_1,x_2,...,x_n} Y = {+1, -1}模型: 感知机的目的是找到一个可以正确分类数据的超平面...
2018-03-05 22:07:31
4723
1
原创 带你搞懂感知机算法原理
很多人可能听过大名鼎鼎的SVM,这里介绍的正是SVM算法的基础——感知机,感知机是一种适用于二类线性分类问题的算法原理问题的输入与输出: X = {x1,x2,...,xnx1,x2,...,xnx_1,x_2,...,x_n} Y = {+1, -1}模型: 感知机的目的是找到一个可以正确分类数据的超平面S:ω⋅x+b=0ω⋅x+b=0\omega\cdot x+...
2018-03-04 17:35:28
2836
feature engineer benchmark
2018-01-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人