
机器学习
Reticent_Man
我本微末凡尘,可也心向天空。
展开
-
Hadoop完全分布式集群搭建
具体查看厦大大数据网站的hadoop搭建教程点击这里查看原创 2018-06-19 12:15:35 · 178 阅读 · 0 评论 -
单变量线性回归(梯度下降、正规方程组法)
假设函数:参数 :代价函数:(关于为什么是除以2m而不是m,应该是为了后续求导方便。实际上无论除以几都并不影响结果,就好像在x=0处取得最小值,而也在x=0处取得最小值一样)目标函数:接下来就是最小化目标函数,这里采用梯度下降法。 梯度下降法,举一个简单的例子,一个人站在山顶,朝四周望去,找出最佳下山方向,朝着该方向行走一小段距离,接着以此为起点,再次...原创 2018-07-16 21:14:11 · 1002 阅读 · 0 评论 -
逻辑回归(Logistic回归)
定义logistic回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。例如,探讨引发疾病的危险因素,并根据危险因素预测疾病发生的概率等。函数Sigmoid function、Logistic function: 性质值域:(0,1)导数: 其中原函数为 图像 决策界限如果用于...原创 2018-10-28 20:03:49 · 592 阅读 · 0 评论 -
归一化与标准化
在机器学习和数据挖掘中,经常会听到两个名词:归一化(Normalization)与标准化(Standardization)。它们具体是什么?带来什么益处?具体怎么用?本文来具体讨论这些问题。一、是什么1. 归一化常用的方法是通过对原始数据进行线性变换把数据映射到[0,1]之间,变换函数为: 其中max为样本数据的最大值,min为样本数据的最小值。这种方法有个缺陷就是当有新...转载 2018-09-11 20:35:40 · 1365 阅读 · 0 评论 -
PCA降维及python实现
定义PCA(principal Component Analysis),主成分分析法。顾名思义,就是提取出数据中主要的成分,是一种数据压缩方法,常用于去除噪声、数据预处理,也是机器学习中常见的降维方法。解释专业一点讲,PCA就是用一个超平面(直线的高维推广)对所有样本进行恰当的表达。例如一个三维图形(特征数为3),我们想将它降低到二维(特征数为2),最容易想到的就是投影到一个平面上...原创 2018-10-30 22:22:06 · 37357 阅读 · 6 评论 -
BP与RBF神经网络比较
相同点:都是前馈型神经网络; 只要包含足够多隐层神经元,就能以任意精度逼近任意复杂度的连续函数。不同点:BP是通过不断的调整神经元的权值来逼近最小误差的,其方法一般是梯度下降。而RBF是通过对输入与函数中心点的距离来算权重的,所以第一步就要确定神经元的中心(常用方法有随机采样、聚类等); BP的激活函数是Sigmoid函数,RBF的激活函数是径向基函数(如高斯函数); BP具有收敛...原创 2019-01-03 09:49:17 · 4246 阅读 · 0 评论 -
推荐一本书籍
2019,新的一年,推荐一本书《数学之美》。书中内容通俗易懂,既与大学所学的高数线性代数概率论直接联系,又与当前热门话题相关。书中对于自然语言处理有较为详细的入门介绍,2012年第一版,2014年第二版,现今NLP已经成为一个热点。由衷地佩服作者吴军博士。目录如下: 第1章 文字和语言 vs 数字和信息 第2章 自然语言处理 — 从规则到统计 第3章 统计语言模型...原创 2019-01-03 10:23:11 · 634 阅读 · 0 评论