
Machine learning
文章平均质量分 90
Kevin_Song_HM
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Dataset collection
dlrm:说明我再补充先这样。curl -O http://azuremlsampleexperiments.blob.core.windows.net/criteo/day_{seq -s , 0 23}.gz原创 2019-12-02 14:35:35 · 256 阅读 · 0 评论 -
统计学习笔记(五)决策树
一、熵 熵是表示随机变量不确定性的度量,设 XX 是一个离散型随机变量,统计学习中使用的熵是基于有限个离散随机变量的,所以 XX 的取值是有限个,其概率分布为 P(X=xi)=pi,i=1,2,...,nP(X=x_i) = p_i, i=1,2,...,n 则随机变量 XX 的熵定义为 H(X)=−∑i=1npilogmpiH(X) = - \sum_{i=1} ^n { p_i原创 2017-03-31 11:40:28 · 362 阅读 · 0 评论 -
【转】Think Bayes - 我所理解的贝叶斯定理
写的很好。以下是正文,MD做了一些修改以适应优快云的格式—— 转自:Think Bayes - 我所理解的贝叶斯定理 贝叶斯定理是统计学中非常重要的一个定理,以贝叶斯定理为基础的统计学派在统计学世界里占据着重要的地位,和概率学派从事件的随机性出发不同,贝叶斯统计学更多地是从观察者的角度出发,事件的随机性不过是观察者掌握信息不完备所造成的,观察者所掌握的信息多寡将影响观察者对于事件的认知转载 2017-03-28 14:04:48 · 629 阅读 · 0 评论 -
统计学习笔记(四)朴素贝叶斯法
统计学习笔记-朴素贝叶斯法注释了一些我对朴素贝叶斯法的理解,以及对原文的表述的通俗解释。原创 2017-03-27 15:31:47 · 632 阅读 · 0 评论 -
统计学习笔记(三)k近邻算法
算法描述k近邻算法(k-nearest neighbour)的输入是实例的特征向量,对应于特征空间的点;输出是实例的类别。k近邻法假定在给定的训练数据集里,其中的实例的类别是确定的。对于新的实例,根据其k个最近的实例的类别,通过表决的方法进行预测。3.1 k近邻算法算法3.1 输入:训练数据集TT和实例的特征向量x^\hat{x}; 其中训练数据集T={(x1,y1),(x2,y2),..原创 2017-03-15 15:43:35 · 839 阅读 · 0 评论 -
统计学习笔记(一)
统计学习符号X:输入空间/特征空间 Y:输出空间 X:输入变量 Y:输出变量 x:输入变量的值 y:输出变量的值 xi=(x(1),x(2),...,x(n))x_i=(x^{(1)},x^{(2)},...,x^{(n)}):第i个输入实例x的特征向量,n是特征的个数 T={(x1,y1),(x2,y2),...(xN,yN)}\{(x_1,y_1),(x_2,y_2),...(x_原创 2017-03-07 11:41:55 · 895 阅读 · 0 评论 -
统计学习笔记(二)感知机
详细记录了感知机的概念,并使用Python实现了感知机算法。原创 2017-03-08 16:14:31 · 585 阅读 · 0 评论