
机器学习
flashTianjiao
云计算、虚拟网络
机器学习、深度学习
展开
-
Numpy学习笔记
本笔记来源于CS231n python课程笔记,由知乎大神翻译,网页链接是https://zhuanlan.zhihu.com/p/20878530?refer=intelligentunit。 对大神的贡献表示感谢。下面是我的笔记 1、numpy切片:和Python列表类似,numpy数组可以使用切片语法。因为数组可以是多维的,所以你必须为每个维度指定好切片 b = a[行1:行2, 列1:原创 2016-12-30 12:07:27 · 372 阅读 · 0 评论 -
分类决策树
原理决策树是基于特征对实例进行分类的树形结构。 决策树学习算法包括:特征选择、树的生成和树的剪枝。特征选择1.ID3 (1)、针对当前的集合,计算每个特征的信息增益 (2)、选择信息增益最大的特征作为当前节点的决策决策特征 (3)、根据特征不同的类别划分到不同的子节点(比如年龄特征有青年,中年,老年,则划分到3颗子树) (4)、继续对子节点进行递归,直到所有特征都被划分 g(D|A)=H原创 2017-07-11 10:03:09 · 513 阅读 · 0 评论 -
朴素贝叶斯
1、原理朴素贝叶斯和贝叶斯估计不是一回事。 朴素贝叶斯基于条件独立性假设:P(X=x|Y=ck)=∏nj=1P(Xj=xj|Y=ck)P(X=x|Y=c_k)=\prod_{j=1}^nP(X^j=x^j|Y=c_k) 朴素贝叶斯是学习到生成数据的机制,属于生成模型。2、流程输入:训练数据T={(x1,y1),(x2,y2),....,(xn,yn)},其中xi=(x1i,x2i,...xn原创 2017-07-08 22:12:25 · 316 阅读 · 0 评论 -
感知器
1、 原理感知器是根据输入实例的特征向量x对其进行二类分类的线性分类模型: f(x)=sign(w∗x+b)f(x)=sign(w*x+b) 感知器模型对应特征空间的分离超平面w∗x+b=0w*x+b=0。2、损失函数损失函数对应与误分类点到分离超平面的总距离。误分类点越少,误分类点距离超平面越近,损失函数值越小。 minL(w,b)=−∑xiϵMyi(w∗xi+b)minL(w,b) =原创 2017-07-08 16:39:07 · 353 阅读 · 0 评论 -
KNN
1、原理KNN是一种基本分类和回归方法。输入为实例的特征向量,输出为实例的类别。2、流程输入训练数据集T={(x1,y1),(x2,y2),...,(xn,yn)}T=\{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\} 其中,xi∈Rn,yi∈{c1,c2,...,cn},i=1,2,...,Nx_i\in R^n,y_i\in \{c_1, c_2, ..., c_n\}原创 2017-07-08 19:34:50 · 487 阅读 · 0 评论