- 博客(14)
- 收藏
- 关注
原创 logistic回归
一.二项logistic回归模型: 1. 现有样本x,它的预测值为0或1,预测为1的概率为p,使事件的对数几率; 等于x的线性模型预测值: ,这样得到 ; 这个函数称为logistic函数;图像如下: 线性函数的值接近正无穷,概率值接近1;线性函数的值接近负无穷,概率值接近0; 这个模型就是logistic模型; 对于二...
2018-06-21 18:55:29
345
转载 机器学习中正则化项L1和L2的直观理解
正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的...
2018-06-21 12:22:33
241
原创 线性回归
一.基本过程: 直接附上培训课程ppt截图: 1. 线性回归不能解决,分类问题,即Y=1,2,3,时,数值大小没有意义的情况; 2. 解释:是有规律的,看做一个constant值,是现实中的样本,具有随机性;所以他们直接的差服从高斯分布; 3.运算: ...
2018-06-21 12:06:35
605
转载 梯度下降法
一.梯度下降法: 1.梯度的由来: 射线L的方向余弦是,二元函数沿着这个射线,自变量变化为; 方向导数是这个函数沿着这个方向的变化率,它的方向导数为: 沿着各个方向,二元函数始终有一个方向导数,它的大小决定这个函数的变化率 上式可以写成两个向量的乘积: 由于 是单位向量,所以当和 方向相同时...
2018-06-20 23:18:57
864
转载 window10安装pytorch
首先安装Anaconda3,然后下载Pytorch的conda 安装包,地址:pytorch conda安装包—pytorch-0.1.12-py36_0.1.12cu80.tar.bz2 下载完毕之后,直接cmd进入到pytorch-0.1.12-py36_0.1.12cu80.tar.bz2对应的目录,执行以下命令:conda install numpy mkl cfficonda inst...
2018-06-20 15:51:56
285
原创 python数组基本操作总结
一.列表,元祖,: 1.元祖: (1)创建: tuple01 = ()#创建空元组 tuple01 = (2,) #元组中只包含一个元素时,需要在元素后面添加逗号 tuple01 = ('joe','susan','black','monika') (2)将元组转换为...
2018-06-19 18:26:42
82929
3
转载 sklearn朴素贝叶斯类库使用小结
sklearn朴素贝叶斯类库使用小结2018年06月10日 在scikit-learn中,提供了3中朴素贝叶斯分类算法:GaussianNB(高斯朴素贝叶斯)、MultinomialNB(多项式朴素贝叶斯)、BernoulliNB(伯努利朴素贝叶斯)1、高斯朴素贝叶斯:sklearn.naive_bayes.GaussianNB(priors=None)①利用GaussianNB类建立简单模型[p...
2018-06-10 21:43:38
524
原创 朴素贝叶斯以及它的三个模型
一.先验概率和后验概率理解:先验:统计层次上的经验而知当下发生的概率;后验:当下由因及果的概率;举例:1)先验——根据若干年的统计(经验)或者气候(常识),某地方下雨的概率;2)似然——下雨(果)的时候有乌云(因)的概率,即已经有了果,对证据发生的可能性描述;3)后验——根据天上有乌云(原因),下雨(结果)的概率;后验 ~ 先验*似然 : 存在下雨的可能(先验),下雨之前会有乌云(似然)~ 通过现...
2018-06-10 19:29:30
1309
转载 python调用其他文件函数或类
B.py调用A.py的函数或类在同一个文件夹下调用函数:A.py文件:[python] view plain copydef add(x,y): print('和为:%d'%(x+y)) B.py文件:[python] view plain copyimport A A.add(1,2) 或[python] view plain copyfrom A import add add...
2018-06-10 14:47:57
49700
原创 二分的kmeans、Kmeans++、
一.二分KMeans: 算法的主要思想是:首先将所有点作为一个簇,然后将该簇一分为二。之后选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。以此进行下去,直到簇的数目等于用户给定的数目k为止。以上隐含的一个原则就是:因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以我们就需要对误差平方和最大的簇进行再一次划分,因...
2018-05-24 20:05:09
4563
转载 聚类算法-kmeans
K-means(k均值)算法 k-means是划分方法中较经典的聚类算法之一。由于该算法的效率高,所以在对大规模数据进行聚类时被广泛应用。目前,许多算法均围绕着该算法进行扩展和改进。 k-means算法以k为参数,把n个样本分成k个簇,使簇内具有较高的相似度,而簇间的相似度较低。k-means算法的处理过程如下:首先,随机地 选择k个样本,每个样本初始地代表了一个簇的平均值或中心;对剩余的...
2018-05-22 17:30:52
1267
转载 机器学习中的距离公式
1. 欧氏距离,最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 x = (x1,...,xn) 和 y = (y1,...,yn) 之间的距离为:(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:(3)两个n维向量a(x11,x12,…,x1n)与 b(x21...
2018-05-22 15:52:29
2159
原创 聚类算法1-距离表示和评价指标
1.可以实现聚类的算法大概有这么多:K-means系列的:K-means,K-means++,K_means||,canopy,mini Batch K-means密度聚类:层次聚类:谱聚类:2.相似度/距离表示: 2.1 闵可夫斯基距离 两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为: 其中p是一个变参数。当p=1时,就是曼哈顿距离两个n...
2018-05-22 15:49:52
1663
原创 增强for循环不能改变其中元素的值;
LinkedList list2 = new LinkedListlist2.addFirst(1);list2.addFirst(2);for(Integer s:list2){s = 111;System.out.println(s);}//增强for循环不能改变元素的值;for(Integer s:list2){System.out.println(s
2017-12-08 23:35:53
3442
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人