机器学习
文章平均质量分 72
鱼只
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
二叉树的遍历
树节点的定义#Definitionforabinarytreenode.#classTreeNode:#def__init__(self,x):#self.val=x#self.left=None#self.right=None前序、中序、后序遍历模板1前序class Solution: def preorderTraversal(self, root: Tree...原创 2020-08-19 22:21:04 · 201 阅读 · 2 评论 -
常见排序算法及python实现
1、冒泡排序冒泡排序的思想就是相邻元素两两比较,每一轮遍历把当前最大元素放到最后def bubble_sort(seq): length = len(seq) #获取seq长度 for i in range(length): flag = True #判断本轮seq是否发生改变的标志位 for j in range(0, length-i-1): if seq[j] > seq[j+1]: #相邻元素两两比较原创 2020-08-18 10:39:50 · 194 阅读 · 0 评论 -
Naive Bayesian
朴素贝叶斯简单来说就是以贝叶斯原理为基础的根据先验概率计算出后验概率,然后选择概率较大的那一类作为分类结果的方法。假设有样本数据集D={d1,d2,…,dn},样本对应的特征属性集为X={x1,x2,…,xd},类别变量为Y={y1,y2,…,ym},那么给出X的时候,如何估计类别变量Y呢根据贝叶斯定理,有其中P(Y)称为先验概率,P(Y|X)称为后验概率,P(X|Y)/P(X)称...原创 2020-03-12 10:33:41 · 231 阅读 · 0 评论 -
SVM
CorinnaCortes和VladimirVapnik于1995年在《Support-vector networks》中提出了SVM(Support Vector Machine)。Cortes目前是Google的研究员,Vapnik就职于Facebook。下面一起来看一下SVM的原理。1、硬间隔SVM(线性可分)百度百科对SVM的定义是:支持向量机(Support Vector...原创 2020-03-11 10:19:33 · 607 阅读 · 0 评论 -
Faster SVM
1、sequential minimal optimization2、stochastic gradient descent原创 2020-03-11 10:18:37 · 197 阅读 · 0 评论 -
Logistic Regression原理
快速理解Logistic Regression,关键是掌握模型函数,损失函数或目标函数首先看模型函数最终训练出来的模型如下,其中表示预测值,表示输入的特征值,后面提到的为真实值,和就是模型需要学习的参数,接下来,看一下模型学习的过程模型的损失函数为模型的训练过程就是对L的最小化过程,也即是对和更新的过程,也即是梯度下降的过程,关于为什么使用梯度下降法求最小值而不...原创 2020-01-13 22:07:31 · 218 阅读 · 0 评论 -
周志华—机器学习学习记录(第一章)
之前一直因自己的懈怠和课题进度的原因忽视了对机器学习领域基础原理的学习,以致后续学习乏力,遂重头开始学习周志华老师所著机器学习一书。第一章 绪论NFL(No Free Lunch)定理在1.4章,提到了一个NFL(No Free Lunch)定理百度一下这个NFL定理:1)对所有可能的的目标函数求平均,得到的所有学习算法的“非训练集误差”的期望值相同;2)对任意固定的训练集...转载 2019-09-15 11:19:40 · 264 阅读 · 0 评论 -
周志华—机器学习学习记录(第二章)
第二章 模型评估与选择数据集的划分数据集的划分:训练集大约占样本的2/3~4/5bootstrap部分。给定一个包含m个样本的数据集D,采样产生数据集D',每次有放回地从D中取一个样本放入D',样本在m次采样中始终不被采到的概率是,取极限得到这样大约有36.8%的样本未出现在D',D’作为训练集,D-D‘作为测试集,这样训练集也大约占了2/3bootstrap方法适用...转载 2019-09-23 10:54:55 · 570 阅读 · 0 评论
分享