
随笔系列
文章平均质量分 51
lotuswhl
http://www.cnblogs.com/dragonboss/
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
随笔系列之- log loss
log loss在机器学习构建分类模型的任务中经常使用的损失度量方法; 对数损失的公式为: −∑iN∑jMyijlog(pij)−∑iN∑jMyijlog(pij)-\sum_i^N\sum_j^My_{ij}log(p_{ij}) 其中N对应于我们的样本数或者输入的实例的数量,i对应于某一个样本或者实例;M表示我们的样本可能的分类数量,j表示某一个分类;yijyijy_{ij} 表示对...原创 2018-04-01 21:41:55 · 5464 阅读 · 0 评论 -
随笔系列之- ROC And AUC
关于ROC与AUC的一点点介绍ROC Receiver Operating CharacteristicsROC是一种曲线用于描述二分类判别器对不同的threshold的曲线;用于表达判别器的分类能力; 其主要有两个指标:TPR和FPR,根据这两个值(不同的threshold有不同的值)来绘制曲线;TPR : True Positive Rate TPR=TPTP+FNTPR=...原创 2018-04-02 21:33:20 · 423 阅读 · 0 评论 -
随笔系列之- 数据的类型(Categorical(Nominal),Ordinal,Internal)
几个数据类型:Categorical Type,Ordinal Type,Interval Type介绍在机器学习或者数据处理的任务中,我们遇到的数据类型往往是多种多样的,对于不同的数据类型,我们的处理方式/分析方法会有所不同,因此了解不同的数据类型是有必要的.下面简单的介绍一下这几种数据类型,也便于自己以后参考,不足之处,日后修正.Categorical Type 什么是ca...原创 2018-04-03 00:24:39 · 11465 阅读 · 0 评论 -
随笔系列之 交叉熵(cross entropy) and KL divergence
有关交叉熵Cross Entropy 与KL 散度的一点点cross entropy我相信了解过机器学习的基本算法的人没有不知道交叉熵这个东西的;通常,我们在机器学习的模型训练中会使用交叉熵作为我们损失函数 log loss. 但是,我们可能大概的理解,只要这个交叉熵损失函数越小,我们的模型就会越准确,似乎是意见很神奇的事情;如果理解的多一点的可能会从其表达式来理解,比如:二分类问题的交叉...原创 2018-05-03 22:26:26 · 1637 阅读 · 0 评论 -
随笔系列之 一致性哈希(consistent hash)
简单说说一致性hash关于hash 首先,什么是hash以及为什么要用hash?简单带过: hash本身就是将目标对象或者数据片段映射到另外一个数据片段中.在编程环境下,通常意味着将一个数据或数值数据或字符串数据等等,映射为一个整型数值. 那么为何要用hash?很简单的一个原因:为了速度!为了方便!当然,这里指的是日常编程需要对hash的用法.除了方面访问数据,hash还有别的...原创 2018-05-04 17:52:55 · 306 阅读 · 0 评论