
数学
_illusion_
知乎主页:https://www.zhihu.com/people/illusions-29/posts
展开
-
torch.view()、transpose()和permute()的联系与区别
最近被pytorch的几种Tensor维度转换方式搞得头大,故钻研了一下,将钻研历程和结果简述如下注意:torch.__version__ == '1.2.0’torch.transpose()和torch.permute()两者作用相似,都是用于交换不同维度的内容。但其中torch.transpose()是交换指定的两个维度的内容,permute()则可以一次性交换多个维度。具体情况如code所示:transpose(): 两个维度的交换 >>> a = torch.Tenso原创 2020-09-23 16:09:11 · 4936 阅读 · 3 评论 -
处理数据时,对数据取对数的意义
平时在一些数据处理中,经常会把原始数据取对数后进一步处理。之所以这样做是基于对数函数在其定义域内是单调增函数,取对数后不会改变数据的相对关系,取对数作用主要有:1. 缩小数据的绝对数值,方便计算。例如,每个数据项的值都很大,许多这样的值进行计算可能对超过常用数据类型的取值范围,这时取对数,就把数值缩小了,例如TF-IDF计算时,由于在大规模语料库中,很多词的频率是非常大的数字。 ...转载 2018-09-14 10:01:00 · 37236 阅读 · 5 评论 -
最大似然估计vs最大后验概率
1) 最大似然估计 MLE给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”。例如,我们知道这个分布是正态分布,但是不知道均值和方差;或者是二项分布,但是不知道均值。 最大似然估计(MLE,Maximum Likelihood Estimation)就可以用来估计模型的参数。MLE的目标是找出一组参数,使得模型产生出观测数据的概率...转载 2018-09-20 01:01:36 · 430 阅读 · 0 评论 -
数据变换的小技巧(经常更新)
引子作为一个小白数据挖掘工程师,如何处理分布不均匀的数据是我们遇到的第一个难题,也是工作中最常见的问题之一。何谓数据分布不均匀?比如用户做一道题的做题时间长度(简称做题时长),在理想状态下应该是正态分布的,即大部分人做题时长在一个合理位置(如3~5分钟),做题时间很长or很短的人应该很少。但实际情况总是这样的吗?非也。由于不论是做题时长、房价还是人的收入,这些变量总有一个下限,却没有上限。...原创 2019-07-11 16:44:57 · 1276 阅读 · 0 评论