
阅读笔记
蕉叉熵
熵叉蕉
展开
-
Learning To Rank 学习笔记
LossMean Reciprocal Rank (MRR)https://en.wikipedia.org/wiki/Mean_reciprocal_rankMRR=1∣Q∣∑i=1∣Q∣1rankiMRR = \frac{1}{|Q|}\sum_{i=1}^{|Q|}{\frac{1}{rank_i}}MRR=∣Q∣1i=1∑∣Q∣ranki1RRRRRR是衡量单次Query的指标,正确结果越靠前,RRRRRR越大。MRRMRRMRR是衡量多次Query的指标。Query返原创 2020-09-20 19:08:22 · 646 阅读 · 0 评论 -
《DeepFM: A Factorization-Machine based Neural Network for CTR Prediction》阅读笔记
DeepFM: A Factorization-Machine based Neural Network for CTR Prediction 现有的针对CTR预估问题的解决方案,普遍对不同阶的交叉特征有着偏好,或者需要专家级特征工程。文章提出了DeepFM模型,能够实现端到端训练,不需要额外的特征工程,并且可以自动地提取交叉特征。 CTR预估中,一个很重要的内容就是去挖掘点击背后隐藏...原创 2018-04-26 21:13:55 · 2134 阅读 · 0 评论 -
《Attention Is All You Need 》阅读笔记
Attention Is All You Need 阅读笔记Introduction 这是谷歌发表的文章,针对nlp里的机器翻译问题,提出了一种被称为”Transformer”的网络结构,基于注意力机制。文章提出,以往nlp里大量使用RNN结构和encoder-decoder结构,RNN及其衍生网络的缺点就是慢,问题在于前后隐藏状态的依赖性,无法实现并行,而文章提出的”Transfo...原创 2018-05-16 17:40:44 · 32904 阅读 · 5 评论