
推荐技术
文章平均质量分 94
iterate7
阳春布德泽,咱能生光辉?
百川东到海,不能复西归,
少壮要努力,以免徒伤悲!
展开
-
搜索排名:基于lightgbm的learn2rank
learning2rankpointwise: 一个文档一个point,计算得分。可以排序; 回归问题,分类问题都可。pairwise: 任何两篇的排序;listwise:所有文档的排序损失之和。lightgbmLightGBM is a gradient boosting framework that uses tree based learning algorithms.https://lightgbm.readthedocs.io/en/latest/基于lightgbm的learn原创 2020-10-03 11:34:26 · 2273 阅读 · 2 评论 -
MAP_K 检索评估指标
1. MAP_KMAP: mean average precision.precision很容易理解;precision@10表示检索10个文档中包含相关所占的比例, 比如检索了10个,有9个是相关的,那么 precision@10=0.9average precision, 也容易理解。 可以看p1,p2,p3,p4,p5,p6的平均值;就是 ap6的值mean 则是对所有的case求mean则是结果。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(im原创 2020-05-24 21:57:26 · 3251 阅读 · 0 评论 -
word2vec
Word2vec 可以通过训练语料(不需要熟语料),针对每个词产生一个向量(word representations or word embeddings)。 非常简单有效,是deep learning应用到NLP领域的一个非常好的模型。原创 2015-12-11 15:47:57 · 1205 阅读 · 0 评论 -
矩阵分解之最小二乘法ALS
本文从稀疏矩阵分解引入,构建了平方损失函数,从而引入最小二乘法和随机梯度下降两种求解方法,并进行了求导的推导,并用python来实战观察两种方法的效果。原创 2017-10-24 11:19:17 · 3727 阅读 · 0 评论