
文献阅读
余晖消逝之前都不算终点
这个作者很懒,什么都没留下…
展开
-
关于阅读文献
准研一刚入学的时候,师兄曾教过一些阅读文献的注意事项,我觉得非常有用,因此总结并记录下来。一. 这个论文研究什么问题(三点)第一:要解决的问题(problem)第二:面临的挑战(challenge)第三:动机(motivation)这三点一定要仔细深究一下。1. 要解决的问题(problem)又包含三个要素:目标(objective),约束(constraint),控制变量(dec...原创 2019-02-18 20:52:27 · 274 阅读 · 0 评论 -
《Collaborative Filtering with Recurrent Neural Networks》阅读
摘要:我们表明协同过滤可以被视为一种序列预测问题,并且给出了解释,递归神经网络提供了非常有竞争力的方法。 我们特别研究了如何将长期短期记忆(LSTM)应用于协同过滤,以及它如何与电影推荐的标准最近邻法和矩阵分解方法进行比较。 最终表明LSTM在各个方面都很优秀,并且在物品覆盖率和短期预测方面基本优于其他方法。关键词:协同过滤,推荐系统,循环神经网络,LSTM,深度学习1.介绍:协同过滤...翻译 2019-03-11 21:58:41 · 1016 阅读 · 0 评论 -
《Long and Short-Term Recommendations with Recurrent Neural Networks》阅读
递归神经网络最近已成功地应用于基于会话的推荐问题中,并且是基于序列预测的协同过滤日益增长的兴趣的一部分。这种新的推荐方法揭示了以前被忽视的一个方面:短期和长期推荐之间的差异。 在这项工作中,我们描述了许多种协同过滤方法的完整短期/长期概况,并且我们展示了如何应用循环神经网络进行更好的短期或长期预测。我们还表明,RNN不仅适用于基于会话的协同过滤,而且非常适合在密集数据集上进行协同过滤,并且它优于传...翻译 2019-05-17 20:02:08 · 902 阅读 · 2 评论 -
论文阅读《LightGBM: A Highly Efficient Gradient Boosting Decision Tree》
LightGBM:一种高效的梯度提升决策树摘要:梯度提升决策树(GBDT)是一种流行的机器学习算法,并且有很多有效的实现,如XGBoost和pGBRT。 尽管在这些实现中已经采用了许多工程优化,但是当特征维度高且数据量大时,效率和可伸缩性仍然不能令人满意。一个主要原因是,对于每个特征,需要扫描所有数据实例以估计所有可能的分裂点的信息增益,这非常耗时。为了解决这个问题,我们提出了两种新技术:...翻译 2019-08-20 16:25:49 · 987 阅读 · 0 评论