
神经网络算法
文章平均质量分 89
kennyadelaide
人与人应该多点信任
展开
-
Deep Interest Evolution Network for Click-Through Rate Prediction
前一段时间的工作没来的急总结,现在总结一下!欢迎指正.......! @: kenny13141314@163.com今天总结一篇大概是2019年的一篇文章,这篇文章在DIN 的基础之上进行了扩展,属于推荐系统中的精排部分。在DIN中的粗排选择了基于用户的协同过滤算法,因此这篇文章的实现我也采用基于用户的协同过滤算法作为粗排。实际上这篇文章比较简单,首先是通过协同过滤算法将每个用户的历史记录通过时间排序存储到字典中, 代码如下:'''@name: kenny adelaide@time: 20原创 2022-05-10 10:48:59 · 353 阅读 · 0 评论 -
Meta-Learning for Online Update of Recommender Systems
这篇文章是基于元学习的文章,在推荐系统领域通过牺牲可接受的计算代价,更新模型的参数,同时采用数据流式计算,并返回用户感兴趣的结果。文章中涉及到的主要技术有GAT, embedding,MLP。等主要技术。有关论文实现的代码,比较乱(没有工程化处理),但是思路清晰, 不喜勿喷,可以留言评论交流。step 1: 构建用户的反馈历史:主要通过两个方面进行:1 获取指定用户的历史交互item2, 获取指定item 的历史响应用户关键信息如下:step 2: 扩展代表向量,实际上是通过查表lo原创 2022-03-30 17:51:44 · 602 阅读 · 0 评论 -
Deep Interest Network for Click-Through Rate Prediction (base model) for video recommendation
为了实现视频推荐, 参照DIN 网络模型, 我做了如下修改: DIN 是为了广告推荐而生, 但是我是视频推荐,因此将click 表示为喜欢, unclick 表示为不喜欢, 只要是没有用户操作的: 点击,收藏,评论等行为都属于不喜欢。 有相关记录的表示为click。 因此实际上采用的是二分类模型。 为了降低网络的参数, 稀疏向量映射到等长向量空间采用同样的权重(unclick and click)代码距离部署还有需要完善的地方, 因此勿喷.....在这篇文章中,提...原创 2022-02-15 16:42:58 · 992 阅读 · 0 评论 -
Wide&Deep 论文实现
为了实现Deep Feedback Network for Recommendation 这篇文章中工业级算法,发现这篇文章的基础是Wide&Deep, 只不过增加了三个transformer 以及机器的self-attention机制, 关键在于Wide&Deep 这篇算法的实现, 当然DFN中的反馈机制与我目前的视频推荐很类似, 只不过wechat 研究的是story 推荐。整篇文章的核心内容以及公式请在网上去查找, 相应的都有很多。我尽最大程度上还原了改论文的思想,以及文中提出的特征交原创 2022-01-18 16:08:47 · 841 阅读 · 0 评论 -
神经网络BP算法
'''-author-: 张俊 陈敏治time: 3-18/2018company: 西华师范大学理科楼B13实验室'''import osimport math as mh;import stringimport numpy as np;import matplotlib.pyplot as plimport matplotlib.animation as anim...原创 2018-03-18 16:25:25 · 281 阅读 · 0 评论 -
协方差的意义和计算公式
https://blog.youkuaiyun.com/beechina/article/details/51074750转载 2016年04月06日 14:43:46标签:协方差73055学过概率统计的孩子都知道,统计里最基本的概念就是样本的均值,方差,或者再加个标准差。首先我们给你一个含有n个样本的集合,依次给出这些概念的公式描述,这些高中学过数学的孩子都应该知道吧,一带而过。很显然,均值描述的是样本集合...转载 2018-04-14 17:18:09 · 253 阅读 · 0 评论 -
优化器,梯度。学习策略
回归与梯度下降 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如本地加权回归、逻辑回归,等等。 用一个很简单的例子来说明回归,这个例子来自很多的地方,也在很多的开源软件中看到,比如说weka。大概就是,做一个房屋价值的评估系统,一个房屋的价值来自很多地方,比如说面积、房间的数量...转载 2018-04-10 15:01:02 · 342 阅读 · 0 评论 -
深入析构 交叉熵代价函数(Cross-entropy cost function) 优化器
信息论 交叉熵代价函数(Cross-entropy cost function) 的数学意义: 数学意义: 用于度量两个概率分布间的差异信息, 与二次代价函数比较: 二次代价函数不考虑概率性,在几何上的解释: 二次闵可夫斯基距离: 欧式距离, 在处理数据的bool尔值类型和联系性数据特征时,连续性数据可以采用一次代价函数:曼哈顿距离。非连续性函数采用二次。因此,在处理连续性数据特征和...原创 2018-04-04 10:27:52 · 629 阅读 · 0 评论 -
极大似然估计
以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:贝叶斯决策 首先来看贝叶斯分类,我们都知道经典的贝叶斯公式: 其中:p(w):为先验概率,表示每种类别分布的概率;:类条件概率,表示在某种类别前提下,某事发生的概率;而为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概...转载 2018-04-11 16:58:02 · 813 阅读 · 0 评论