Neural Factorization Machines (NFM)

本文探讨了NFM如何通过简化策略减轻deepFM在embedding层的高参数量问题,重点介绍了其创新的Bi-InteractionLayer,它通过特征相乘相加实现更高效模型设计。NFM在宽&深架构中占据核心地位。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

deepFm在embedding上直接concat参数量是f*k,在此基础上NFM提出简化策略以轻量化模型.因此NFM仍然是以wide&deep作为主框架的.
在这里插入图片描述
作者提出的连接方式更加的暴力,不是concat而是使用Bi-Interaction Layer名字很高级实际就是按照一种规则将特征相乘再相加具体表示如下
在这里插入图片描述

NFM (Neural Factorization Machines) 是一种结合了矩阵分解和深度学习技术的推荐系统模型。它在PyTorch库中实现复现通常涉及以下几个步骤: 1. **安装依赖**:首先需要安装PyTorch库以及相关的数据处理和科学计算库,如NumPy、Pandas。 ```python pip install torch torchvision numpy pandas ``` 2. **理解基础**:熟悉神经网络和因子分解的基本原理,理解NFM模型结构,包括用户和物品的嵌入层、交互层、以及可能的全连接层。 3. **模型构建**:在PyTorch中创建一个NFM类,包含输入、嵌入层、交互矩阵生成、以及预测等函数。例如,可以使用`nn.Embedding`模块进行嵌入,然后通过点积运算生成交互矩阵。 ```python class NFM(nn.Module): def __init__(self, num_users, num_items, emb_dim, hidden_units): super(NFM, self).__init__() self.user_embedding = nn.Embedding(num_users, emb_dim) self.item_embedding = nn.Embedding(num_items, emb_dim) self.interaction_layer = nn.Linear(emb_dim * 2, emb_dim) # 二阶项 self.fc_layers = nn.Sequential(*[nn.Linear(emb_dim, unit) for unit in hidden_units] + [nn.Linear(hidden_units[-1], 1)]) def forward(self, users, items): user_vecs = self.user_embedding(users) item_vecs = self.item_embedding(items) interaction = torch.cat((user_vecs * item_vecs, user_vecs + item_vecs), dim=-1) interaction = F.relu(self.interaction_layer(interaction)) fc_out = self.fc_layers(interaction) return fc_out ``` 4. **训练与优化**:准备数据,比如用户-物品评分对,使用PyTorch的损失函数(如均方误差MSE)和优化器(如Adam)来训练模型。 5. **评估与验证**:通过交叉验证或预留部分数据进行模型性能评估,如计算准确率、AUC等指标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值