机器学习必刷题-手撕推导篇(3):FM与softmax

本文精选常见机器学习面试题目,涵盖手撕推导、模型对比、工程实践及基础概念,详解FM模型推导过程,对比线性拟合、Poly2等方法,深入解析softmax函数及其在多分类问题的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本系列文章对常见的机器学习面试题进行了搜集、分类和整理,主要包括”手撕推导篇“、“模型比较篇”、“工程经验篇”以及“基础概念篇”等多个板块,旨在帮助广大算法工作者能够从容应对求职面试!

推导FM

(1) 线性拟合(LR)

img
缺点: 线性拟合无法自动表示特征的相互组合,组合特征都是通过人工特征工程加入的,费时费力。

(2) Poly2

在LR基础上,加入任意两个特征之间的关系
其中,wij是feature pair(xi,xj)的权重,只有xi和xj都非零时,组合特征xixj才有意义。

由于样本数据非常稀疏,满足“xi和xj都非零”的样本将会非常少,很容易导致参数wij不准确,严重影响模型性能。

缺点:

  • 参数空间大幅增加,由线性增加至平方级,训练效率极低且容易内存溢出;
  • 在数据稀疏的场景下,二次项系数难以充分训练。
  • 当样本量不足以训练巨大的参数空间时,非常容易过拟合;
(3) FM

FM将wij分解为两个向量的内积:
在这里插入图片描述

其中,vi是一个k维向量。直观上看,FM的复杂度为O(kn2),但是通过下式,FM的二次项可以化简,其复杂度可以优化到O(kn)。由此可见,FM可以在线性时间对新样本做出预测。

划重点:FM推导过程

(1) 根据矩阵对称性

在这里插入图片描述(2) f求和项可以单独出来,而且
在这里插入图片描述

FM的优势:

  • 参数的数量大幅度缩减,从n×(n−1)/2降低到nk;
  • 隐向量的点积可以表示原本两个毫无相关的参数之间的关系;
  • 可以解决稀疏向量问题,因为每个特征都有一个隐向量,就算是稀疏向量在训练样本没有出现过的组合在预测时也可以进行计算。

推导softmax

1、softmax函数

softmax回归是LR在多分类问题上的推广,一般用于神经网络的输出层,叫做softmax层。

假设在进入softmax函数之前,模型的全连接网络输出为:

img

其中,C为类别的个数。则对每个样本,它属于类别 i 概率为:

img

img

更详细地如下图所示:

img

2、softmax求导

对softmax函数进行求导,即求:

img

第 i 项的输出 yi 对j项输入 aj 求导。

代入softmax函数表达式,可以得到:

img

因此,

当 i = j 时:

img

当 i != j 时:

img
在这里插入图片描述

3、结合交叉熵loss求导

对一个样本来说,真实类标签分布与模型预测的类标签分布可以用交叉熵来表示:

img

最终,对所有的样本,我们有以下loss function:

img

img

更多参考:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值