算法岗面试问题总结(五)

文章探讨了Adam优化器和BN层如何加速模型收敛,解释了BN的归一化作用。还涉及Sigmoid函数的导数、模型选择的因素、wide&deep模型在推荐系统中的应用,以及NLP的基本概念和推荐系统的召回与排序策略,特别提到了YouTube的召回模型设计。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. Adam优化器,BN的作用,为什么能加快收敛速度?

Adam优化器主要是在计算梯度的时候采取了随机梯度的方式,但是这样容易陷入局部最优。因此在此基础上又使用梯度的一阶矩来动态调整模型的学习率。起始就是类似于惯性。

优点在于经过偏置校正后,每一次迭代学习率都有一个确定范围,使得参数比较平稳。

BN的作用是模型在训练过程中由于每一个batch样本差别很大,直接训练的话输入网络的数据波动大,不利于收敛。因此,采用“减均值,除以方差”的归一化操作。之后经过线性变换y=scale*x+shift反归一化。

2. 解释一下BN

主要解决深度神经网络调参复杂,收敛速度慢以及优化困难的问题。

对于训练数据,可以计算均值和方差;但是对于测试数据就无法计算,因此这个时候使用的是全量数据的均值和方差。在训练完成之后,会保存全量数据的均值和方差以处理测试数据。

3. BN的gama labada意义是什么

因为减均值,除以方差之后数据的分布变了,因此gama labada参数提供的线性尺度变换会恢复它原本的分布。

4. Sigmoid求导是什么

在这里插入图片描述

5.当你选择模型考虑哪些因素

模型效果࿱

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值