- 博客(44)
- 收藏
- 关注
原创 2022年8月15日陌陌推荐算法工程师面试题5道|含解
DeBERTa提出了两种改进BERT预训练的方法:第一种方法是分散注意机制,该机制使用两个向量分别对每个单词的内容和位置进行编码来表示每个单词,并使用分散矩阵计算单词之间在内容和相对位置上的注意力权重;第二个方法是一个增强的掩码解码器,它取代了输出的Softmax层来预测用于MLM预训练的掩码令牌。使用这两种技术,新的预训练语言模型DeBERTa在许多下游NLP任务上表现都优于RoBERTa和BERT。直接采用现有的多分类模型如LightGBM或者深度模型神经网络进行多分类。两种方法:快排和堆排序。
2022-11-23 15:15:58
963
原创 SHEIN算法工程师面试题7道|含解析
虽然都是有放回的抽样,但二者的区别在于:Bagging采用有放回的均匀取样,而Boosting根据错误率来取样(Boosting初始化时对每一个训练样例赋相等的权重1/n,然后用该算法对训练集训练t轮,每次训练后,对训练失败的样例赋以较大的权重),因此Boosting的分类精度要优于Bagging。2)从目标函数来看,区别在于逻辑回归采用的是logistical loss,SVM采用的是hinge loss,这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。
2022-10-26 16:30:33
1070
原创 2022年6月,海尔集团提前批算法岗面试题5道|含解析
SVM算法就是支持向量机,是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机。SVM可分为三种:线性可分SVM当训练数据线性可分时,通过最大化硬间隔(hard margin)可以学习得到一个线性分类器,即硬间隔SVM。线性SVM当训练数据不能线性可分但是近似线性可分时,通过最大化软间隔(soft margin)也可以学习到一个线性分类器,即软间隔SVM。非线性SVM。
2022-09-21 18:16:41
912
原创 OpenCV图像处理中常见操作
OpenCV是一个基于Apache2.0许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和Mac OS操作系统上,同时支持多语言、跨平台,功能强大。
2022-09-14 16:24:34
1996
原创 NLP对话系统面试总结,从阿里 百度 滴滴一轮游到最终拿下40万offer
研究生毕业后报名了七月的nlp就业小班,独立完成了bert分类,bertner,bertmrc等bert任务,并且完成了毕业项目,回国顺利拿到第一份nlp工作。一面小米应该是过了,但是hr讲今年小米只招1人,所以只能招业务完全匹配的,他们目前有合适的人选了,今年小米人员流失很大,而且基本不招人,往年都招10多个,建议明年再来。一面58同城失败,由于是今年第一次面试,没有准备,面试官详细问了模型蒸馏技术,有些没有回答上,比较尴尬,leetcode问了我第3题,我居然没有答上来。...
2022-07-28 19:18:34
604
原创 2022年京东NLP实习面试题7道
解决方法:通过分组加入相似性惩罚,具体可以参考论文 Diverse beam search:https://arxiv.org/pdf/1610.02424.pdf。具体方法:选择Beam size为B,然后将其分为G组,每一组就有 B/G 个beam,每个单独的组内跟 beam search很像,不断延展序列,同时引入一个 dissimilarity项来保证组与组之间有差异。组内与 beam search 很像:从t-1到 t 时刻,不断的减少搜索空间(如同beam search一样)。组间差异:对
2022-07-05 19:04:20
468
原创 基于开放基准下的点击率预估模型研究 · 详解
业界由于缺乏用于CTR预测研究的标准化基准和统一的评估协议。这导致现有研究中的实验结果不可重复,甚至不一致,这在很大程度上限制了其研究的实际价值和潜在影响。
2022-07-04 17:54:03
381
原创 5年没发paper,学术论文写到头秃...
七月在线干货组继19年出的两本书《名企AI面试100题》和《名企AI面试100篇》后,又整理出《机器学习十大算法系列》、《2021年最新大厂AI面试题 》、《2022年最新大厂AI面试题》五本图书,不少同学通过学习拿到 dream offer。...
2022-06-24 11:18:53
179
原创 2022年高校毕业生破千万,AI岗位23960元跃升高薪职位榜首
▌导读:据说2022年AI岗位的应届毕业生月薪平均2万4啦!2022年,传说中的「金三银四」啪得一下……摇身变成了「铜三铁四」……至于之后的「金九银十」,网易互娱数据分析师「不知渭河」表示,就算有也会提升为地狱难度。毕竟,学生在从高校毕业,码农也在从大厂毕业。同时,据央视财经频道报道,今年高校毕业生人数首次突破一千万,规模创历史新高。其中人工智能相关专业的学生非常抢手,相关岗位工资一度跃升至高薪职位榜首,达到每月23960元。根据智联招聘的统计,人工智能岗位的
2022-04-29 19:11:23
1404
原创 2022年4月10日百度机器学习方向暑期实习面试题分享
问题1:介绍下SVM算法是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机。SVM可分为三种:1、线性可分SVM:当训练数据线性可分时,通过最大化硬间隔(hard margin)可以学习得到一个线性分类器,即硬间隔SVM。线性SVM当训练数据不能线性可分但是近似线性可分时,通过最大化软间隔(soft margin)也可以学习到一个线性分类器,即软间隔SVM。2、非线性SVM:当训练数据线性不可分时,通过使用核技巧(kernel trick)和
2022-04-26 18:11:56
373
原创 3月31日美团春招推荐算法岗面试题分享
问题1:为什么分类问题损失不使用MSE而使用交叉熵1、均方误差作为损失函数,这时所构造出来的损失函数是非凸的,不容易求解,容易得到其局部最优解;而交叉熵的损失函数是凸函数;2、均方误差作为损失函数,求导后,梯度与sigmoid的导数有关,会导致训练慢;而交叉熵的损失函数求导后,梯度就是一个差值,误差大的话更新的就快,误差小的话就更新的慢点。问题2:BN的作用,除了防止梯度消失这个作用外(1)加快收敛速度:在深度神经网络中中,如果每层的数据分布都不一样的话,将会导致网络非常难收敛和训练,而
2022-04-14 18:58:03
413
原创 船舶专业本科零基础:从数据分析成功转行推荐算法成功上岸
基本情况毕业于985本科,船舶与海洋工程专业,年龄30+(报班之前做的数据分析),0.1的基础来自于船舶行业专业计算软件学到点的编程。契机 & 鸡汤我性格有非常非常多弱点,既不能看着船舶行业的天花板躺平,想行动吧又无从下手,自己给自己设限觉得不行,非常深的无力感。契机是以前的一个同事,年龄比我略大,学历差不多,工作专业又是一样的,转行CV,跟他打听到七月在线的,他比我早一年行动,顿时非常心动,就报了。特别感谢七月在线可以帮助我切换赛道,花钱学习是值得的,一是会节省时.
2022-04-08 18:56:05
1189
原创 XGboost模型知识点总结(下)
问题6:XGBoost如何选择最佳分裂点?XGBoost在训练前预先将特征按照特征值进行了排序,并存储为block结构,以后在结点分裂时可以重复使用该结构。因此,可以采用特征并行的方法利用多个线程分别计算每个特征的最佳分割点,根据每次分裂后产生的增益,最终选择增益最大的那个特征的特征值作为最佳分裂点。如果在计算每个特征的最佳分割点时,对每个样本都进行遍历,计算复杂度会很大,这种全局扫描的方法并不适用大数据的场景。XGBoost还提供了一种直方图近似算法,对特征排序后仅选择常数个候选分裂位置作为候
2022-04-07 14:41:30
907
原创 大厂常考决策树模型面试题总结
问题1:ID3、C4.5、CART树的算法思想ID3算法的核心是在决策树的每个节点上应用信息增益准则选择特征,递归地构架决策树。C4.5算法的核心是在生成过程中用信息增益比来选择特征。(1)经验熵 刻画了对数据集进行分类的不确定性。(2)经验条件熵 刻画了在特征 A 给定条件下,对数据集分类的不确定性。(3)信息增益 刻画了由于特征 A 的确定,从而使得对数据集的分类的不确定性减少的程度。信息增益:数据集 D 的经验熵与关于特征 A 的经验条件熵的差值。问题2:ID3、C4.
2022-03-22 16:19:49
1447
2
原创 Web测试转推荐薪资翻3倍多:算法不是天书,算法岗也不是天路
学长寄语:首先,这可能社区中字数比较多的面经之一了,如果你的需求只是看面试题,直接跳到相关部分就好,如果你现在跟我之前一样,纠结要不要转方向,或者很迷茫不知道什么时候才能看到曙光,不妨喝口水从头到尾看一下,内容是比较干的,相信一定对你有帮助。温馨提示:文末有免费试听福利!面试经历/经验1.1.个人情况(双非非全)学校双非,本科信息与计算科学专业(数学学院),开始准备考研之前,成绩基本上都是倒数,硕士软件工程(调剂到非全),研二研三两年有将近两年的工作经验,但是是web开发、测试方向,跟算
2022-03-17 18:55:45
1007
原创 大厂常考机器学习面试题分享(下)
问题6:常见的特征选择方法三种:过滤法,包装法和嵌入法。Filter:过滤法,按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。Pearson相关系数卡方验证互信息和最大信息系数距离相关系数方差选择法Wrapper:包装法,根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。(缺点:训练次数多,复杂度高,但效果好)前向搜索:逐渐增加特征后向搜索:逐渐减少特征递归特征消除法:使用基模型多轮训练,每轮训练后根据得到的权
2022-03-16 17:13:39
1932
原创 【无标题】
问题1:熵、条件熵、互信息、相对熵熵:熵是一个随机变量不确定性的度量。对于一个离散型变量,定义为:一个随机性变量的熵越大,就表示不确定性越大,也就是说随机变量包含的信息量越大。熵只依赖于X的分布,与X的取值无关。条件熵:条件熵 H(Y|X) 表示在已知随机变量 X 的条件下随机变量 Y 的不确定性,H(Y|X) 定义为在给定条件 X 下,Y 的条件概率分布的熵对 X 的数学期望:公式为:互信息:互信息表示在得知 Y 后,原来信息量减少了多少。如果X
2022-03-08 16:35:23
1100
原创 字节跳动2月中旬算法实习生面试题分享
问题1:LSTM原理LSTM是循环神经网络RNN的变种,包含三个门,分别是输入门,遗忘门和输出门。LSTM 与 GRU区别(1)LSTM和GRU的性能在很多任务上不分伯仲;(2)GRU参数更少,因此更容易收敛,但是在大数据集的情况下,LSTM性能表现更好;(3)GRU 只有两个门(update和reset),LSTM 有三个门(forget,input,output),GRU 直接将hidden state 传给下一个单元,而 LSTM 用memory cell 把hidden stat
2022-03-01 15:07:54
585
9
原创 精选大厂常考python面试题
问题1、Python中的列表和元组有什么区别?list 是可变的对象,元组 tuple 是不可变的对象。也就是说列表中的元素可以进行任意修改,而元组中的元素无法修改。问题2、Python数组和列表有什么区别?Python中的数组和列表具有相同的存储数据方式。但是,数组只能包含单个数据类型元素,而列表可以包含任何数据类型元素。问题3、Python中append和extend的区别?append() 向列表尾部追加一个新元素,列表只占一个索引位,在原有列表上增加extend()
2022-02-17 15:13:08
457
原创 美团推荐算法工程师岗8道面试题分享
问题1:各种优化器使用的经验梯度下降:在一个方向上更新和调整模型的参数,来最小化损失函数。随机梯度下降(Stochastic gradient descent,SGD)对每个训练样本进行参数更新,每次执行都进行一次更新,且执行速度更快。为了避免SGD和标准梯度下降中存在的问题,一个改进方法为小批量梯度下降(Mini Batch Gradient Descent),因为对每个批次中的n个训练样本,这种方法只执行一次更新。使用小批量梯度下降的优点是:1) 可以减少参数更新的波动,最终得到效
2022-02-15 17:29:58
482
原创 阿里计算机视觉算法工程师岗5道面试题分享
问题1:手写交叉熵损失函数二分类交叉熵多分类交叉熵其中问题2:结构风险和经验风险怎么理解期望风险:机器学习模型关于真实分布(所有样本)的平均损失称为期望风险经验风险:机器学习模型关于训练集的平均损失称为经验风险,当样本数无穷大∞的时候趋近于期望风险(大数定律)结构风险:结构风险 = 经验风险 + 正则化项经验风险是局部的,基于训练集所有样本点损失函数最小化的。期望风险是全局的,是基于所有样本点的损失函数最小化的。经验风险函数是现实的,可求的。期
2022-02-14 18:04:37
1883
原创 百度计算机视觉算法工程师岗位秋招面试题分享
问题1:对Transformer的理解Transformer本身是一个典型的encoder-decoder模型,Encoder端和Decoder端均有6个Block,Encoder端的Block包括两个模块,多头self-attention模块以及一个前馈神经网络模块;Decoder端的Block包括三个模块,多头self-attention模块,多头Encoder-Decoder attention交互模块,以及一个前馈神经网络模块;需要注意:Encoder端和Decoder端中的每个模块都有
2022-01-24 18:51:08
3015
原创 字节跳动(秋招)计算机视觉算法工程师岗面试题分享
问题1:BN过程,为什么测试和训练不一样?对于BN,在训练时,是对每一批的训练数据进行归一化,也即用每一批数据的均值和方差。而在测试时,比如进行一个样本的预测,就并没有batch的概念,因此,这个时候用的均值和方差是全量训练数据的均值和方差,这个可以通过移动平均法求得。对于BN,当一个模型训练完成之后,它的所有参数都确定了,包括均值和方差,gamma和bata。问题2:Leeetcode:160相交链表方法一:暴力解法对于A中的每一个结点,我们都遍历一次链表B查找是否存在重复结点
2022-01-20 17:20:52
3557
8
原创 顺丰科技视觉算法工程师面经分享
问题1:在原地即不使用任何额外的空间复杂度交换两个数。1、相加寄存:a=a+b b=a-b a=a-b2、位运算:b=a^b; a=a^b; b=a^b问题2:模型的方差和偏差是什么,怎么减少bias和var。偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据.方差:描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散。Baging减少方差,boosting减少偏差。关键点检测实战 [限时1元秒杀,1.19恢复原
2022-01-18 18:22:32
2238
原创 科大讯飞提前批算法工程师面经分享
问题1:Pytorch和Tensorflow的区别?图创建创建和运行计算图可能是两个框架最不同的地方。在pyTorch中,图结构是动态的,这意味着图在运行时构建。而在TensorFlow中,图结构是静态的,这意味着图先被“编译”然后再运行。pyTorch中简单的图结构更容易理解,更重要的是,还更容易调试。调试pyTorch代码就像调试Python代码一样。你可以使用pdb并在任何地方设置断点。调试tensorFlow代码可不容易。要么得从会话请求要检查的变量,要么学会使用tensorFl
2022-01-13 14:37:13
566
原创 bigo推荐算法岗位一/二面 面经分享
问题1:lstm原理三个门作用和sigmoid函数tanh使用,梯度消失问题如何解决,rnn为什么不能,缺点如何造成的。lstm如何解决长期记忆问题 。LSTM是循环神经网络RNN的变种,包含三个门,分别是输入门,遗忘门和输出门。sigmoid函数主要是决定什么值需要更新;tanh函数:创建一个新的候选值向量,生成候选记忆。rnn梯度消失的原因:很难捕捉到长期的依赖关系,因为乘法梯度可以随着层的数量呈指数递减/递增。LSTM中ct到ct-1的路径上梯度不会消失,并不能保证其他路径上梯度不
2022-01-11 18:43:20
543
原创 2021年百度实习算法岗面试题分享
问题1:LR推导目标函数并求梯度逻辑回归损失函数及梯度推导公式如下:求导:问题2:GBDT和XGBOOST差别1、利用二阶信息;2、处理缺失值;3、弱分类器选择;4、列抽样和行抽样;5、正则项做预剪枝;6、并行化处理(特征排序等)。问题3:Batch Normalization 缺点batch太小,会造成波动大;对于文本数据,不同有效长度问题;测试集上两个数据均值和方差差别很大就不合适了附:LN是对一个样本的一个时间步上的数据进行减均除标准
2022-01-10 16:06:14
730
原创 SHAREit(茄子)算法工程师岗位面试题分享
问题1:模型有过拟合的现象,过拟合怎么办?1、降低模型复杂度2、增加更多的训练数据:使用更大的数据集训练模型3、数据增强4、正则化:L1、L2、添加BN层5、添加Dropout策略6、Early Stopping7、重新清洗数据:把明显异常的数据剔除8、使用集成学习方法:把多个模型集成在一起,降低单个模型的过拟合风险问题2:L1正则和L2正则有啥区别?L1是模型各个参数的绝对值之和。L2是模型各个参数的平方和的开方值。L1会趋向于产生少量的特
2022-01-07 15:54:13
517
转载 推荐系统经典面试题,简述什么是wide&deep模型
名词解释1.1 Memorization 和 GeneralizationGoogle Wide&Deep 论文中,通篇都是这两个词,必须搞懂是怎么回事!这个是从人类的认知学习过程中演化来的。人类的大脑很复杂,它可以记忆 (memorize) 下每天发生的事情(麻雀可以飞,鸽子可以飞)然后泛化 (generalize) 这些知识到之前没有看到过的东西(有翅膀的动物都能飞)。但是泛化的规则有时候不是特别的准,有时候会出错(有翅膀的动物都能飞吗)。那怎么办那,没关系,记忆 (memoriza
2021-12-15 18:34:33
733
原创 机器学习大厂笔试面试5000题(101-110)
问题1:给你一个数据集。该数据集包含很多变量,你知道其中一些是高度相关的。经理要求你用PCA。你会先去掉相关的变量吗?为什么?解析1:你可能会说不,但是这有可能是不对的。丢弃相关变量会对PCA有实质性的影响,因为有相关变量的存在,由特定成分解释的方差被放大。例如:在一个数据集有3个变量,其中有2个是相关的。如果在该数据集上用PCA,第一主成分的方差会是与其不相关变量的差异的两倍。此外,加入相关的变量使PCA错误地提高那些变量的重要性,这是有误导性的。解析2:如上图所示,X1和X2
2021-12-12 18:34:15
983
原创 携程秋招算法岗位面试题分享
问题1:Jieba分词的原理是什么1.首先用正则表达式将中文段落粗略的分成一个个句子。2.将每个句子构造成有向无环图,之后寻找最佳切分方案。3.最后对于连续的单字,采用HMM模型将其再次划分。限时1元秒杀>>机器学习工程师特训 第7期【双12限时秒杀,12月14日恢复原价】 - 七月在线12月16日开营!问题2:特征工程的常用方法1.对时间戳处理2.对离散型变量进行独热编码3.对连续型变量进行分箱/分区4.特征缩放5.特征选择6.特征.
2021-12-10 19:21:54
1233
原创 机器学习 - - - LR和SVM的联系与区别?
解析一LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题)区别:1、LR是参数模型,svm是非参数模型,linear和rbf则是针对数据线性可分和不可分的区别;2、从目标函数来看,区别在于逻辑回归采用的是logistical loss,SVM采用的是hinge loss,这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。3、SVM的处理方法是只考虑support vectors,也就是和分类最相关的少
2021-12-09 18:00:09
2373
原创 推荐系统经典面试题(附答案和解析)
问题1:召回分支的作用是什么?解析:快速帮助用户找到可能感兴趣的候选物品;减少排序模型的候选输入,降低系统RT。问题2:如何离线评价召回阶段各种模型算法的好坏?由于没有明确的召回预期值,所以无论rmse还是auc都不知道该怎么做?解析:召回最直接的评估就是召回率,也就是召回集里正样本的比例;也可以不同的召回算法+同一个排序算法,还是用排序之后的AUC和RMSE来评估。双12限时秒杀,不止5折,活动会场-->www.julyedu.com七月在线双12活动正式开启 ·40门AI.
2021-12-08 18:41:23
1989
原创 带你通俗理解LightGBM
GBDT (Gradient Boosting Decision Tree)是机器学习中一个长盛不衰的模型,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点。GBDT在工业界应用广泛,通常被用于点击率预测,搜索排序等任务。GBDT也是各种数据挖掘竞赛的致命武器,据统计Kaggle上的比赛有一半以上的冠军方案都是基于GBDT。LightGBM (Light Gradient Boosting Machine)一个实现GBDT算法的框架,支持高效率的并行训练,
2021-12-07 18:34:25
987
原创 2021年11月23日,某车企NLP算法岗面试题分享
问题1、CNN原理及优缺点CNN是一种前馈神经网络,通常包含5层,输入层,卷积层,激活层,池化层,全连接FC层,其中核心部分是卷积层和池化层。优点:共享卷积核,对高维数据处理无压力;无需手动选取特征。缺点:需要调参;需要大量样本。问题2、word2vec的两种优化方式第一种改进为基于层序 softmax 的模型。首先构建哈夫曼树,即以词频作为 n 个词的节点权重,不断将最小权重的节点进行合并,最终形成一棵树,权重越大的叶子结点越靠近根节点,权重越小的叶子结点离根节点越远。然后
2021-12-06 18:22:18
169
原创 机器学习面试必考面试题汇总—附解析
问题:xgboost对特征缺失敏感吗,对缺失值做了什么操作,存在什么问题不敏感,可以自动处理,处理方式是将missing值分别加入左节点 右节点取分裂增益最大的节点将missing样本分裂进这个节点 。这种处理方式的问题在xgboost仅仅在特征的非缺失的值上进行分裂然后missing值直接放入其中一个节点,显然当缺失值很多的情况下,比如缺失80%,那么xgb分裂的时候仅仅在20%的特征值上分裂,这是非常容易过拟合的。问题:简要说一下Lightgbm相对于xgboost的优缺点优点:直方图算
2021-12-03 16:02:10
1796
2
原创 2021机器学习面试必考面试题汇总(附答案详解)
问题:Xgboost、lightGBM和Catboost之间的异同?树的特征三种算法基学习器都是决策树,但是树的特征以及生成的过程仍然有很多不同。CatBoost使用对称树,其节点可以是镜像的。CatBoost基于的树模型其实都是完全二叉树。XGBoost的决策树是Level-wise增长。Level-wise可以同时分裂同一层的叶子,容易进行多线程优化,过拟合风险较小,但是这种分裂方式也有缺陷,Level-wise对待同一层的叶子不加以区分,带来了很多没必要的开销。实际上很多叶子的分裂
2021-12-02 18:27:48
2828
2
原创 2021年11月15日- 20日,阿里 + 快手计算机视觉岗面试题分享
问题1:BN大致的计算流程?1)计算样本均值。2)计算样本方差。3)样本数据标准化处理。4)进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。文末免费送电子书:七月在线干货组最新 升级的《名企AI面试100题》免费送!问题2:BN的优点?1)计算样本均值。2)计算样本方差。3)样本数据标准化处理。4)进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数
2021-12-01 18:44:47
2117
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人