- 博客(6)
- 收藏
- 关注
原创 沃尔玛(Walmart)数据科学家面试的概率问题分享
曾经我有幸通过在沃尔玛工作的朋友推荐,参加了沃尔玛数据科学家三级职位的面试。第一轮面试持续了大约 1 小时 10 分钟。面试分为 4 个环节——第一环节是项目经历介绍,由于这是筛选面试,面试官想多关注其他话题,这部分仅用了约 10 分钟。第二环节是编程测试,面试官出了三道 LeetCode 简单难度的题目。第三环节考察概率论,面试官提出了 3 个概率问题。第四环节则是关于数据处理的问题,比如如何连接两个数据框。下面让我们重点来看看这些概率问题。我先列出三个问题,然后分享我的解答。
2024-11-14 14:53:20
409
原创 为什么 Meta 如此关注面试中的概率问题
最近,我的两位朋友参加了 Meta 伦敦办事处的软件工程师面试。他们都觉得自己准备充分 – 掌握了编码算法和系统设计知识。但出乎意料的是,他们都遇到了一个难题 – 一个概率问题让他们百思不得其解。我被他们的经历所吸引,于是进入了与 Meta 相关的 LeetCode 讨论,结果发现一个不可否认的趋势:许多应聘者都遇到了类似的概率问题。事实上,一位用户甚至表示:“Meta 几乎总是会抛出概率问题!那么,为什么概率问题会成为 Meta 面试过程中的主要问题?更重要的是,如何掌握这些问题才能脱颖而出?
2024-11-13 20:51:10
636
原创 IBM—AI工程师面试记录
由于 IBM 确实处于人工智能的前沿并关注人工智能的正确应用,面试官询问了我如何处理人工智能模型中的偏见,特别是在医疗保健或招聘算法等领域。我谈到了多样化数据集的重要性、公平意识机器学习算法的必要性,以及开发可解释性技术的努力,以便能够证明和解释人工智能做出的决策。她询问了我很多关于过往人工智能项目的问题,引导我解释思考过程和各种决策背后的逻辑,以及我遇到的障碍。的情况,这可能是由数据漂移导致的。随后,我们讨论了某些模型在高维空间中的局限性,在这个过程中我也从讨论中学到了新的见解。
2024-11-12 20:08:45
384
1
转载 XGBoost
一、XGBoost原理GBoost实现的是一种通用的Tree Boosting算法,此算法的一个代表为梯度提升决策树(Gradient Boosting Decision Tree, GBDT),又名MART(Multiple Additive Regression Tree)。GBDT的原理是,首先使用训练集和样本真值(即标准答案)训练一棵树,然后使用这棵树预测训练集,得到每个样本的预测值,...
2019-02-01 22:17:52
335
转载 GDBT
借鉴第1~4节:GBDT算法内部究竟是如何工作的?第5节:它可以用于解决哪些问题?第6节:它又是怎样应用于搜索排序的呢? GBDT主要由三个概念组成:Regression Decistion Tree(即DT),Gradient Boosting(即GB),Shrinkage (算法的一个重要演进分枝,目前大部分源码都按该版本实现)。搞定这三个概念后就能明白GBDT是如何工作...
2019-01-29 18:16:46
256
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人