2019-04-13百度面试总结

这篇博客是作者的百度面试总结,涵盖了SVM算法的推导,脑电项目的实验细节,如数据验证、特征处理、CSP特征提取和FBCCA的解释。此外,还讨论了数据库相关问题,实习期间遇到的强化学习算法Q-Learning和Sarsa,以及NLP领域的知识,如RNN和LSTM。在模型知识部分,涉及了数据不平衡的处理和分类模型的选择。面试中还涉及到Python与C语言的区别,Linux命令的使用,以及编程题,包括二叉树和动态规划的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

百度面试总结
一.脑电项目相关:有很多可以问的,细节还是要再抠。
1.SVM算法公式推导
(为什么要用拉格朗日,对偶原理,适合处理局部关联集中的数据?)
2. 脑电实验数据量是多大
3. 这个实验结果如何验证:交叉验证
4. 除了准确率还有哪些评价分类好坏的指标:ROC,AUC
5. 选取的特征做归一化了吗?为什么?什么算法不用做归一化:决策树,树类的。
6. CSP特征提取是怎么提的?为什么只用17个通道?(这段CSP的推导当时没答好)
7. FBCCA具体解释一下?滤波是怎么滤的?怎么设置的带宽?(通过不同带通滤波器将信号分解为多个子带信号)
8. 为什么用Matlab写脑电的处理程序
(数据采集回来是bdf格式的,通过matlab变换成可处理的mat格式方便后续算法处理)
10. BP-NN网络具体是怎么搭建的,不同层节点数的选取有什么说法?为什么要选择SVM和BP-NN的算法,不考虑别的
10.CNN算法推导
引出的:还了解别的算法吗?rf,gdbt的原理,推导?
二、数据库
出个题会做题吗
三、实习
首先简历要重新写,让人看明白意思(已经修改)
1.强化学习Q-Learning 算法和Sarsa算法的推导
2.RNN、LSTM具体介绍一下。
10.中文分词的训练集是什么样子的
11.训练分类的特征是什么
12.NLP还有什么了解的么,就说了个word2vec,(CBOW,skip-gram)
四、模型的知识
1.模型数据不均衡怎么办:knn
2.给了一个实例,负样本里掺杂正样本(没有区别干净)。这样的负样本和正样本,用什么样的模型去分类有效呢。
五、用什么编程语言
python的赋值和C有什么不同:
回答:C语言中,给为变量 b 分配一个 int 型的内存单元,然后将整数 3 存放在该内存单元中。b 就代表了该块内存空间,不再移动,可以更新 b 的值,但 b 在内存中的地址就不再变化了。所以我们说 b = b + 5,就等于 b ← b + 5,把 b 的值加 5 之后还依然放入 b 中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值