机器学习笔试题
clbobo
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
集成学习之GBDT超详细推导
集成学习之GBDT超详细推导原创 2019-11-03 21:52:01 · 278 阅读 · 0 评论 -
gbdt推导
gbdt推导原创 2019-11-03 20:54:30 · 189 阅读 · 0 评论 -
AdaBoost原理详解
AdaBoost原理详解原创 2019-11-03 16:10:10 · 175 阅读 · 0 评论 -
KMeans讲讲,KMeans有什么缺点,K怎么确定
KMeans讲讲,KMeans有什么缺点,K怎么确定原创 2019-11-03 14:00:51 · 649 阅读 · 0 评论 -
决策树算法十问及经典面试问题
决策树算法十问及经典面试问题原创 2019-11-02 13:22:32 · 156 阅读 · 0 评论 -
(计算机视觉)(笔试—面试)真题
1 用经典的caffe网络训练,得到一个100KB的模型,里面共存储了____个权重值 ~~~~~~~ 100*1024 = 102400Byte 假设每个权重值为float变量,则有102400/4=25600个权值2 ...原创 2019-10-16 13:16:17 · 8813 阅读 · 0 评论 -
rf和gbdt基分类器区别,里面的决策树分别长啥样,怎么剪枝
rf和gbdt基分类器区别,里面的决策树分别长啥样,怎么剪枝原创 2019-10-15 17:12:50 · 653 阅读 · 0 评论 -
集成学习原理详解
https://tengziwill.github.io/2019/06/21/%E9%9B%86%E6%88%90%E5%AD%A6%E4%B9%A0%E5%8E%9F%E7%90%86%E8%AF%A6%E8%A7%A3/#more原创 2019-10-15 17:07:00 · 330 阅读 · 0 评论 -
boosting和 bagging区别
https://www.nowcoder.com/ta/review-ml/review?query=&asc=true&order=&page=85原创 2019-10-15 17:05:07 · 181 阅读 · 0 评论 -
AdaBoost和GBDT、Random forest区别
AdaBoost和GBDT的区别链接:https://www.nowcoder.com/questionTerminal/eea0683498e0414382566dbb33ae2499来源:牛客网AdaBoost和GBDT的区别AdaBoost是通过提升错分数据点的权重来定位模型的不足,而GBDT是通过梯度来定位模型的不足AdaBoost和Random foreast的区别AdaBo...原创 2019-10-15 16:51:31 · 320 阅读 · 0 评论 -
boosting和 bagging区别
https://www.nowcoder.com/ta/review-ml/review?query=&asc=true&order=&page=85原创 2019-10-15 16:25:14 · 609 阅读 · 0 评论 -
KMeans讲讲,KMeans有什么缺点,K怎么确定
https://www.nowcoder.com/questionTerminal/faedd8e384db423fa8a0f811dacf9ffc原创 2019-10-15 16:12:47 · 122 阅读 · 0 评论 -
RF, Kmeans算法
RF:通过对训练数据样本以及属性进行有放回的抽样(针对某一个属性随机选择样本)这里有两种,一种是每次都是有放回的采样,有些样本是重复的,组成和原始数据集样本个数一样的数据集;另外一种是不放回的抽样,抽取出大约60%的训练信息。由此生成一颗CART树,剩下的样本信息作为袋外数据,用来当作验证集计算袋外误差测试模型;把抽取出的样本信息再放回到原数据集中,再重新抽取一组训练信息,再以此训练数据集生成一颗...原创 2019-10-15 15:59:56 · 444 阅读 · 0 评论 -
知道哪些传统机器学习模型 Loss Function有哪些,怎么用
知道哪些传统机器学习模型Loss Function有哪些,怎么用原创 2019-10-15 15:39:39 · 304 阅读 · 0 评论 -
为什么要用交叉熵作为代价函数
为什么要用交叉熵作为代价函数原创 2019-10-15 15:29:53 · 122 阅读 · 0 评论 -
机器学习中正则化项L1和L2的直观理解
机器学习中正则化项L1和L2的直观理解原创 2019-10-15 15:21:52 · 129 阅读 · 0 评论 -
核函数的种类和应用场景
添加链接描述原创 2019-10-14 19:50:58 · 2132 阅读 · 0 评论 -
生成模型和判别模型基本形式,有哪些
添加链接描述原创 2019-10-14 19:47:24 · 250 阅读 · 0 评论 -
LR和线性回归的区别
添加链接描述原创 2019-10-14 19:42:15 · 234 阅读 · 0 评论 -
如果数据有问题,怎么处理
添加链接描述原创 2019-10-14 19:34:43 · 403 阅读 · 0 评论 -
SVM的硬间隔,软间隔表达式?
SVM的硬间隔,软间隔表达式SVM使用对偶计算的目的是什么,如何推出来的,手写推导原创 2019-10-14 15:15:50 · 479 阅读 · 0 评论 -
SVM的作用,基本实现原理
SVM的作用,基本实现原理一步步推导SVM公式原创 2019-10-14 15:03:26 · 2116 阅读 · 0 评论 -
什么是支持向量机,SVM与LR的区别?
什么是支持向量机,SVM与LR的区别?讨论原创 2019-10-14 14:28:51 · 376 阅读 · 0 评论 -
交叉熵和KL散度
为什么交叉熵(cross-entropy)可以用于计算代价?详解机器学习中的熵、条件熵、相对熵和交叉熵原创 2019-10-14 14:27:23 · 409 阅读 · 0 评论
分享