
刷题
张楚岚
前石油工人,ml小学生douburu...
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
算法刷题(1)
问题一: 当在文本数据中创建一个机器学习模型时,你创建了一个输入数据为 100K 的文献检索词矩阵(document-term matrix)。 下列哪些纠正方法可以用来减少数据的维度—— 1. 隐狄利克雷分布(Latent Dirichlet Allocation) 2. 潜在语义索引(Latent Semantic Indexing) 3. 关键词归一化(Keyword Normalizat...原创 2019-02-06 21:39:30 · 1866 阅读 · 0 评论 -
算法刷题(2)
题目一: 对应GradientBoosting tree算法, 以下说法正确的是: 1. 当增加最小样本分裂个数,我们可以抵制过拟合 2. 当增加最小样本分裂个数,会导致过拟合 3. 当我们减少训练单个学习器的样本个数,我们可以降低variance 4. 当我们减少训练单个学习器的样本个数,我们可以降低bias A 2 和 4 B 2 和 3 C 1 和 3 D 1 和 4 解析:答案: C ...原创 2019-02-07 23:39:43 · 895 阅读 · 0 评论 -
算法刷题(5)
题目一:关于 ARMA 、 AR 、 MA 模型的功率谱,下列说法正确的是( ) A MA模型是同一个全通滤波器产生的 B MA模型在极点接近单位圆时,MA谱是一个深谷 C AR模型在零点接近单位圆时,AR谱是一个尖峰 D RMA谱既有尖峰又有深谷 解析:正确答案是:D,具体参考https://blog.youkuaiyun.com/d07qs2kxkh0kksxex/article...原创 2019-02-16 11:16:12 · 1187 阅读 · 0 评论 -
算法刷题(3)
问题一:对于线性回归,我们应该有以下哪些假设? 1. 找到离群点很重要, 因为线性回归对离群点很敏感 2. 线性回归要求所有变量必须符合正态分布 3. 线性回归假设数据没有多重线性相关性 A 1 和 2 B 2 和 3 C 1,2 和 3 D 以上都不是 解析: 答案: D 第1个假设, 离群点要着重考虑, 第一点是对的 第2个假设, 正态分布不是必须的. 当然...原创 2019-02-10 00:06:35 · 1821 阅读 · 0 评论 -
算法刷题(4)
题目一:基于统计的分词方法为() A 正向最大匹配法 B 逆向最大匹配法 C 最少切分 D 条件随机场 解析:答案(D) 分词主要分为三类: 第一类是基于语法和规则的分词法。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来进行词性标注,以解决分词歧义现象。因为现有的语法知识、句法规则十分笼统、复杂,基于语法和规则的分词法所能达到的精确度远远还不能...原创 2019-02-11 08:55:10 · 543 阅读 · 0 评论 -
算法刷题(6)
题目一:如果将数据中除圈起来的三个点以外的其他数据全部移除,那么决策边界是否会改变? A 会 B 不会 解析:正确答案是: B,决策边界只会被支持向量影响,跟其他点无关。 题目二:关于SVM泛化误差描述正确的是 A 超平面与支持向量之间距离 B SVM对未知数据的预测能力 C SVM的误差阈值 解析:正确答案是: B,统计学中的泛化误差是指对模型对未知数...原创 2019-02-17 21:50:11 · 1036 阅读 · 0 评论 -
算法刷题(7)
题目一:假定你使用SVM学习数据X,数据X里面有些点存在错误。现在如果你使用一个二次核函数,多项式阶数为2,使用惩罚因子C作为超参之一。 当你使用较大的C(C趋于无穷),则: A 仍然能正确分类数据 B 不能正确分类 C 不确定 D 以上均不正确 解析:正确答案是:A,采用更大的C,误分类点的惩罚就更大,因此决策边界将尽可能完美地分类数据。参考 题目二:假设你训练...原创 2019-02-19 11:38:24 · 798 阅读 · 0 评论