机器学习32道选择题

本文解答了几道关于概率的问题,并探讨了算法中的偏差与方差问题。包括快递归属概率、最低分期望值、Bagging与Boosting的区别及LR正则化的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 丰巢柜中有A、B、C、D、E、F六个人的快递,每个人各有两个快递。现在随机取出5个快递,那么5个快递中至少有2个快递属于同一个人的概率是多少?(0.757575757575758)

2. 假设有三个人同时参加这场笔试,假设满分为1,三个人的得分符合分布U(0,1)。那么三个人最低分的期望为? (1/4)

3.

ABCD

4.

Bagging降方差
Boosting降偏差 

5. EM算法是(无监督)

6.

7. 

GBDT对异常值敏感。学习的是残差,异常值的残差大

8. A可能是错误的

为什么LR加入正则化Variance会增大,正则化之后参数更平滑了,不是变小吗?

评估代价函数有两个重要的指标一个是偏差一个是方差。过拟合是因为低偏差和高方差,所以在训练集上表现好,在测试集上表现差。加入正则化项就是为了限制模型的复杂度从而减少方差,我是这么理解的。

 

转载于:https://www.cnblogs.com/GuoXinxin/p/10585950.html

### 关于机器学习期末考试选择题 对于准备机器学习期末考试而言,构建一个有效的选择题题库是非常有帮助的。虽然具体题目会因不同学校和教师的要求而异,但可以总结一些常见的考点作为复习指南。 #### 常见的选择题主题 1. **基本概念** - 定义什么是监督学习、无监督学习以及强化学习。 - 解释分类与回归的区别[^1]。 2. **算法理解** - 描述K近邻(KNN)的工作原理及其优缺点。 - 讨论决策树如何处理缺失值的情况。 3. **模型评估** - 列举并解释混淆矩阵中的各个术语(TP, FP, TN, FN)。 - 对比交叉验证的不同方式如k折交叉验证的优点和局限性[^4]。 4. **特征工程** - 比较过滤式方法、包裹式方法和嵌入式方法的特点及应用场景[^3]。 - 掌握标准化(normalization) 和正则化(regularization) 的区别。 5. **实践应用** - 给定一组数据样本,判断是否存在过拟合现象,并给出改进措施。 - 使用给定的数据集计算线性回归方程,并预测新输入的结果。 ```python import numpy as np from sklearn.linear_model import LinearRegression # 示例:基于期中成绩预测期末成绩 X = np.array([[89], [72], [88], [76]]) # 期中得分 y = np.array([96, 84, 74, 78]) # 期末得分 model = LinearRegression() model.fit(X, y) new_student_score = [[80]] # 新学生的期中成绩 predicted_final_exam_score = model.predict(new_student_score) print(f"预计该生期末得分为:{predicted_final_exam_score}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值