《机器学习》周志华课后习题答案——第三章 (1-7题)

《机器学习》周志华课后习题答案——第三章 (1-7题)


一、试析在什么情形下式(3.2)中不必考虑偏置项b.

请添加图片描述
①b与输入毫无关系,如果没有b,y‘=wx必须经过原点
②当两个线性模型相减时,消除了b。可用训练集中每个样本都减去第一个样本,然后对新的样本做线性回归,不用考虑偏置项b。

二、试证明,对于参数w,对率回归的目标函数(3.18)是非凸的,但其对数似然函数(3.27)是凸的.

请添加图片描述
请添加图片描述
请添加图片描述
请添加图片描述

三、编程实现对率回归,并给出西瓜数据集3.0α上的结果.

### 关于《机器学习周志华第二章答案 当考虑模型评估与选择时,不同评价指标提供了多角度的理解方法。对于给定的学习器而言,在特定条件下其性能可以通过多种方式衡量。例如,通过McNemar检验来判断两个分类算法在相同数据集上的表现差异是否具有统计学意义[^1]。 若要对比两学习器的总体性能,除了依赖传统的准确之外,还可以借助受者工作特征曲线(ROC),特别是当面对不平衡的数据分布情况时更为有效。如果一个学习器的ROC曲线完全覆盖住了另一条,则表明前者的整体性能更佳;而对于存在交叠的情况,则推荐采用曲线下面积(AUC)作为评判标准[^2]。 另外,“平衡点”(Break-Event Point,简称BEP),定义为查准等于查全时对应的值,也被用来辅助评估。比如,当某个学习器拥有更高的F1分数时,意味着它同样具备较大的BEP数值,这暗示着该模型可能更适合处理那些对误报和漏报敏感的应用场景[^4]。 针对具体目解答部分,《机器学习》一书中关于真正例(True Positive Rate, TPR)、假正例(False Positive Rate, FPR)以及查准(Precision, P)、查全(Recall, R)之间关系进行了深入探讨: - **TPR** 和 **R** 实际上是同一个概念的不同表述形式; - **FPR** 则反映了负样本被错误标记的比例; - 查准P关注的是预测为正类别的实例中有多少是真的正类别成员; - 而查全R侧重考察实际属于正类别的对象有多少被成功识别出来。 这些度量共同构成了全面理解分类效果的基础框架[^5]。 ```python def calculate_metrics(tp, tn, fp, fn): """ 计算并返回精度(precision), 召回(recall), 真阳性(true positive rate) 和 假阳性(false positive rate). 参数: tp -- 正确预测为正的数量 tn -- 正确预测为负的数量 fp -- 错误预测为正的数量 fn -- 错误预测为负的数量 返回: precision -- 召回/真阳性 fpr -- 假阳性 """ try: precision = tp / (tp + fp) recall_tpr = tp / (tp + fn) fpr = fp / (fp + tn) return round(precision, 3), round(recall_tpr, 3), round(fpr, 3) except ZeroDivisionError as e: print("除数不能为零:", str(e)) ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值