【电子科技大学】机器学习导论 期末复习题目录

具体已整理在线下笔记本中,这里只提供例题目录

时间少就直接做题了

所有作业已包含
所有课本题已包含
所有课后习题已包含

第一次作业已包含
第二次作业已包含
第三次作业已包含
第四次作业已包含
第五次作业已包含
第六次作业已包含
第七次作业已包含
一共64题
12.20 完成至贝叶斯 共30题
12.21 完成至决策树 共7题
12.23 完成至支持向量机 共7题
12.24 完成至聚类分析,奇异值分解 共20题
12.25 完成老师上课的一些证明 不计
1.5 期末考试

如果只考察算法和证明题,各章考察例题基本如下

第零章-统计学习及监督学习概论-共6题

强化学习说明 共1题
ppt贪吃蛇例子,书本第10页
贝叶斯学习公式推导 共1题
老师上课推到过一遍,书本第14页
精确率召回率计算 共1题
书本p29页
贝叶斯估计与极大似然估计 共2题
书本p33-34页,课后习题,1.1题答案,1.2题答案
方法=模型+策略+算法 共1题
书本p15起,公式背诵

第一章-LF补充之必备知识-共9题

无约束优化问题—梯度下降法 共5题
第一次作业
ppt 第28页习题
约束优化问题 共2题
第二次作业第一题求KT点KT对
ppt45页
对偶算法 共2题
ppt48页鞍点性质证明
第二次作业第二题

第二章-感知机-共5题

感知机学习的原始算法 共1题
书本p40-41页
书本p46-47页课后习题2.2
感知机学习的对偶算法 共1题
书本p44-45页
第三次作业第二题:完成例2.2的计算,并和表格逐行对比
感知机学习的证明题 共2题
书本p46-47页课后习题2.1,2.3。其中,第三次作业第一题,正好是P47 2.3课后习题 第二章课后习题答案

第三章-k近邻法-共5题

k近邻法 共2题
书本p50页
书本p58习题3.1
构造kd树 共2题
书本p54页
书本p58习题3.2,同时也是第四次作业第二题
搜索kd树 共1题
书本p56页

第四章-朴素贝叶斯法-共5题

朴素贝叶斯算法 共2题
书本p63页
p66课后习题第一题
贝叶斯估计 共3题
书本p65页
推导p64(4.10),即条件概率的贝叶斯估计,同时也是第五次作业第一题
p66课后习题第二题

第五章第七章应该是考试的重点,复习前面的完后应该重点看这一部分

第五章-决策树-共7题

决策树这边主要分为:特征选择、决策树的生成(ID3、C4.5、CART)、决策树的剪枝(普通、CART)。

特征选择 共1题
书本p75页,同时包含第五次作业第二题:推导第三行g(D,A4)
决策树的生成(ID3、C4.5) 共3题
书本p77
课后习题p89第1题
课后习题p89第2题
决策树的剪枝 共0题
CART算法 共3题
书本P84-85,同时也包含第六次作业1,2题
课后习题P89第3题,同时也包含第六次作业3题
课后习题P89第4题

第七章-支持向量机-共7题

复习这里的时候要和第二章一起复习

最大间隔法 共2题
书p117定理证明
书p119
线性可分支持向量机 共2题
书本p124
p153课后习题
线性支持向量机 共3题
第四次作业第1题,同时也是p154第3题
第三次作业第3题,同时也是p153第2题
书本p124
非线性 共0题
了解即可,课后有7.4一题

以上都是监督学习部分

无监督学习部分如下

第十四章-聚类方法-共8题

相关定理证明共2题
习题p269,第1题
习题p269,第2题
聚合聚类算法 共1题
书本p262
k均值聚类 共5题
书本P266
习题p269,第3题
习题p269,第4题
第七次作业第一题
第七次作业第二题

第十五章-奇异值分解-共12题

奇异值分解 共12题
书本p272 例15.1
书本p277 例15.2
书本p278 例15.3
书本p279 例15.4
书本p283 例15.5
书本p292 例15.6
老师的推导,没用上面的,具体看平板
课后习题p294-295 题1-5
作业一(Matlab) 假设x=(1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20),y=( 2.94, 4.53, 5.96, 7.88, 9.02, 10.94, 12.14, 13.96, 14.74, 16.68, 17.79, 19.67, 21.20, 22.07, 23.75, 25.22, 27.17, 28.84, 29.84, 31.78).请写出拟合的直线方程,并画图(包括原数据点及拟合的直线),请打印出来。 请使用线性回归模型来拟合bodyfat数据。数据集介绍可阅读:https://www.mathworks.com/help/nnet/examples/body-fat-estimation.html 在matlab中,在命令行中输入[X,Y] = bodyfat_dataset; 即可获得一个拥有13个属性,252个样本的数据集。使用前200个样本来获得模型,并写出你所获得的模型。使用后52个样本做测试,汇报你所获得的泛化误差。 编程实现对数回归,并给出教材89页上的西瓜数据集3.0上的结果。要求采用4折交叉验证法来评估结果。因为此处一共17个样本,你可以去掉最后一个样本,也可以用所有数据,然后测试用5个样本。在汇报结果时,请说明你的选择。请在二维图上画出你的结果(用两种不同颜色或者形状来标注类别),同时打印出完整的代码。 作业二 采用信息增益准则,基于表4.2中编号为1、2、3、6、7、9、10、14、15、16、17的11个样本的色泽、根蒂、敲声、文理属性构建决策树。(本次作业可以用笔算,鼓励编程实现,但都需要列出主要步骤,其中log2(3)=1.585,log2(5)=2.322,log2(6)=2.585,log2(7)=2.807,log2(9)=3.17,log2(10)=3.322,log2(11)=3.459) 用表4.2中编号为4、5、8、11、12、13的样本做测试集,对上题的训练数据采用预剪枝策略构建决策树,并汇报验证集精度。 用表4.2中编号为4、5、8、11、12、13的样本做测试集,对题1所构建的决策树进行后剪枝,并汇报验证集精度。 作业三(Matlab) 试编程实现累积BP算法,在西瓜数据集2.0上(用训练数据)训练一个单隐层网络,用验证集计算出均方误差。要自己实现,不能直接调用现成的库函数。 作业四 下载并安装libsvm,http://www.csie.ntu.edu.tw/~cjlin/libsvm/ ,在西瓜数据集3.0a上分别用线性核训练一个SVM。用正类1-6和负类9-14作为训练集,其余作为测试集。C取不同的值,其它参数设为默认值。作出测试正确率随C取值变化的图,C=[1 100 10000 10^6 10^8]。 换成高斯核(宽度设为1),重复上题的步骤。 作业五 以西瓜数据集2.0(见教材76页表4.1)中样本1--16为训练集训练一个朴素贝叶斯分类器,对测试样本17进行分类。请写出详细的计算过程。 假设x_k是一个班上学生的分数,对应的分数及其分布是 x_1=30, P1=0.5,一共有14个学生; x_2=18, P2=mu,有6个学生; x_3=20, P3=2mu,有9个学生; x_4=23, P4=0.5-3mu,有10个学生; 通过最大对数似然法求出mu的值。 作业六(Python) 1 使用PCA对Yale人脸数据集进行降维,并分别观察前20、前100个特征向量所对应的图像。请随机选取3张照片来对比效果。数据集http://vision.ucsd.edu/content/yale-face-database
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ani0vo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值