机器学习_周志华_问题汇总_第1周

问题

Q1 从3.27求w和b,为什么不能直接让它的导数等于0来求?

你说的方法是解析法,但是实际问题很复杂,很难求得精确解,所以一般要用数值法(拟牛顿法等)来求近似解。

Q2 1.为什么推导logistic回归时需要用到极大似然法,推导最小二乘解时却不需要?在什么情况下需要用到极大似然?2.牛顿迭代二阶导,为啥是对βT求导?

逻辑回归是统计学的角度,用样本估计总体分布的参数,所以用最大似然。最小二乘法,是从数学分析的角度来求解的。完全两个不同的解决问题的途径。 牛顿迭代只是那种数学公式形式,对转置求导,也是对其中的变量求导啊,与是否转置没太大关系啊,不必太纠结。

Q3 代码里的 y_train = df_train[‘class’] - 1 是什么意思?这里为什么要这样做?

为了让类别从0开始计数

Q4 对于线性不可分的数据,为什么用核方法升维在SVM上可以起到很好的效果,而在LR上很容易出现过拟合?

个人觉得 svm有一定的软间隔,即安全距离,所以泛化能力强一些。仅供参考,没有理论支撑。

Q5 能不能解释下判别式模型和生成式模型,何种属于判别式模型,何种属于生成式模型?

判别模型就是直接建模,直接建立一个判别的拟合函数,生成模型就是间接建模计算。这属于文字的概念,影响不大。

Q6 请问5人组队参加相比单人参加有哪些具体优势吗?然后如果是多人参加应该怎么分工比较好

每个人用自己的方法做到最好成绩,然后5个模型进行融合,成绩应该会有提高。融合就是5个人的分类结果,少数服从多数。

Q7 请问只有一般的Windows笔记本电脑但是想学linux该怎么办…因为以后总是要用到是装虚拟机还是双系统还是换电脑

ubuntu18.04用refuns做个启动盘安装,里面有选择双系统并存,非常简单。<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值