
周志华《机器学习》
吴海旭
这个作者很懒,什么都没留下…
展开
-
周志华《机器学习》习题3.3
编程实现对数回归,并给出西瓜数据集3.0α\alpha上的结果。 既然是编程实现,就不要调用现成的库了好吧?比如sklearn就有对数回归的实现。看一下我们的数据,前两列是特征(attribute),最后一列是标记(label)。密度,含糖率,好瓜0.697,0.46,是0.774,0.376,是0.634,0.264,是0.608,0.318,是0.556,0.215,是0.403,原创 2016-12-18 16:42:48 · 2087 阅读 · 0 评论 -
周志华《机器学习》习题4.3
为表4.3中数据生成一棵决策树。代码是在《机器学习实战》的代码基础上改良的,借用了numpy, pandas之后明显简化了代码。表4.3的数据特征是离散属性和连续属性都有,问题就复杂在这里。话不多说,看代码。 先定义几个辅助函数,正常的思路是先想宏观算法,然后需要什么函数就定义什么函数。import mathimport pandas as pdimport numpy as npfrom t原创 2016-12-20 14:39:49 · 3369 阅读 · 3 评论 -
周志华《机器学习》习题6.2
6.2 试用LIBSVM,在西瓜数据集3.0α\alpha上分别用线性核和高斯核训练一个SVM,并比较其支持向量的差别。我用的是sklearn.svm中的SVC类,这个类是基于LIBSVM实现的。很傻瓜式的几行代码就搞定了,答案是它俩得到一样的支持向量。# -*- coding: utf-8 -*- """Excercise 6.2"""import numpy as npimport pan原创 2017-01-17 19:06:04 · 5333 阅读 · 0 评论 -
Python实现k-means算法
这也是周志华《机器学习》的习题9.4。 数据集是西瓜数据集4.0,如下编号,密度,含糖率1,0.697,0.462,0.774,0.3763,0.634,0.2644,0.608,0.3185,0.556,0.2156,0.403,0.2377,0.481,0.1498,0.437,0.2119,0.666,0.09110,0.243,0.26711,0.245,0.057原创 2017-01-18 16:41:05 · 4093 阅读 · 0 评论