机器学习
Big_Head_
拉条网线,绊倒对面
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
MLP———交叉验证、集成测试
用scikit-learn的MLP模型来训练,从5折交叉验证中选出最优的那组模型,最终再把这组模型应用到测试集上面挑选出出最好的模型。对于MLP的参数,这次探究的就是 hidden_layer_size:隐藏层的数量以及神经元的数量 max_iter:最大迭代次数 alpha:学习率 solver:激活函数hidden_layer_size的候选参数: [[100, 100], ...原创 2018-05-06 14:31:29 · 2957 阅读 · 0 评论 -
AC自动机的python实现
前段时间在跟师兄打机器学习比赛的时候,师兄让我去匹配1.5w标签在20w数据中的出现次数,一开始的时候我用正则表达式,双重循环遍历1.5w标签和20w数据,粗略计算了一下,发现全部标签跑完需要大概6天的时间(这就很让我绝望啊)。后来师兄告诉我去用AC自动机,我看了一个下午还是没有实现AC自动机,无奈师兄只能抽空完成了我的任务。。。经过几天摸索,我粗略实现了AC自动机。首先介绍一下什么是AC...原创 2018-04-29 18:09:05 · 5398 阅读 · 6 评论 -
Scikit-learn K临近算法
K近邻算法是一种基本的分类与回归的方法。 简单来讲,这个算法就是遵循近朱者赤近墨者黑的道理,对于需要判断的点来说,并不需要去找一个模型来给出这个点的答案,而只是需要知道一个点集的所有点的答案,然后观察这个点附近的K个点是什么,然后这个K个点来投票决定我的这个点到底是什么来的。这个算法是没有显示的学习过程,只是利用了训练集的特征向量空间进行划分,其实这个就是K临近算法的模型了。对于这个K临...原创 2018-05-28 20:57:32 · 416 阅读 · 0 评论 -
Keras学习之路——1
用keras实现异在Ng的视频里面,介绍神经网络的时候就用了与、或、非、异或、同或来讲解。 通过两层的神经网络,第一层是三个units(包括偏置项),然后第二层也是三个units(包括偏置项),然后最后输出一个结果,每一层的激活函数(activation)都是tanh刚刚看了keras的说明,想着简单用keras实现一下这个神经网络。from keras.models import ...原创 2018-07-14 11:00:16 · 452 阅读 · 0 评论
分享