
机器学习
文章平均质量分 52
Muzi_Water
这个作者很懒,什么都没留下…
展开
-
各大AI 开放平台
文章目录1、百度AI开放平台2、腾讯AI开放平台3、阿里云机器学习和深度学习平台PAI4、科大讯飞语音开方平台5、旷视face++人工智能开放平台6、网易AI平台7、Amazon AI8、Inter 英特尔人工智能服务1、百度AI开放平台点击进入 百度AI2、腾讯AI开放平台点击进入 腾讯AI点击进入 优图OCR3、阿里云机器学习和深度学习平台PAI点击进入 阿里机器学习和深度学习平...原创 2019-03-06 16:30:26 · 10147 阅读 · 1 评论 -
机器学习——样本不均衡的处理方式
本片博文主要是对机器学习的分类问题中存在的样本不均衡情况的处理说明,具体如下:当对数据进行分类训练的时候,有时候会出现原始数据样本不均衡的情况,也就是正例与反例样本数量存在差异。此时为了能够更好的训练模型,需要对原始数据进行“过采样”或“下采样”来使得训练数据分布均衡。过采样:让正反例样本一样多,通常是对较少的数据进行数据生成,让其与较多的数据一样多。下采样:让正反例样本一样少,通常是对较多...原创 2019-01-07 14:19:40 · 2091 阅读 · 0 评论 -
Python3——数组 “切片” 遇到的坑~
在机器学习的有监督学习中,常常要把数据分为“特征列”和“标签列”,特征列往往在最后一列,然而进行切片的时候用[:, -1] 和 [:, cols-1:cols] 得到的结果是不同的,前者将最后一列转为一行,后者是列。具体如下:data = np.array([[1, 2, 3], [3, 4, 5], [6, 43, 5]])cols = data.shape[-1]print('原始数据...原创 2018-12-27 17:00:09 · 1665 阅读 · 0 评论 -
机器学习——聚类算法(一)
机器学习——聚类算法聚类(Clusting)算法——无监督学习聚类分析的八类方法聚类评估K-means聚类评估指标聚类(Clusting)算法——无监督学习聚类算法 是机器学习的一种,目的是将海量数据中具有同一类特征的数据自动聚为一类。聚类分析的八类方法根据聚类算法的核心思想的差异性,将聚类分析分为以下八类方法:划分方法 ,根据一定的标准(例如数据特征间的最小均方误差总)和来划分类别,...原创 2018-12-10 10:46:46 · 3353 阅读 · 0 评论 -
Python3——sklearn中回归模型的六种评估规则
评价回归模型的好坏需要计算真实值与预测值之间的误差关系,sklearn为我们提供了6种回归模型的评估规则,分别是1.可释方差分数(explain variance score)2.平均绝对误差(mean absolute error)3.均方误差(mean squared error)4.均方对数误差(mean squared logarithmic error),适用于具有指数...原创 2018-11-20 11:19:53 · 9159 阅读 · 0 评论 -
激活函数的选择
在训练神经网络中,绝大部分的调优都在于网络的构建和学习率的设定,但是激活函数和损失函数的不同选择也会带来不同的训练效果,合适的激活函数往往会带来较好的结果。 对于非线性激活来说,中间的隐藏层普遍使用ReLU及其变体(如LReLU、PReLU、RReLU等),输出层激活函数则是要根据任务配合损失函数loss来选择。通常来说"多分类"问题的输出层激活函数选用softmax,"二分类"问题的输...原创 2018-08-24 10:10:29 · 1867 阅读 · 1 评论 -
Python 机器学习工具库
机器学习工具库 http://tensorfly.cn/tfdoc/mltools.htmlPython计算机视觉Scikit-Image - Python中的图像处理算法的集合。 SimpleCV - 一个开源的计算机视觉框架,允许访问几个高性能计算机视觉库,如OpenCV。可以运行在Mac,Windows和Ubuntu Linux操作系统上。 Vigranumpy - 计算机视...转载 2018-08-02 17:29:49 · 1409 阅读 · 1 评论 -
回归预测 OR 时间序列预测
在选择正确的模型之前,首先应确定变量的关系和影响!!!区分清楚到底什么选择情况下选择回归预测,什么情况下选择时间序列预测。回归预测:训练得到的回归模型表示了因变量 (目标)与自变量 ()(预测因子)之间的相关性,即一个或多个自变量对一个因变量的影响程度,适用于给定新的 来预测 的情况。 常用回归模型(因变量 是连续值): ...原创 2018-07-27 15:48:01 · 15591 阅读 · 1 评论 -
梯度下降——新感悟
书读百遍,其义自见! 以前学习神经网络的时候,只知道学习率α设置对与参数更新很关键。设置的太小,训练速度特别慢,设置的太大又会存在越过最低点,使得更新没办法收敛还有可能会发散。曾经看到过网上有人提出使用“变学习率”方法的,当时还觉得十分有理。 今天看了吴恩达教授的讲解,又有了新的认识,当Θ越接近最低点的时候,其实代价函数 J(Θ) 的导数也逐渐在减小,这也使得在接近最低...原创 2018-07-12 15:03:35 · 279 阅读 · 0 评论