机器学习/深度学习
文章平均质量分 66
烟酒和尚
为梦想选择了远方,便没有回头路可以走。所以,要么战死沙场,要么狼狈回乡。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
15 个开源的顶级人工智能工具
人工智能artificial intelligence,AI是科技研究中最热门的方向之一。像 IBM、谷歌、微软、Facebook 和亚马逊等公司都在研发上投入大量的资金、或者收购那些在机器学习、神经网络、自然语言和图像处理等领域取得了进展的初创公司。考虑到人们对此感兴趣的程度,我们将不会惊讶于斯坦福的专家在人工智能报告中得出的结论:“越来越强大的人工智能应用,可能会对我们的社会和经济产生深远的积转载 2016-10-06 16:19:02 · 35357 阅读 · 1 评论 -
矩阵的奇异值分解过程
矩阵的奇异值分解(singular value decomposition,简称SVD)是线性代数中很重要的内容,并且奇异值分解过程也是线性代数中相似对角化分解(也被称为特征值分解,eigenvalue decomposition,简称EVD)的延伸。因此,以下将从线性代数中最基础的矩阵分解开始讲起,引出奇异值分解的定义,并最终给出奇异值分解的低秩逼近问题相关的证明过程。1 线性代数中的矩转载 2017-08-04 17:58:29 · 8652 阅读 · 0 评论 -
scikit中pipeline的作用
pipeline为方便处理数据,提供了两种模式:串行化和并行化1、串行化,通过Pipeline类实现通过steps参数,设定数据处理流程,格式为('key','value'),key为这一step设定的名称,value是对应的处理类。通过list将这些step传入。前n-1个step必须为transform函数,最后的step可有可无,一般为模型,pipeline继承了最有一个原创 2017-12-10 16:02:24 · 11387 阅读 · 0 评论 -
集成方法stacking的简单阐述
在西瓜书有介绍到一种名为stacking的集成学习方法,在这里简单阐述下,大家一起学习,相互进步。在此我们把个体学习器称为初级学习器,用于结合的学习器称为次级学习器。Stacking先从初始数据集训练出学习器,然后生成一个新数据集用于训练次级学习器,在这个新数据集中,初级学习器的输出被当做样例输入特征,而初始样本的标记仍被当作样例的标记。在训练阶段,次级训练集是利用初级学习器产生的,若原创 2017-12-10 16:15:55 · 2503 阅读 · 2 评论
分享