
机器学习
文章平均质量分 59
qccc_dm
TO BE A HERO
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
细说RandomForest
鉴于csdn上已经有很多优秀的博文对RandomForest做过介绍,在此重复的内容我就不再复述:如随机森林的Bootstrap,features select...主要结合原论文谈谈RandomForest的实现细节:1.out-of-bag的计算: 对于每一颗树来说,大约有1/3的样本会成为这棵树的out-of-bag,随机森林可以利用这部分数据进行模型原创 2017-03-24 17:00:14 · 3201 阅读 · 0 评论 -
近端梯度下降proximal gradient descent
在loss function中引入L1正则项时,会遇到L1正则项的求导问题:更一般的表达形式:min f(x) + g(x)f(x):convex & smoothg(x):convex but not smooth如L1范数就是不光滑的,L1范数的二维曲线可以表示成:可以看到L1范数在x=0处是不可导的,为了解决这个问题,需要用到近端梯度求解,proximal原创 2017-04-18 20:56:39 · 10302 阅读 · 2 评论 -
寻找平面上斜率最大的点
这是滴滴算法面试时碰到的问题,在此写一下思路:给定100万个平面上的点,每个点只有2个坐标信息,记为x坐标和y坐标,在小于O(n2)的时间复杂度内求出最大的斜率。1.先对所有的点按照x坐标进行排序2.再两两比较即可找到最大斜率接下来说说为什么不用考虑其他点相连接的情况,而只需要考虑邻近的点?假设排序得到了A,B,C三点(1)A,B,C三点共线,那么Kab = Kbc = K原创 2017-04-19 17:09:29 · 3822 阅读 · 0 评论 -
XGBOOST,GBDT,RandomForest的比较
首先XGBOOST,GBDT,RF都是集成算法,RF是Bagging的变体,与Bagging相比,RF加入了属性扰动,而XGBOOST,GBDT属于boosting.-------------------------------------------------------------------------------------------------------------------原创 2017-03-19 15:02:57 · 9049 阅读 · 2 评论 -
Python2.7+Win10 安装Xgboost
安装了一个下午才装好,痛苦~~~~~在此将方法分享给大家(1)需要的软件:GitBash / MinGW / Anconda2(2)流程:首先在Git Bash中依次输入// Git 下载地址https://git-for-windows.github.io/ 1.cd target_folder //GitHub源代码存放的地方// 我是存放在 C:\User原创 2017-07-11 21:06:37 · 2020 阅读 · 0 评论