spark
taotao5309
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
将Spark部署到Hadoop YARN上
用的是Hadoop2.2.0Spark0.9.1原创 2014-04-17 17:34:19 · 729 阅读 · 2 评论 -
SGD-SVM Spark并行
使用Hinge-Loss损失函数,对hinge loss,又可以细分出hinge loss(或简称L1 loss)和squared hinge loss(或简称L2 loss)。国立台湾大学的Chih-Jen Lin老师发布的Liblinear就实现了这2种hinge loss。L1 loss和L2 loss与下面的regularization是不同的,注意区分开。原创 2014-06-13 15:26:43 · 1992 阅读 · 0 评论
分享