
spark
文章平均质量分 59
funny75
这个作者很懒,什么都没留下…
展开
-
开发自己的spark API
1.问题引入 spark提供的API函数能满足大多数场景的应用,但是有时候也需要根据实际数据,自己开发API,以进一步提高性能,看下面一个小例子val rdd=sc.parallelize(Array(1,2,3,4,5,6,Double.NaN,7,8,9),2)现在要对其进行统计分析,调用stats函数rdd.stats由于原始数据中有一个缺失值Double.NaN,使得统计结果失去意义,很自原创 2015-11-29 12:06:03 · 883 阅读 · 0 评论 -
windows下编译spark的源码
1.maven的安装 到maven官网下载maven,maven依赖于jdk,所以先确保以安装jdk( http://maven.apache.org/download.cgi ) 解压到一个目录下,我选择的是D:\learning_soft\maven 然后配置环境变量 %M2_HOME%=D:\learning_soft\maven\apache-maven-3.3.9 添加到path原创 2015-12-24 00:12:28 · 3030 阅读 · 0 评论 -
Windows + IDEA + SBT 打造Spark源码阅读环境
http://guozhongxin.com/pages/2014/10/15/spark_source_code.html http://lifelongprogrammer.blogspot.jp/2014/11/build-spark-failure-nonzero-exit-code.html原创 2016-02-02 14:23:27 · 389 阅读 · 0 评论 -
scala在线练习题
http://scala-exercises.47deg.com/koans#asserts原创 2016-02-03 21:25:28 · 2142 阅读 · 0 评论 -
windows下运行spark程序
linux普通用户开发spark程序时,由于无法使用IDEA的图形化操作界面,所以只能大包围jar,用spark-submit提交,不是很方便, spark的local模式可以方便开发者在本地调试代码,而不用打包为jar用spark-submit提交运行,或是在spark-shell中逐行运行,下面是在windows上运行sparkPi的代码及结果package comimport scala.ma原创 2016-02-04 18:10:26 · 4328 阅读 · 0 评论