首先以spark的本地模式测试spark API,以local的方式运行spark-shell:
先从parallelize入手吧:
map操作后结果:
下面看下 filter操作:
filter执行结果:
我们用最正宗的scala函数式编程的风格:
执行结果:
从结果 可以看出来,与之前那种分步奏方式结果是一样的
但采用这种方式,即是复合scala风格的写法,也是符合spark的应用程序风格的写法,在spark的编程中,大多数功能的实现都是只要一行代码即可完成。
本文通过本地模式测试SparkAPI,详细介绍了使用local方式运行spark-shell的过程,从parallelize操作入手,深入探讨了map和filter操作,并展示了采用Scala风格编程方式的实现,强调了一行代码完成大多数功能实现的特点。
首先以spark的本地模式测试spark API,以local的方式运行spark-shell:
先从parallelize入手吧:
map操作后结果:
下面看下 filter操作:
filter执行结果:
我们用最正宗的scala函数式编程的风格:
执行结果:
从结果 可以看出来,与之前那种分步奏方式结果是一样的
但采用这种方式,即是复合scala风格的写法,也是符合spark的应用程序风格的写法,在spark的编程中,大多数功能的实现都是只要一行代码即可完成。

被折叠的 条评论
为什么被折叠?