
Spark
RashaunHan
这个作者很懒,什么都没留下…
展开
-
在IDEA上测试连接spark时遇到的问题
1.Error:scalac: Scala compiler JARs not found 这个问题是因为在pom.xml中配置的 <properties> <scala.version>2.11.8</scala.version> <spark.version>2.3.2</spark.versi...原创 2018-11-21 17:12:40 · 2475 阅读 · 0 评论 -
Spark HA(高可用)集群的搭建
1.上传并且解压spark安装包2.将解压出来的目录重命名为spark3.进入spark/conf修改配置文件 1.进入conf目录并且复制spark-env.sh.template并重命名为spark-env.sh,并在文件最后添加如下配置内容cp spark-env.sh.template spark-env.shvi spark-env.shexport...原创 2018-12-04 11:44:20 · 872 阅读 · 0 评论