spark IDEA开发环境搭建及运行问题

本文详细介绍了如何搭建Spark开发环境,包括所需的各种jar包配置,并针对在配置过程中可能出现的问题给出了具体的解决方案,如Scala版本不兼容、HiveContext配置缺失及内存溢出等问题。

下图是例子:

 

还用说么,引入相关jar包(等下再一一说明)  包括scala,spark-assembly-1.4.1-hadoop2.5.0-cdh5.2.1.jar(按照你的spark和hadoop版本),还有在spark的lib下datanucleus的jar,mysql的数据源连接,这都是必须的~

 

 

 

运行如果出现如下错误,说明scala版本较高,spark还不能完全支持最新的scala2.11版本,所以降低到scala-sdk-2.10.3

 

 

如下图的错误,是因为声明hivecontext时没有找到hive的metastore,所以一定要引入datanucleus的jar,将hive下的 hive-site-xml的配置文件放入项目中,引入mysql的jar包就OK(因为用了mysql为hive的metastore)

 

然后即将运行完成时,尼玛。。。内存溢出。。。这。。。。无解,只能调大虚拟机内存。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值