Windows端本地开发Spark应用-new HiveContext报NullPointerException

本文详细介绍了在Windows环境下使用IDEA开发Spark应用时遇到的NullPointerException问题,并提供了详细的解决方案,包括安装Windows版Hadoop和配置环境变量的具体步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Windows电脑开发Spark应用时,以local模式运行在本地,通过new HiveContext(sc)报java.lang.NullPointerException

at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)

一、环境相关

1. Windows 10

2. IDEA 2018

3. JDK 1.8

4. Scala 2.10.5

5. Hadoop 2.6

6. Spark 1.6.3

 

二、报错信息

三、分析原因

根据上面报错信息,设置断点,查找原因。

四、解决方案

安装Windows版Hadoop

1. 准备清单

1)hadoop压缩包

下载地址:http://hadoop.apache.org/

2)winutils

下载地址:https://github.com/Lovehp/hadoop_spark_windows

2. 安装步骤

1)将hadoop-2.6.5.tar.gz压缩包解压至指定位置(C:\Software\hadoop-2.6.5),并将改路径配置到系统环境变量

2)将winutils-master.zip解压,找到对应hadoop版本的文件夹,将bin目录下的winutils.exe拷贝到第一步路径下的bin目录下

因为是在windows环境,在运行的时候会模拟linux,需要winutils.exe,winutils.exe的路径代码中默认是从hadoop的安装路径的bin目录下。所以还需要上面的HADOOP_HOME变量。

3)重启电脑

问题解决,enjoy IT!!!

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值