今天在cmd中执行命令spark-shell启动apache spark的时候报错
308 <console>:16: error: not found: value sqlContext
309 import sqlContext.implicits._
310 ^
311 <console>:16: error: not found: value sqlContext
312 import sqlContext.sql
原因:在执行spark-shell命令之后会在C:新建目录C:\tmp\hive,但是没有访问权限。
解决方案:
1.确保C:下面有C:\tmp\hive目录,没有则新建一个
2.hadoop\bin目录下打开cmd,按住Shift键+鼠标右键选择打开命令控制窗口,或者直接在导航栏输入cmd
3.授权
C:\Hadoop\winutils-master\hadoop-2.7.1\bin>winutils.exe chmod -R 777 C:\tmp\hive
4.移除C:User/<User_Name>\metastore_db,若无请忽略
5.确保以下环境变量有添加
SCALA_HOME : C:\Program Fil