1.如果期望spark的表存放到hive的hdfs中
需要在环境变量及conf/spark-env.sh中配置
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
2.如果期望用beeline连接thrift-server时不报权限错误
需要在环境变量及conf/spark-env.sh中配置
HADOOP_USER_NAME=有hdfs权限的用户名
并且需要重启thrift-server生效
需要在环境变量及conf/spark-env.sh中配置
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
2.如果期望用beeline连接thrift-server时不报权限错误
需要在环境变量及conf/spark-env.sh中配置
HADOOP_USER_NAME=有hdfs权限的用户名
并且需要重启thrift-server生效
本文详细介绍了如何在环境变量及conf/spark-env.sh中配置HADOOP_CONF_DIR和HADOOP_USER_NAME,以实现Spark表存放到Hive的HDFS中,并解决使用beeline连接thrift-server时的权限错误问题。
2129

被折叠的 条评论
为什么被折叠?



