Spark读取HDFS加密区数据乱码问题解决

本文介绍了在启用HDFS加密区后,遇到Spark读取数据出现乱码的问题。经过排查,发现原因是项目依赖的Hadoop版本过低(2.0),而Hadoop从2.6版本开始支持加密区。更新Hadoop依赖至2.6以上版本,即可解决乱码问题。同时,若通过hdfs://地址:端口方式指定路径,需要配置`dfs.encryption.key.provider.uri`。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

因为项目需求,需要启用hdfs加密区,为了验证对现有程序的影响,我在自己的集群上配置了加密区,并测试spark和java程序读取数据。

spark程序代码如下

    System.setProperty("HADOOP_USER_NAME", "user1")

    val spark = SparkSession
      .builder()
      .master("local")
      .getOrCreate()

    // val data = spark.read.text("/user1/a.txt")
    val data = spark.read.text("/user/user1/a.txt")
    data.show()
 

一开始我读取到的是乱码,

 网上关于java和spark读取hdfs加密区数据的资料极少,基本都是在讲解hdfs加密区实现原理,或者使用命令行进行操作,而且都模糊的说道支持Hadoop客户端透明读写数据。我在网上搜索很久仅在一篇文章中找到明确说明spark程序无需任何更改即可读写加密区数据,因此我以为spark需要进行特殊配置或者更改代码。

后来无意中新建了一个项目,把代码拷过来,发现能正常读取数据。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值