Fayson的github: https://github.com/fayson/cdhproject
推荐关注微信公众号:“Hadoop实操”,ID:gh_c4c535955d0f
1 问题重现
- 测试环境:
1.RedHat7.4
2.CDH6.1.1
3.使用root进行操作
1.使用Impala创建Parquet表并插入数据
create table test_parquet(id int,name string) stored as parquet;
insert into test_parquet values(1,'test'),(2,'vivi');

2.使用Impala查看数据,数据显示正常。
select * from test_parquet;

3.使用CDH6.1.1中的Spark2.4访问该数据文件。
val df=spark.read.parquet("hdfs://ip-172-31-6-83.ap-southeast-1.compute.internal:8020/user/hive/warehouse/test_parquet")
df.show()

本文分析了Spark在读取由Impala创建的Parquet文件时遇到的字符串显示为二进制的问题,详细介绍了问题的原因、如何通过Spark SQL、定义schema以及启动参数来解决这个问题,并提供了相应的配置参考。
最低0.47元/天 解锁文章
470

被折叠的 条评论
为什么被折叠?



