添加参数:
ndi.spark.spark-conf.spark.sql.orc.impl=native
ndi.spark.spark-conf.spark.sql.hive.convertMetastoreOrc =true
写入hive的orc使用的spark的orc序列化的包,读自然也要用spark的
添加参数:
ndi.spark.spark-conf.spark.sql.orc.impl=native
ndi.spark.spark-conf.spark.sql.hive.convertMetastoreOrc =true
写入hive的orc使用的spark的orc序列化的包,读自然也要用spark的
2904
902
1150
503

被折叠的 条评论
为什么被折叠?