Spark3报错: hive.ql.metadata.HiveException: Unable to fetch table Invalid method name: ‘get_table_req’
- 环境
hive
版本1.1.0-cdh-5.10
scala
版本2.11.11
hadoop
版本2.6.0
我之前用的是spark
的2.4.4
的发行版的包,现在想切换成spark3.0
版本包。
调用spark.sql("select * from xxxDbname.xxtable")
便会出现下面的错误。
报错截图如下:
这里我用的spark的包是spark官网上的
spark-3.0.0-preview2
这个版本,它打包的hive
版本是2.3.6
而我所用的hive版本是1.1.0
所以会报出上述错误,相关的错误原因我已经在源码上面查看到了
错误详情:
去github
上面直接