问题一:
这个问题我hive on spark的时候没有发生,而在使用sqoop将hdfs导入到mysql时出现
可以看到 unknow queue:hive 意思是指缺少hive队列,所以需要创建一个新的队列命名为hive
原解决链接为Failed to submit XXXX to YARN : Application XXXXX submitted by user XX to unknown queue: XX
需要修改conf的capacity-scheduler.xml
可以参考Yarn资源队列配置和使用和Hadoop: Capacity Scheduler
记得分发到其他集群机上
最后需要更新配置
yarn rmadmin -refreshQueues
问题二:
Export job failed
这个问题需要确认mysql的数据库格式是否和hive的一样