hive&sqoop问题与解决

在使用Sqoop从HDFS导数据到MySQL时遇到unknownqueue错误,可能是因为缺少Hive队列,需在capacity-scheduler.xml配置新的队列并分发到集群。另外,Exportjob失败可能由于数据库格式不匹配,应确保MySQL数据库格式与Hive一致。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题一:
在这里插入图片描述
这个问题我hive on spark的时候没有发生,而在使用sqoop将hdfs导入到mysql时出现

可以看到 unknow queue:hive 意思是指缺少hive队列,所以需要创建一个新的队列命名为hive
原解决链接为Failed to submit XXXX to YARN : Application XXXXX submitted by user XX to unknown queue: XX

需要修改conf的capacity-scheduler.xml
可以参考Yarn资源队列配置和使用Hadoop: Capacity Scheduler
记得分发到其他集群机上

最后需要更新配置

yarn rmadmin -refreshQueues

问题二:

Export job failed
这个问题需要确认mysql的数据库格式是否和hive的一样

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值