大数据-spark、hadoop、hbase错误汇总

本文汇总了大数据处理中遇到的一些典型错误,包括Name Node安全模式、Spark与HDFS交互时的问题、权限错误、广播变量使用错误、Spark版本冲突、AnalysisException等,并提供了相应的解决策略和异常分析。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

1. Name node is in safe mode

# 强制离开安全模式
hadoop dfsadmin -safemode leave

参数value的说明如下:

enter - 进入安全模式
leave - 强制NameNode离开安全模式
get -   返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束。

2. spark thrift mysql: Specified key was too long; max key length is 767 bytes

数据库使用的字符集为utf8,改为latin1,重建表

3. spark hdfs:Caused by: java.io.IOException: Filesystem closed

解决办法:

第一种方法:

源代码:FileSystem  fs = FileSystem.get(URI.create(hdfsFilePath), config);

改为: FileSystem  fs = FileSystem.newInstance(URI.create(hdfsFilePath), config);

第二种方法:

在hdfs core-site.xml里把fs.hdfs.impl.disable.cache设置为true
多个datanode在getFileSystem过程中,由于Configuration一样,会得到同一个FileSystem。
如果有一个datanode在使用完关闭连接,其它的datanode在访问就会出现上述异常

4. Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPA

每次提交spark任务到yarn的时候,总会出现uploading resource(打包spark jars并上传)到hdfs上。

恶劣情况下,会在这里卡住很久。

17/01/13 17:21:47 INFO Client: Preparing resources for our AM container
17/01/13 17:21:47 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploadi
ng libraries under SPARK_HOME.
17/01/13 17:21:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值