
spark
文章平均质量分 59
zhaokunpeng1593
活在完全独立的今天。
展开
-
提交spark任务Requesting 1 new executor because tasks are backlogged (new desired total will be 1)
这两天在集群上提交任务时一直提交不成功,一直爆出下面的问题,如果不主动停掉就会一直刷 check your cluster UI to ensure that workers are registered and have sufficient resources,开始以为是资源不足的问题,在网上找了好多方法测试都不行,后来发现虽然一直再刷等资源的问题(下面的报错日志,以我的蹩脚英语理解为等资源,原创 2017-11-03 14:37:30 · 2435 阅读 · 0 评论 -
spark container exited fom explicit termination request
今天再看spark ui界面“spark Jobs"的”Event Timeline“选项时发现有个excutor被移remove了。虽然任务没有报错,但是还是不放心,万一产品上线再出问题就完了,于是就在网上找了一些资料,网上关于这个问题的帖子并不多,这一个可供参考:https://stackoverflow.com/questions/35649146/spark-looses-all-exec...原创 2018-07-31 10:45:27 · 2633 阅读 · 1 评论 -
使用spark将数据以bulkload的方式写入Hbase时报错
Exception in thread "main" java.io.IOException: Trying to load more than 32 hfiles to one family of one region从报错日志中可以很明显看出因为Hfiles的个数超出了32默认的时32,关键时怎么改的问题,我们用的是CDH在Hbase的webui页面,没找到类似配置,通过在网上查找资料发现...原创 2018-08-06 16:26:55 · 1426 阅读 · 0 评论 -
使用spark将数据写入Hbase
--------------组装xml并捕获异常-------------------package wondersgroup_0628.comimport java.io.{IOException, PrintWriter, StringReader, StringWriter}import java.util.Base64import com.wonders.TXmltmpim...原创 2018-08-15 10:40:35 · 3021 阅读 · 0 评论 -
sparksql读取hive中的数据保存到hdfs中
package wondersgroup_0905_Testimport org.apache.spark.sql.SparkSessionobject sparkHive { def main(args: Array[String]): Unit = { //数据库名称 val database ="hivetest" //表名称 val table...原创 2018-09-07 10:38:33 · 7065 阅读 · 0 评论