
大数据
dab-hand
这个作者很懒,什么都没留下…
展开
-
Spark Job提交的整体流程源码详解
Job的提交 任何一个行动算子,都会执行:runJob() val results = sc.runJob() runJob()在DAGScheduler类中 1. 提交job,是一个阻塞线程 val waiter = submitJob(rdd, func, partitions, callSite, resultHandler, properties) //742 2. submitJob中: val jobId = nextJobId.getAndIncrement() //生成JobId,原创 2020-09-20 16:33:29 · 260 阅读 · 0 评论 -
Spark Submit流程源码详解(on yarn)
Submit流程(yarn) #执行提交命令: bin/spark-submit --master yarn --deploy-mode cluster --class com.Tencent.spark.WordCount /opt/module/spark-standalone/bin/spark-1.0-SNAPSHOT.jar hdfs://hadoop:9820/input 执行脚本实际是执行: bin/spark-class org.apache.spark.dep原创 2020-09-20 16:30:56 · 415 阅读 · 0 评论 -
Hive中 Order by,Sort by, Distribute by, Cluster by详解
Hive中 Order by,Sort by, Distribute by, Cluster by详解 本文的数据基础: empno ename job mgr hiredate sal comm deptno 工号 姓名 职位 老板工号 雇佣日期 工资 不重要 部门编号 初始计算引擎为tez,而不是默认的MR。 1.Order by order by的用法和mysql中一模一样,是针对全局排序。此处不进行详述。 2.Sort by Hive基于Hadoop集群,Sort by为每原创 2020-07-30 23:19:35 · 1162 阅读 · 0 评论 -
Hadoop中MapReduce整体源码解析
MapReduce整体源码解析: 前言:本文章分析的源码基于Hadoop 3.1.3,主要是针对MR流程过一遍源码,源码的详细解释只涉及一些重要部分,鉴于水平有限,免不了有些说明不够正确,欢迎各位大佬指正。 废话不多说,开搞! job提交流程: 1. waitForCompletion()提交,进入submit方法,通过connnet方法获取当前job需要执行到本地还是Yarn //1.waitForCompletion后,进入到job.java中,源码1587行 if (state == JobState原创 2020-07-27 00:17:27 · 658 阅读 · 0 评论