自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 SPARKSQL读SPARK表

SPARK2.0.2版本1. 读取SPARK表创建sparkSession,执行SQL,每行记录输出Object[],再对每行记录做转换,增加时间戳public RDD> getSourceRDD(PipelineOptions pipelineOptions, SparkContext sparkContext)    {      SparkSession sparkSes

2017-09-25 19:07:04 713

原创 SPARK-SUBMIT命令

1. 并发64,运行基于APACHE-BEAM开发的程序spark-submit --total-executor-cores 64  --executor-cores 8  --executor-memory 20g  --class test.ktrTest beam-data-integration-V2.0.0.jar  ktrpath=/opt/ZDH/parcels/lib/spa

2017-09-25 18:56:48 917

原创 APACHE BEAM2.0.0版本如何支持SPARK2.0.2

APACHE BEAM2.0.0支持的是SPARK1.6版本,如果要支持SPARK2.0.2版本需要做部分改造改造内容一:废弃原有的Accumulator接口,实现 AccumulatorV2需要实现public class NamedAccumulatorV2 extends AccumulatorV2 public class MetricsAccumlatorV2 ext

2017-09-25 18:50:11 514 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除