org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 0, required: 32. To avoid this, increase spark.kryoserializer.buffer.max value.
序列缓存化溢出
原因分析: RDD extends scala.AnyRef withscala.Serializable ,所以在使用textFile ,读取表的数据,等大量创建新的rdd,df,ds等 数据集的时候,注意把 这个值调大
.set("spark.kryoserializer.buffer.max","128");
SparkContext.setSystemProperty('spark.driver.maxResultSize', '10g')
--conf spark.kryoserializer.buffer.max=256m
--conf spark.driver.maxResultSize = 15g