Spark
谁能拒绝一个会写Bug的人呢
橙子不吃葱
学习最重要
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ClickHouse插入异常 Code: 33, DB::Exception: Cannot read all data Bytes read:xx Bytes expected:xxx
ClickHouse数据写入时出现两种异常情况:1) 数据读取不完整异常(Code: 33, e.displayText() = DB::Exception: Cannot read all data),2) 内存超限异常(Code: 241, e.displayText() = DB::Exception: Memory limit (for query) 分析两种可能的原因因原创 2025-06-09 16:03:51 · 396 阅读 · 0 评论 -
大数据日常记录
1.Spark保存文件并设置文件压缩格式2.Spark Streaming窗口窗口大小(Window Length):Durations.seconds(interval + 10)。由于interval = 300,窗口大小就是300 + 10 = 310秒。这意味着每个窗口将覆盖310秒(即5分钟零10秒)的数据。滑动间隔(Slide Interval):Durations.seconds(interval)。这里的滑动间隔是300秒,即5分钟。滑动间隔定义了窗口操作执行的频率。原创 2024-01-15 10:56:29 · 460 阅读 · 0 评论 -
flume异常
flume channel配置配置checkpoint异常原创 2023-02-23 14:39:49 · 243 阅读 · 0 评论 -
Spark动态资源调度
Spark动态资源调度原创 2021-12-23 19:44:15 · 1740 阅读 · 0 评论 -
SparkRDD操作之aggregate
SparkRDD操作之aggregate 看代码最好解释 package cn.sparkdemo.core import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext, TaskContext} object RDDAggregate { def main(args: Array[String]): Unit = { //1、创建上下文对象 val sparkConf: Spar原创 2021-11-29 20:19:33 · 1893 阅读 · 0 评论 -
sparkRDD操作之ReduceByKey和GroupByKey比较
sparkRDD操作之ReduceByKey和GroupByKey比较 直接看代码 package cn.sparkdemo.core import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object TestRDDFuctions { def main(args: Array[String]): Unit = { //1、创建上下文对象 val sparkConf: Sp原创 2021-11-29 20:06:50 · 336 阅读 · 0 评论
分享