sparkStreaming连接kafka(Direct)

本文详细介绍了如何在Spark Streaming中使用Direct模式连接Kafka,包括配置参数设置、数据读取与处理,以及避免数据重复的关键策略。通过实例展示了如何实现高效、可靠的实时数据流处理。
//创建JavaStreamingContext
JavaStreamingContext jsc = createJavaStreamingContext(null, appName, batchDurationWithSeconds);

//kafkaParams 封装了kafka的参数
Object kafkaParams = new HashMap();
for (Iterator localIterator1 = config.getInputConfigs().entrySet().iterator(); localIterator1.hasNext();)
{
    Map.Entry entry = (Map.Entry)localIterator1.next();
    ((Map)kafkaParams).put(entry.getKey().toString(), entry.getValue());
}
System.out.println("inputParam: " + kafkaParams);
Object outputConfig = new HashMap();
for (Map.Entry<Object, Object> entry : config.getOutputConfigs().entrySet())
 {
    ((HashMap)outputConfig).put(entry.getKey().toString(), entry.getValue().toString());
}
System.out.println("outputConfig: " + outputConfig);
Map<TopicPartition, Long> fromOffsets = new HashMap();
//初始化redis连接
ShardedJedis redis = RedisSingleton.instance((HashMap)outputConfig).getResource();
//获取redis中的offset
Map<String, String> kafkaOffsets = redis.hgetAll("POSITION_KAFKA_OFFSETS");
redis.close();
Pattern patter4value = Pattern.compile(Pattern.quote(":"));
//kafkaOffsets.entrySet() 形式为0:SGN_DATA 12541
for (Map.Entry<String, String> entry : kafkaOffsets.entrySet())
{
    String[] info = patter4value.split((CharSequence)entry.getKey(), 2);
    if (info.length == 2) {
        //如果不是冷启动,fromOffsets中put偏移量
        fromOffsets.put(new TopicPartition(info[1], Integer.parseInt(info[0])), Long.valueOf(Long.parseLong((String)entry.getValue())));
    }
}
//如果起始redis中的偏移量为0,则插入0
if (fromOffsets.isEmpty()) {
    for (Map.Entry<String, Integer> entry : topics.entrySet()) {
        if (((Integer)entry.getValue()).intValue() > 0) {
            for (int i = 0; i < ((Integer)entry.getValue()).intValue(); i++) {
                fromOffsets.put(new TopicPartition((String)entry.getKey(), i), Long.valueOf(0L));
            }
        }
    }
}
System.out.println("fromOffsets: " + fromOffsets);
//创建直连的sparkStreaming对象
Object stream = KafkaUtils
        .createDirectStream(jsc,
                LocationStrategies.PreferConsistent(),
                ConsumerStrategies.Assign(fromOffsets.keySet(), (Map)kafkaParams, fromOffsets));
//通过stream对象,获取各个分区的offset,并将各分区的offset存入到redis中
JavaPairDStream<String, String> mapedDatas = ((JavaInputDStream)stream).transform(new Function() {
    private static final long serialVersionUID = -6012908518603112999L;
    private StringBuilder msg = new StringBuilder();
    public Object call(Object rdd1) throws Exception {
        JavaRDD<ConsumerRecord<String, String>> rdd = (JavaRDD<ConsumerRecord<String, String>>) rdd1;
        //获取rdd分区的offset
        OffsetRange[] offsetRanges = ((HasOffsetRanges)rdd.rdd()).offsetRanges();
        ShardedJedis redis = RedisSingleton.instance((HashMap<String, String>) outputConfig).getResource();
        for (OffsetRange offset : offsetRanges)
        {
            this.msg.setLength(0);
            redis.hset("POSITION_KAFKA_OFFSETS", offset.partition() + ":" + offset.topic(), offset.fromOffset() + "");
        }
        redis.close();
        return (Object)rdd;
    }
}).mapToPair(new PhonePairFunction2());
JavaPairDStream<String, Iterable<String>> groupedData = mapedDatas.filter(new Function() {
    private static final long serialVersionUID = 6634203502402639467L;
    public Boolean call(Object v1)
            throws Exception
    {
        Tuple2<String, String> record = (Tuple2<String, String>) v1;
        return Boolean.valueOf((record != null) && (record._1 != null) && (record._2 != null));
    }
}).groupByKey();
groupedData.foreachRDD(new RddProcessor((HashMap)outputConfig));
<think>好的,用户现在问的是关于Spark Streaming如何读取Kafka的数据。之前他们问过Python操作Kafka,现在可能是在同一个项目或学习路径中进阶到流处理了。我需要先确定他们的背景和需求。 首先,用户可能已经了解Kafka的基本操作,现在想用Spark Streaming进行实时数据处理。要介绍Spark Streaming和Kafka的集成方法,可能需要对比两种常用的方式:基于Receiver的方法和Direct Approach。不过现在Spark Streaming可能已经更新,需要确认最新的方法。 记得用户之前用的是Python,所以可能需要PySpark的例子。不过Spark Streaming在Python中主要通过PySpark实现,而代码示例可能涉及Scala,但用户可能需要Python版本。要确保提供的代码示例是Python的。 用户可能对集成步骤、依赖库、基本配置和示例代码感兴趣。需要提到必要的Maven或Gradle依赖,但如果是PySpark,可能需要提到相关的包,比如spark-streaming-kafka。不过需要注意,Spark的不同版本对应的包名称可能不同,比如Spark 2.4.x和3.x的区别。 另外,用户可能关心如何设置Kafka参数,比如bootstrap servers、topic、消费者组等。还有如何处理偏移量,确保数据不丢失,以及可能的性能优化参数,比如auto.offset.reset,enable.auto.commit等。 可能用户在实际操作中会遇到依赖问题,比如如何正确引入Kafka的库,或者在集群上运行时需要确保所有节点都有相应的jar包。这时候可能需要提醒他们注意版本兼容性,以及提交应用时的--packages选项。 另外,需要提到结构化流(Structured Streaming)的方式,因为Spark已经逐渐转向结构化流API,可能比传统的Spark Streaming更推荐使用。所以应该包括两种方式的示例:传统的Spark Streaming和Structured Streaming。 用户可能还关心数据处理后的输出操作,比如保存到HDFS、数据库或打印到控制台。需要给出保存结果的示例,比如foreachRDD或writeStream的输出模式。 最后,常见问题部分需要包括偏移量管理、容错机制、性能调优,比如分区数、并行度调整,以及可能的错误处理,比如连接超时或反序列化问题。 总结:需要结构清晰,分步骤介绍两种集成方式,提供Python示例,强调版本差异,依赖管理,配置参数,以及常见问题和优化建议。同时注意用户可能的PySpark背景,确保示例代码正确可用。</think>在 Spark Streaming 中读取 Kafka 数据是实时流处理的常见场景,以下是实现方法及关键步骤: --- ### 一、依赖准备 Spark 提供了两种与 Kafka 集成的 API(需根据 Spark 版本选择): 1. **传统方式(Receiver-based)**(已逐渐淘汰) 2. **Direct Approach(推荐)**:基于 Kafka 的消费者 API,更高效且支持 Exactly-Once 语义。 **Maven/Gradle 依赖**(以 Spark 3.x + Kafka 0.10+ 为例): ```xml <!-- Spark Streaming + Kafka 集成包 --> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming-kafka-0-
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值