ByteArraySerializer is not an instance of org.apache.kafka.common.serialization.Serializer

本文介绍了在Flink与Kafka集成时遇到的序列化错误,分析了错误原因可能是消费与生产的配置混淆以及依赖包重复导致。提供了正确的Source和Sink配置示例,并建议在pom.xml中将相关依赖设置为`provide`范围以避免打包时重复。同时,强调了检查和管理依赖的重要性。

ByteArraySerializer is not an instance of org.apache.kafka.common.serialization.Serializer

背景

在Flink使用Kafka进行Source 或者Sink的时候需要进行KeyValue的序列化和反序列化操作。现在应该没有人用Kafka 0.XX版本的了吧,估计都是1.X 或者2.X版本。
在这两个版本中,可以直接使用更新的Flink-Kafka-connection 包,具体使用可以参照官网。

报错类型

  • 消费和生产弄反。
    在消费的时候使用反序列化器 Source,在生产的时候使用序列化器 Sink。但其实在1.X以后,Flink就可以不用特意区分两者的区别,可以使用以下代码:
		// Source端
        val source: FlinkKafkaConsumer[String] = new FlinkKafkaConsumer[String](consumerTopic, new SimpleStringSchema(), propertiesSource)
        flinkKafkaConsumer
          .setStartFromGroupOffsets()
          .setCommitOffsetsOnCheckpoints(false)

		// Sink端
		val sink = new FlinkKafkaProducer
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值