kafka
文章平均质量分 74
Mei憨憨
提及年少二字,应与平庸相斥
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Canal实时采集mysql TCP,kafka 连接
Canal实时采集数据库信息 TCP)Canal简介MySQL 的 BinlogBinlog 的分类连接TcpTCP测试canal连接kafka Canal简介 Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。 目前。Canal 主要支持了 MySQL 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得的相关数据。(数据库同步需要阿里的 Otter 中间件,基于 Canal)。 MySQL 的 Binlog MySQL 的二进制日原创 2022-05-12 16:08:23 · 1107 阅读 · 0 评论 -
canal kafka 日常问题
问题 2022-05-12 01:01:32.003 [main] ERROR com.alibaba.druid.pool.DruidDataSource - testWhileIdle is true, validationQuery not set 解决方法: 进入canal 找到conf/canal.properties 文件里面的 canal.instance.tsdb.spring.xml=classpath:spring/tsdb/h2-tsdb.xml将该信息注释掉,重新启动就原创 2022-05-12 10:12:12 · 466 阅读 · 0 评论 -
canal kafka 异常问题
问题 查看canal 的日志信息 2022-05-12 01:24:20.539 [pool-4-thread-1] ERROR com.alibaba.otter.canal.kafka.CanalKafkaProducer - Invalid partition given with record: 1 is not in the range [0…1). org.apache.kafka.common.KafkaException: Invalid partition given with reco原创 2022-05-12 09:46:34 · 903 阅读 · 0 评论 -
SparkStreaming+kafka+flume实现日志的实时处理并且将数据实时更新数据库
SparkStreaming+kafka+flume实现日志的实时处理环境准备项目思路实验环境启动配置编写项目代码启动测试 环境准备 1 三台安装Hadoop的虚拟机 2 flume的安装 参考flume的大数据集群安装 3 kafka 安装参考kafka集群 4 windows +ideal+mysql 项目思路 利用ideal产生实时的日志,利用log4j文件,将日志文件实时采集到flume上面,利用kafka来进行监听传输,通过sparkStreaming 对产生的日志文件进行计算,并且实时原创 2021-12-05 12:10:10 · 2919 阅读 · 0 评论
分享