
kafka
文章平均质量分 74
Mei憨憨
提及年少二字,应与平庸相斥
展开
-
Canal实时采集mysql TCP,kafka 连接
Canal实时采集数据库信息 TCP)Canal简介MySQL 的 BinlogBinlog 的分类连接TcpTCP测试canal连接kafkaCanal简介Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前。Canal 主要支持了 MySQL 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得的相关数据。(数据库同步需要阿里的 Otter 中间件,基于 Canal)。MySQL 的 BinlogMySQL 的二进制日原创 2022-05-12 16:08:23 · 1050 阅读 · 0 评论 -
canal kafka 日常问题
问题2022-05-12 01:01:32.003 [main] ERROR com.alibaba.druid.pool.DruidDataSource - testWhileIdle is true, validationQuery not set解决方法:进入canal 找到conf/canal.properties 文件里面的 canal.instance.tsdb.spring.xml=classpath:spring/tsdb/h2-tsdb.xml将该信息注释掉,重新启动就原创 2022-05-12 10:12:12 · 431 阅读 · 0 评论 -
canal kafka 异常问题
问题查看canal 的日志信息2022-05-12 01:24:20.539 [pool-4-thread-1] ERROR com.alibaba.otter.canal.kafka.CanalKafkaProducer - Invalid partition given with record: 1 is not in the range [0…1).org.apache.kafka.common.KafkaException: Invalid partition given with reco原创 2022-05-12 09:46:34 · 856 阅读 · 0 评论 -
SparkStreaming+kafka+flume实现日志的实时处理并且将数据实时更新数据库
SparkStreaming+kafka+flume实现日志的实时处理环境准备项目思路实验环境启动配置编写项目代码启动测试环境准备1 三台安装Hadoop的虚拟机2 flume的安装 参考flume的大数据集群安装3 kafka 安装参考kafka集群4 windows +ideal+mysql项目思路利用ideal产生实时的日志,利用log4j文件,将日志文件实时采集到flume上面,利用kafka来进行监听传输,通过sparkStreaming 对产生的日志文件进行计算,并且实时原创 2021-12-05 12:10:10 · 2850 阅读 · 0 评论