nohup ./bin/zookeeper-server-start.sh config/zookeeper.properties &
nohup ./bin/kafka-server-start.sh config/server.properties &
./bin/kafka-topics.sh --create --zookeeper cetiti242:2181 --replication-factor 1 --partitions 1 --topic user_ippv
./bin/kafka-topics.sh --create --zookeeper cetiti242:2181 --replication-factor 1 --partitions 1 --topic result_total_pvuv_min
./bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test
./bin/kafka-topics.sh --zookeeper localhost:2181 --list
./kafka-console-producer.sh --broker-list localhost:9092 --topic result_total_pvuv_min
./kafka-console-producer.sh --broker-list localhost:9092 --topic user_ippv
./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic result_total_pvuv_min
本文介绍了如何使用Flink处理Kafka数据,通过创建source_ods_fact_user_ippv和result_total_pvuv_min表,进行数据聚合并写入Kafka主题。详细步骤包括启动Zookeeper和Kafka服务,创建Kafka topic,设置Flink SQL的源表和Sink表,以及展示样例数据。
订阅专栏 解锁全文
560

被折叠的 条评论
为什么被折叠?



