简单的kafka和flink实现实时计算引擎处理数据_kettle+flink+kafkaf能否实现实时(3)

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

1.5 启动zk集群
zkServer.sh start
1.6 启动flink
start-cluster.sh


### 2、代码实现


#### 2.1 创建生产者的代码


JProducer.class



@Configuration
@Slf4j
public class JProducer extends Thread {
public static final String broker_list = “ip(换成自己的):9092”;
public static final String topic = “test”;

public static void main(String[] args) {
    JProducer jproducer = new JProducer();
    jproducer.start();
}

@Override
public void run() {
    try {
        producer();
    } catch (InterruptedException e) {
        throw new RuntimeException(e);
    }
}


/**
 * 向kafka批量生成记录
 */
@Scheduled(initialDelayString="${kf.flink.init}",fixedDelayString = "${kf.flink.fixRate}")
private void producer() throws InterruptedException {
    log.info("启动定时任务");
    Properties props = config();//kafka连接
    Producer<String, String> producer = new KafkaProducer<>(props);
    Date date = new Date();
    SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
    String dateString = simpleDateFormat.format(date);
    while (true) {
        for (int i = 1; i <= Integer.MAX_VALUE; i++) {
            String json = "{\"id\":" + i + ",\"ip\":\"192.168.0." + i + "\",\"date\":" + dateString + "}";
            String k = "第" + i + "条数据=" + json;
            sleep(300);
            if (i % 10 == 0) {
                sleep(1000);
            }
            producer.send(new ProducerRecord<String, String>(topic, k, json));
        }
       producer.close();
    }
}


/**
 * kafka连接
 * @return
 */
private Properties config() {
    Properties props = new Properties();
    props.put("bootstrap.servers",broker_list);
    props.put("acks", "1");
    props.put("retries", 0);
    props.put("batch.size", 16384);
    props.put("linger.ms", 1);
    props.put("buffer.memory", 33554432);
    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    return props;
}

}


#### 2.2 创建flink程序


Flink.class



public class Flink {
private static final String topic = “test”;
public static final String broker_list = “ip(换成自己的):9092”;

public static void main(String[] args) {
    final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    env.enableCheckpointing(1000);
    env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);
    //读取Kafka数据,主题topic:
    DataStream<String> transction = env.addSource(new FlinkKafkaConsumer<String>(topic, new SimpleStringSchema(), props()).setStartFromEarliest());
    transction.rebalance().map(new MapFunction<String, Object>() {
        private static final long serialVersionUID = 1L;
        @Override
        public String map(String value) {
            System.out.println("ok了");
            return value;
        }
    }).print();

    try {
        env.execute();
    } catch (Exception ex) {
        ex.printStackTrace();
    }


}

public static Properties props() {
    Properties props = new Properties();
    props.put("bootstrap.servers", broker_list);
    props.put("zookeeper.connect", "192.168.47.130:2182");
    props.put("group.id", "kv\_flink");
    props.put("enable.auto.commit", "true");
    props.put("auto.commit.interval.ms", "1000");
    props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

知识点,真正体系化!**

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值