题目:将相同key的value值进行累加并合并

package homework;

import java.util.HashMap;
import java.util.Map;
import java.util.Scanner;
import java.util.function.BiFunction;

//题目:将相同key的value值进行累加并合并
public class work02 {
    public static void main(String[] args) {

        // 提示用户想创建几组entry(键值对),并保存到t中
        System.out.println("请输入想创建几组key与value:");
        Scanner input1 = new Scanner(System.in);
        int t = input1.nextInt();

        // 创建HashMap,因为key唯一
        Map<Integer, Integer> map = new HashMap<Integer, Integer>();

        // 提示用户输入t对:key和value,保存到str字符串中
        System.out.println("请输入key和value,中间用空格隔开");
        for (int i = 0; i < t; i++) {
            Scanner input2 = new Scanner(System.in);
            String str = input2.nextLine();

            // 获取用户输入的key:先用字符串截取0~空格之前 的字符串,
            //                    再强制类型转换为int类型保存到key中
            // 获取用户输入的value:先用字符串截取空格之后1位~结尾之前 的字符串,
            //                     再强制类型转换为int类型保存到value中
            int key = Integer.parseInt(str.substring(0, str.indexOf(" ")));
            int value = Integer.parseInt(str.substring(str.indexOf(" ") + 1, str.length()));

            // 如果map中的key已经存在,第一个key所对应的value加上下一个key所对应的value覆盖成新的value
            if (map.containsKey(key)) {
                int value1 = map.get(key);
                value = value + value1;
            }
            //给map中加入key,以及重复key所对应的value相加后的value
            map.put(key, value);
        }
        
        //输出map
        System.out.println(map);

    }
}


//输出结果

/*

 

*/

我的代码要怎么改才能满足题目要求:/*编写Scala代码,使用Flink消费Kafka中Topic为order的数据进行相应的数据统计计算(订单信息对应表结构order_info, 订单详细信息对应表结构order_detail(来源类型和来源编号这两个字段不考虑,所以在实时数据中不会出现), 时计算中使用order_info或order_detail表中create_time或operate_time取两者中较大者作为EventTime, 若operate_time为空或无此列,则使用create_time填充,允许数据延迟5s, 订单状态order_status分别为1001:创建订单、1002:支付订单、1003:取消订单、1004:完成订单、1005:申请退回、1006:退回完成。 */ /*1、使用Flink消费Kafka中的数据,统计商城实时订单数量(需要考虑订单状态,若有取消订单、申请退回、退回完成则不计入订单数量,其他状态则累加), 将key设置成totalcount存入Redis中。使用redis cli以get key方式获取totalcount.*/ /*2、在任务1进行的时,使用侧边流,使用Flink消费Kafka中的订单详细信息的数据, 实时统计商城中销售量前3的商品(不考虑订单状态,不考虑打折),将key设置成top3itemamount存入Redis中( value使用String数据格式,value为前3的商品信息且外层用[]包裹,其中按排序依次存放商品id:销售量,用逗号分割)。 使用redis cli以get key方式获取top3itemamount。 示例如下: top3itemamount:[1:700,42:500,41:100]*/ import org.apache.flink.api.common.eventtime.{SerializableTimestampAssigner, WatermarkStrategy} import org.apache.flink.api.common.serialization.SimpleStringSchema import org.apache.flink.api.common.state.{MapState, MapStateDescriptor, ValueState} import org.apache.flink.configuration.Configuration import org.apache.flink.connector.jdbc.{JdbcConnectionOptions, JdbcExecutionOptions, JdbcSink, JdbcStatementBuilder} import org.apache.flink.connector.kafka.source.KafkaSource import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer import org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction} import org.apache.flink.streaming.api.functions.KeyedProcessFunction import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.connectors.redis.RedisSink import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper} import org.apache.flink.util.Collector import java.sql.PreparedStatement import java.text.SimpleDateFormat import java.time.Duration import java.sql.{Connection, DriverManager, PreparedStatement} import sc
最新发布
03-20
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值