@PropertySource存入map属性 并解决乱序问题

pom
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-configuration-processor</artifactId>
            <optional>true</optional>
        </dependency>
sr.properties格式

文件路径src/main/resources/config/sr.properties

sr.mapest.key1=map1
sr.mapest.key2=map2
sr.mapest.key3=map3
sr.mapest.key4=map4
@PropertySource用法
@Component
@ConfigurationProperties(prefix = "sr")
@PropertySource(value = "classpath:/config/sr.properties", encoding = "utf-8")
public class PropertySourceConfig {

    private Map<String,String> mapest = new LinkedHashMap<>();

    public Map<String, String> getMapest() {
        return mapest;
    }

    public void setMapest(Map<String, String> mapest) {
        this.mapest = mapest;
    }
}
测试
@RestController
public class TempController {

    @Autowired
    private PropertySourceConfig propertySourceConfig;

    @GetMapping("/get-map")
    public String getMap(String name) {

        return "hello" + propertySourceConfig.getMapest().toString();
    }
}

但是因为Properties类是继承的Hashtable,导致的读取时发生顺序错乱

解决方案

参考链接

1)由于ResourcePropertySource不能直接更改PropertiesLoaderUtils的调用,那么需要我们按照源码顺序进行修改,即:修改PropertySourceFactory的实现,PropertiesPropertySource的实现及PropertiesLoaderUtils的方法
2)修改PropertySourceFactory的实现方法命名LinkedHashMapPropertySourceFactory

package com.example.factory;

import java.util.*;

public class LinkedHashMapProperties extends Properties {
    private static final long serialVersionUID = -4627607243846121965L;

    private final LinkedHashSet<Object> keys = new LinkedHashSet<>();

    @Override
    public Enumeration<Object> keys() {
        return Collections.enumeration(keys);
    }

    @Override
    public Object put(Object key, Object value) {
        keys.add(key);
        return super.put(key, value);
    }

    @Override
    public Set<Object> keySet() {
        return keys;
    }

    @Override
    public Set<String> stringPropertyNames() {
        Set<String> set = new LinkedHashSet<>();

        for (Object key : this.keys) {
            set.add((String) key);
        }

        return set;
    }
}

package com.example.factory;

import org.springframework.core.io.support.EncodedResource;
import org.springframework.core.io.support.PropertiesLoaderUtils;

import java.io.IOException;
import java.util.Properties;


public class LinkedHashMapPropertiesLoaderUtils extends PropertiesLoaderUtils {
    public static Properties loadProperties(EncodedResource resource) throws IOException {
        Properties props = new LinkedHashMapProperties();
        fillProperties(props, resource);
        return props;
    }
}

package com.example.factory;

import org.springframework.core.env.PropertySource;
import org.springframework.core.io.support.EncodedResource;
import org.springframework.core.io.support.PropertySourceFactory;

import java.io.IOException;


public class LinkedHashMapPropertySourceFactory implements PropertySourceFactory {

    @Override
    public PropertySource<?> createPropertySource(String name, EncodedResource resource) throws IOException {
        return (name != null ? new LinkedHashMapResourcePropertySource(name, resource) : new LinkedHashMapResourcePropertySource(resource));
    }
}

package com.example.factory;

import org.springframework.core.env.PropertiesPropertySource;
import org.springframework.core.io.Resource;
import org.springframework.core.io.support.EncodedResource;
import org.springframework.lang.Nullable;
import org.springframework.util.StringUtils;

import java.io.IOException;

public class LinkedHashMapResourcePropertySource extends PropertiesPropertySource {

    @Nullable
    private final String resourceName;

    public LinkedHashMapResourcePropertySource(String name, EncodedResource resource) throws IOException {
        super(name, LinkedHashMapPropertiesLoaderUtils.loadProperties(resource));
        this.resourceName = getNameForResource(resource.getResource());
    }

    public LinkedHashMapResourcePropertySource(EncodedResource resource) throws IOException {
        super(getNameForResource(resource.getResource()), LinkedHashMapPropertiesLoaderUtils.loadProperties(resource));
        this.resourceName = null;
    }

    private static String getNameForResource(Resource resource) {
        String name = resource.getDescription();
        if (!StringUtils.hasText(name)) {
            name = resource.getClass().getSimpleName() + "@" + System.identityHashCode(resource);
        }
        return name;
    }
}

修改PropertySourceConfig,@PropertySource加入属性factory
@Component
@ConfigurationProperties(prefix = "sr")
@PropertySource(value = "classpath:/config/sr.properties", encoding = "utf-8" ,factory = LinkedHashMapPropertySourceFactory.class)
public class PropertySourceConfig {

    private Map<String,String> mapest = new LinkedHashMap<>();

    public Map<String, String> getMapest() {
        return mapest;
    }

    public void setMapest(Map<String, String> mapest) {
        this.mapest = mapest;
    }
}

--------------------------------------2021.8.13分隔线-----------------------------

有两处父类是synchronized,子类没加synchronized,没注意

public class LinkedHashMapProperties extends Properties {
    private static final long serialVersionUID = -4627607243846121965L;

    private final LinkedHashSet<Object> keys = new LinkedHashSet<>();

    //父类是synchronized,子类还是加上比较好
    @Override
    public synchronized Enumeration<Object> keys() {
        return Collections.enumeration(keys);
    }
    父类是synchronized,子类还是加上比较好
    @Override
    public synchronized Object put(Object key, Object value) {
        keys.add(key);
        return super.put(key, value);
    }

    @Override
    public Set<Object> keySet() {
        return keys;
    }

    @Override
    public Set<String> stringPropertyNames() {
        Set<String> set = new LinkedHashSet<>();

        for (Object key : this.keys) {
            set.add((String) key);
        }

        return set;
    }
}

博主公众号
求关注
在这里插入图片描述

我的代码要怎么改才能满足题目要求:/*编写Scala代码,使用Flink消费Kafka中Topic为order的数据进行相应的数据统计计算(订单信息对应表结构order_info, 订单详细信息对应表结构order_detail(来源类型和来源编号这两个字段不考虑,所以在实时数据中不会出现), 同时计算中使用order_info或order_detail表中create_time或operate_time取两者中值较大者作为EventTime, 若operate_time为空值或无此列,则使用create_time填充,允许数据延迟5s, 订单状态order_status分别为1001:创建订单、1002:支付订单、1003:取消订单、1004:完成订单、1005:申请退回、1006:退回完成。 */ /*1、使用Flink消费Kafka中的数据,统计商城实时订单数量(需要考虑订单状态,若有取消订单、申请退回、退回完成则不计入订单数量,其他状态则累加), 将key设置成totalcount存入Redis中。使用redis cli以get key方式获取totalcount值.*/ /*2、在任务1进行的同时,使用侧边流,使用Flink消费Kafka中的订单详细信息的数据, 实时统计商城中销售量前3的商品(不考虑订单状态,不考虑打折),将key设置成top3itemamount存入Redis中( value使用String数据格式,value为前3的商品信息且外层用[]包裹,其中按排序依次存放商品id:销售量,用逗号分割)。 使用redis cli以get key方式获取top3itemamount值。 示例如下: top3itemamount:[1:700,42:500,41:100]*/ import org.apache.flink.api.common.eventtime.{SerializableTimestampAssigner, WatermarkStrategy} import org.apache.flink.api.common.serialization.SimpleStringSchema import org.apache.flink.api.common.state.{MapState, MapStateDescriptor, ValueState} import org.apache.flink.configuration.Configuration import org.apache.flink.connector.jdbc.{JdbcConnectionOptions, JdbcExecutionOptions, JdbcSink, JdbcStatementBuilder} import org.apache.flink.connector.kafka.source.KafkaSource import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer import org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction} import org.apache.flink.streaming.api.functions.KeyedProcessFunction import org.apache.flink.streaming.api.scala._ import org.apache.flink.streaming.connectors.redis.RedisSink import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper} import org.apache.flink.util.Collector import java.sql.PreparedStatement import java.text.SimpleDateFormat import java.time.Duration import java.sql.{Connection, DriverManager, PreparedStatement} import sc
03-20
编写Scala代码,使用Flink消费Kafka中Topic为order的数据进行相应的数据统计计算(订单信息对应表结构order_info,订单详细信息对应表结构order_detail(来源类型和来源编号这两个字段不考虑,所以在实时数据中不会出现),同时计算中使用order_info或order_detail表中create_time或operate_time取两者中值较大者作为EventTime,若operate_time为空值或无此列,则使用create_time填充,允许数据延迟5s,订单状态order_status分别为1001:创建订单、1002:支付订单、1003:取消订单、1004:完成订单、1005:申请退回、1006:退回完成。另外对于数据结果展示时,不要采用例如:1.9786518E7的科学计数法)。 1、 使用Flink消费Kafka中的数据,统计商城实时订单数量(需要考虑订单状态,若有取消订单、申请退回、退回完成则不计入订单数量,其他状态则累加),将key设置成totalcount存入Redis中。使用redis cli以get key方式获取totalcount值,将结果截图粘贴至客户端桌面【Release\任务C提交结果.docx】中对应的任务序号下,需两次截图,第一次截图和第二次截图间隔1分钟以上,第一次截图放前面,第二次截图放后面; 2、 在任务1进行的同时,使用侧边流,使用Flink消费Kafka中的订单详细信息的数据,实时统计商城中销售量前3的商品(不考虑订单状态,不考虑打折),将key设置成top3itemamount存入Redis中(value使用String数据格式,value为前3的商品信息且外层用[]包裹,其中按排序依次存放商品id:销售量,用逗号分割)。使用redis cli以get key方式获取top3itemamount值,将结果截图粘贴至客户端桌面【Release\任务C提交结果.docx】中对应的任务序号下,需两次截图,第一次截图和第二次截图间隔1分钟以上,第一次截图放前面,第二次截图放后面; 示例如下: top3itemamount:[1:700,42:500,41:100]
03-20
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值