redisTemplate批量新增hash

在工作中遇到Kafka接收到数据后需要批量处理Redis中的Hash,发现redisTemplate缺少直接支持的方法。通过自行编写代码,实现了使用pipeline进行1000次Hash操作,从而避免多次连接。测试验证了方法的正确性,可以将此代码段应用于工具类中,实现高效批量处理。

需求:工作中使用kafka接收数据,需要批量对redis中的hash操作,而redisTemplate并没有提供相应的方法,里面对于批量插入操作,只有一个

public void putAll(K key, Map<? extends HK, ? extends HV> m) {
        if (!m.isEmpty()) {
            byte[] rawKey = this.rawKey(key);
            Map<byte[], byte[]> hashes = new LinkedHashMap(m.size());
            Iterator var5 = m.entrySet().iterator();

            while(var5.hasNext()) {
                Entry<? extends HK, ? extends HV> entry = (Entry)var5.next();
                hashes.put(this.rawHashKey(entry.getKey()), this.rawHashValue(entry.getValue()));
            }

            this.execute((connection) -> {
                connection.hMSet(rawKey, hashes);
                return null;
            });
        }
    }

这显然不是我想要的,我想要的是批量对1000个hash操作,而这样我还是要for循环走1000次连接。在网上找了半天没有找到对应的办法后,我参考这个写法,写了一个自己的方法。代码如下:

@SpringBootTest
class SpringbootRedisApplicationTests {

    @Test
    void contextLoads() {
        RedisTemplate redisTemplate = (RedisTemplate) SpringContextUtil.getBean("redisTemplate");
        RedisSerializer keySerializer = redisTemplate.getKeySerializer();
        RedisSerializer hashKeySerializer = redisTemplate.getHashKeySerializer();
        RedisSerializer hashValueSerializer = redisTemplate.getHashValueSerializer();
        Map<String, Map<String, Object>> map = new HashMap<>();
        Map<String, Object> aMap = new HashMap<>();
        aMap.put("st",1);
        aMap.put("time", "2021-12-1");
        for (int i = 0; i < 1000; i++) {
            map.put(i+"", aMap);
        }

        redisTemplate.executePipelined((RedisCallback<Map>) connection->{
            Iterator<Map.Entry<String, Map<String, Object>>> iterator = map.entrySet().iterator();
            while (iterator.hasNext()) {
                Map.Entry<String, Map<String, Object>> next = iterator.next();

                byte[] rawKey = keySerializer.serialize(next.getKey());

                Map<byte[], byte[]> hashes = new LinkedHashMap(next.getValue().size());
                Iterator var5 = next.getValue().entrySet().iterator();

                while(var5.hasNext()) {
                    Map.Entry<String, Object> entry = (Map.Entry)var5.next();
                    hashes.put(hashKeySerializer.serialize(entry.getKey()),
                            hashValueSerializer.serialize(entry.getValue()));
                }
                // 这里可以改成你想要的操作,比如删除或者根据条件对应操作之类的
                connection.hMSet(rawKey, hashes);
            }
            return null;
        });

    }

}

我这是在测试类里面写的,同行们可以粘到自己的工具类里面去,传参是一个Map<String,Map<String,Object>>就行了,为了严谨,防止序列化出现问题,我又进行了取的测试

// 随便取出试用
Map map = (Map<String, String>)redisTemplate.opsForHash().entries("100");
System.out.println(map);

发现没有问题,这样我们就可以只用一次连接批量对hash操作了。

有疑问可以在评论区交流,作者看见会回复。

如需转载,请一定声明原处。

package com.nineclient.redis; import com.alibaba.fastjson.JSONArray; import com.alibaba.fastjson.JSONObject; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.dao.DataAccessException; import org.springframework.data.redis.core.*; import org.springframework.data.redis.serializer.RedisSerializer; import org.springframework.stereotype.Component; import java.io.IOException; import java.io.Serializable; import java.util.ArrayList; import java.util.List; import java.util.Map; import java.util.Set; import java.util.concurrent.TimeUnit; /** * @ClassName: RedisUtil * @Description: redis工具类 */ @Component("secondaryRedisUtils") public class SecondaryRedisUtils<T> { private static Logger log = LoggerFactory.getLogger(SecondaryRedisUtils.class); @Autowired @Qualifier("secondaryRedisTemplate") RedisTemplate redisTemplate; /** * 批量删除对应的value * * @param keys */ public void remove(final String... keys) { for (String key : keys) { remove(key); } } /** * 批量删除key * * @param pattern */ @SuppressWarnings("unchecked") public void removePattern(final String pattern) { Set<Serializable> keys = redisTemplate.keys(pattern); if (keys.size() > 0) redisTemplate.delete(keys); } /** * 删除对应的value * * @param key */ @SuppressWarnings("unchecked") public void remove(final String key) { if (exists(key)) { redisTemplate.delete(key); } } /** * 判断缓存中是否有对应的value * * @param key * @return */ @SuppressWarnings("unchecked") public boolean exists(final String key) { return redisTemplate.hasKey(key); } /** * 读取缓存 * * @param key * @return */ @SuppressWarnings("unchecked") public Object get(final String key) { Object result = null; ValueOperations<Serializable, Object> operations = redisTemplate.opsForValue(); result = operations.get(key); return result; } /** * 写入缓存 * * @param key * @param value * @return */ @SuppressWarnings("unchecked") public boolean set(final String key, Object value) { boolean result = false; try { ValueOperations<Serializable, Object> operations = redisTemplate.opsForValue(); operations.set(key, value); result = true; } catch (Exception e) { log.error("redis set error. key:{},value:{}", key, value, e); } return result; } /** * 写入缓存 * * @param key * @param value * @return */ @SuppressWarnings("unchecked") public boolean set(final String key, Object value, Long expireTime) { boolean result = false; try { ValueOperations<Serializable, Object> operations = redisTemplate.opsForValue(); operations.set(key, value); redisTemplate.expire(key, expireTime, TimeUnit.MILLISECONDS); result = true; } catch (Exception e) { log.error("redis set error. key:{},value:{},expireTime:{}", key, value, expireTime, e); } return result; } @SuppressWarnings("unchecked") public boolean set(final String key, Object value, Long expireTime, RedisTemplate redisTemplate) { boolean result = false; try { ValueOperations<Serializable, Object> operations = redisTemplate.opsForValue(); operations.set(key, value); redisTemplate.expire(key, expireTime, TimeUnit.MILLISECONDS); result = true; } catch (Exception e) { log.error("redis set error. key:{},value:{},expireTime:{}", key, value, expireTime, e); } return result; } @SuppressWarnings("unchecked") public boolean set(final String key, Object value, Long expireTime, TimeUnit timeUnit) { boolean result = false; try { ValueOperations<Serializable, Object> operations = redisTemplate.opsForValue(); operations.set(key, value); redisTemplate.expire(key, expireTime, timeUnit); result = true; } catch (Exception e) { log.error("redis set error. key:{},value:{},expireTime:{}", key, value, expireTime, e); } return result; } /** * @param key * @return Long 返回类型 * @Title: getListSize * @Description: 获取redis list 数据类型 长度 */ public Long getListSize(String key) { Long size = 0L; try { size = redisTemplate.opsForList().size(key); } catch (Exception e) { log.error("redis getListSize error. key:{}", key, e); } return size; } /** * HashGet * * @param key 键 不能为null * @param item 项 不能为null * @return 值 */ public Object hget(String key, String item) { return redisTemplate.opsForHash().get(key, item); } /** * 获取hashKey对应的所有键值 * * @param key 键 * @return 对应的多个键值 */ public Map<Object, Object> hmget(String key) { return redisTemplate.opsForHash().entries(key); } /** * HashSet * * @param key 键 * @param map 对应多个键值 * @return true 成功 false 失败 */ public boolean hmset(String key, Map<String, Object> map) { try { redisTemplate.opsForHash().putAll(key, map); return true; } catch (Exception e) { log.error("exception when hash set key {}. ", key, e); return false; } } /** * HashSet 并设置时间 * * @param key 键 * @param map 对应多个键值 * @param time 时间(秒) * @return true成功 false失败 */ public boolean hmset(String key, Map<String, Object> map, long time) { try { redisTemplate.opsForHash().putAll(key, map); if (time > 0) { expire(key, time); } return true; } catch (Exception e) { log.error("exception when hash set key {}. ", key, e); return false; } } /** * 向一张hash表中放入数据,如果不存在将创建 * * @param key 键 * @param item 项 * @param value 值 * @return true 成功 false失败 */ public boolean hset(String key, String item, Object value) { try { redisTemplate.opsForHash().put(key, item, value); return true; } catch (Exception e) { log.error("exception when hash set key {}, item {} ", key, item, e); return false; } } /** * 向一张hash表中放入数据,如果不存在将创建 * * @param key 键 * @param item 项 * @param value 值 * @param time 时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间 * @return true 成功 false失败 */ public boolean hset(String key, String item, Object value, long time) { try { redisTemplate.opsForHash().put(key, item, value); if (time > 0) { expire(key, time); } return true; } catch (Exception e) { log.error("exception when hash set key {}, item {} ", key, item, e); return false; } } /** * 指定缓存失效时间 * * @param key 键 * @param time 时间(秒) * @return */ public boolean expire(String key, long time) { try { if (time > 0) { redisTemplate.expire(key, time, TimeUnit.MILLISECONDS); } return true; } catch (Exception e) { log.error("exception when expire key {}. ", key, e); return false; } } /** * 删除hash表中的值 * * @param key 键 不能为null * @param item 项 可以使多个 不能为null */ public void hdel(String key, Object... item) { redisTemplate.opsForHash().delete(key, item); } /** * 判断hash表中是否有该项的值 * * @param key 键 不能为null * @param item 项 不能为null * @return true 存在 false不存在 */ public boolean hHasKey(String key, String item) { return redisTemplate.opsForHash().hasKey(key, item); } /** * 写入缓存 * * @param key * @param ttl * @return */ public boolean setTTL(final String key, long ttl) { return redisTemplate.expire(key, ttl, TimeUnit.MILLISECONDS); } /** * *左侧push * * @param key * @param values * @return */ public Long lPush(String key, Object... values) { return this.redisTemplate.opsForList().leftPush(key, values); } /** * *左侧push * * @param key * @return */ public <T> T rPop(String key) { return (T) this.redisTemplate.opsForList().rightPop(key); } /** * *获取List(queue)全部的数据 * * @param key * @return */ public List<JSONArray> getListById(String key) { return redisTemplate.opsForList().range(key, 0, -1); } /** * *获取List(queue)全部的数据 * * @param key * @return */ public void trimList(String key, int size) { redisTemplate.opsForList().trim(key, size, -1); } public Set<String> getKey(String collectionName) { return redisTemplate.keys(collectionName); } /** * 获取符合条件的key * * @param pattern 表达式 * @return */ public List<String> keys(String pattern) throws IOException { long start = System.currentTimeMillis(); //需要匹配的key // String patternKey = "pay:*"; ScanOptions options = ScanOptions.scanOptions() //这里指定每次扫描key的数量(很多博客瞎说要指定Integer.MAX_VALUE,这样的话跟 keys有什么区别?) .count(10000) .match(pattern).build(); RedisSerializer<String> redisSerializer = (RedisSerializer<String>) redisTemplate.getKeySerializer(); Cursor cursor = (Cursor) redisTemplate.executeWithStickyConnection(redisConnection -> new ConvertingCursor<>(redisConnection.scan(options), redisSerializer::deserialize)); List<String> result = new ArrayList<>(); while (cursor.hasNext()) { result.add(cursor.next().toString()); } //切记这里一定要关闭,否则会耗尽连接数。报Cannot get Jedis connection; nested exception is redis.clients.jedis.exceptions.JedisException: Could not get a cursor.close(); log.debug("scan扫描共耗时:{} ms key数量:{}", System.currentTimeMillis() - start, result.size()); return result; } public void putToList(String key, Object value) { redisTemplate.execute(new SessionCallback<List<Object>>() { @Override public List<Object> execute(RedisOperations operations) throws DataAccessException { List<Object> result = null; do { operations.watch(key); JSONObject document = (JSONObject) operations.opsForValue().get(key); List valueList = null; if (document == null) { document = new JSONObject(); valueList = new ArrayList(); } else { valueList = (List) document.get("value"); } if (!valueList.contains(value)) { valueList.add(value); document.put("value", valueList); operations.multi(); operations.opsForValue().set(key, document); } else { break; } try { result = operations.exec(); } catch (Exception e) { } } while (result == null); return result; } }); //redisTemplate.putToList(getKey(id, collectionName), value); } public void removeFromList(String key, Object id, Object value) { redisTemplate.execute(new SessionCallback<List<Object>>() { @Override public List<Object> execute(RedisOperations operations) throws DataAccessException { List<Object> result = null; do { operations.watch(key); JSONObject document = (JSONObject) operations.opsForValue().get(key); if (document == null) { break; } List valueList = (List) document.get("value"); valueList.remove(value); document.put("value", valueList); operations.multi(); operations.opsForValue().set(key, document); try { result = operations.exec(); } catch (Exception e) { } } while (result == null); return result; } }); //redisTemplate.removeFromList(getKey(id, collectionName), value); } public void incrBy(String key, long delta, long time) { redisTemplate.opsForValue().increment(key, delta); redisTemplate.expire(key, time, TimeUnit.MILLISECONDS); } } 这是我的redis工具类,请帮我获取一个上面那个list
最新发布
08-14
根据你的Redis工具类`SecondaryRedisUtils`和之前提供的数据结构(一个包含`ProcessNode`对象的List),以下是获取并解析该List的完整方案: --- ### **1. 直接使用`getListById`方法(需修正)** 你的工具类中有一个`getListById`方法,但它返回的是`List<JSONArray>`,而实际需要的是`List<ProcessNode>`。**需要修改该方法**: ```java // 修改SecondaryRedisUtils.java,新增方法: public <T> List<T> getList(String key, Class<T> clazz) { List<Object> rawList = redisTemplate.opsForList().range(key, 0, -1); List<T> result = new ArrayList<>(); if (rawList != null) { for (Object item : rawList) { // 假设存储的是JSON字符串,使用FastJSON反序列化 T obj = JSONObject.parseObject(item.toString(), clazz); result.add(obj); } } return result; } ``` **调用方式**: ```java List<ProcessNode> nodes = secondaryRedisUtils.getList( "process:" + MARKETER_TO_HUMAN_KEY + ":nodes", ProcessNode.class ); ``` --- ### **2. 使用现有`get`方法 + 手动解析** 如果不想修改工具类,可以直接用`get()`方法获取原始数据后解析: ```java Object rawData = this.secondaryRedisUtils.get("process:" + MARKETER_TO_HUMAN_KEY + ":nodes"); if (rawData != null) { // 假设存储的是JSON字符串 JSONArray jsonArray = JSONArray.parseArray(rawData.toString()); List<ProcessNode> nodes = new ArrayList<>(); for (Object item : jsonArray) { ProcessNode node = JSONObject.parseObject(item.toString(), ProcessNode.class); nodes.add(node); } // 使用nodes... } ``` --- ### **3. 处理特殊数据结构** 根据你之前提供的数据示例,Redis中存储的List可能包含类型标记(如`["java.util.ArrayList", [...]]`)。此时需要: #### **方案A:跳过类型标记** ```java Object rawData = this.secondaryRedisUtils.get("process:" + MARKETER_TO_HUMAN_KEY + ":nodes"); JSONArray rootArray = JSONArray.parseArray(rawData.toString()); JSONArray nodeArray = rootArray.getJSONArray(1); // 跳过开头的"java.util.ArrayList" List<ProcessNode> nodes = new ArrayList<>(); for (int i = 0; i < nodeArray.size(); i++) { JSONObject nodeJson = nodeArray.getJSONObject(i); ProcessNode node = new ProcessNode(); node.setId(nodeJson.getLong("id")); node.setNodeName(nodeJson.getString("nodeName")); // 处理Date字段(示例中的["java.util.Date", timestamp]) JSONArray dateArray = nodeJson.getJSONArray("createTime"); if (dateArray != null && dateArray.size() == 2) { node.setCreateTime(new Date(dateArray.getLong(1))); } nodes.add(node); } ``` #### **方案B:使用FastJSON的`@type`自动反序列化** 如果数据是FastJSON序列化的(包含`@type`字段),直接反序列化: ```java String jsonStr = this.secondaryRedisUtils.get("process:" + MARKETER_TO_HUMAN_KEY + ":nodes").toString(); List<ProcessNode> nodes = JSONObject.parseArray(jsonStr, ProcessNode.class); ``` --- ### **4. 确保RedisTemplate配置正确** 在工具类中,`RedisTemplate`的序列化配置会影响数据读取方式: - **如果使用JDK序列化**:需确保`ProcessNode`实现`Serializable`。 - **如果使用JSON序列化**:建议在Spring Boot中配置`Jackson2JsonRedisSerializer`: ```java @Configuration public class RedisConfig { @Bean("secondaryRedisTemplate") public RedisTemplate<String, Object> secondaryRedisTemplate(RedisConnectionFactory factory) { RedisTemplate<String, Object> template = new RedisTemplate<>(); template.setConnectionFactory(factory); template.setKeySerializer(new StringRedisSerializer()); template.setValueSerializer(new Jackson2JsonRedisSerializer<>(Object.class)); return template; } } ``` --- ### **5. 完整代码示例** ```java // 调用示例 List<ProcessNode> nodes = secondaryRedisUtils.getList( "process:" + MARKETER_TO_HUMAN_KEY + ":nodes", ProcessNode.class ); if (nodes != null) { for (ProcessNode node : nodes) { System.out.println("Node ID: " + node.getId() + ", Name: " + node.getNodeName()); } } ``` --- ### **关键问题排查** 1. **数据格式不匹配** - 现象:反序列化时报错(如`com.alibaba.fastjson.JSONException`)。 - 解决:用`redis-cli`检查原始数据格式,确认是JSON还是JDK序列化。 2. **类型信息丢失** - 现象:`ProcessNode`的字段为null。 - 解决:确保序列化时包含类型信息(如FastJSON的`@type`或Jackson的`DefaultTyping`)。 3. **Date字段处理** - 示例中的`["java.util.Date", 1754643776000]`需自定义反序列化逻辑(参考前文方案)。 --- ### **最终建议** - **优先修改工具类**:添加泛型方法`getList(key, clazz)`,避免重复解析代码。 - **统一序列化方式**:在Redis配置中明确使用JSON序列化(如`Jackson2JsonRedisSerializer`)。 - **日志调试**:在反序列化前打印`rawData.toString()`,确认数据结构。 ---
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值