改造
在 v3 版本中,我们使用自定义注解的方式实现了两级缓存通过 一个注解 管理的功能。本文我们换一种方式,直接通过扩展spring提供的接口来实现这个功能,在进行整合之前,我们需要简单了解一下 JSR107 缓存规范。
JSR107 规范
在 JSR107 缓存规范中定义了5个核心接口,分别是 CachingProvider , CacheManager , Cache , Entry 和 Expiry ,参考下面这张图,可以看到除了 Entry 和 Expiry 以外,从上到下都是一对多的包含关系。
从上面这张图我们可以看出,一个应用可以创建并管理多个 CachingProvider ,同样一个 CachingProvider 也可以管理多个 CacheManager ,缓存管理器 CacheManager 中则维护了多个 Cache 。
Cache 是一个类似 Map 的数据结构, Entry 就是其中存储的每一个 key-value 数据对,并且每个 Entry 都有一个过期时间 Expiry 。而我们在使用spring集成第三方的缓存时,只需要实现 Cache 和 CacheManager 这两个接口就可以了,下面分别具体来看一下。
Cache
spring中的 Cache 接口规范了缓存组件的定义,包含了缓存的各种操作,实现具体缓存操作的管理。例如我们熟悉的 RedisCache 、 EhCacheCache 等,都实现了这个接口。
在 Cache 接口中,定义了 get 、 put 、 evict 、 clear 等方法,分别对应缓存的存入、取出、删除、清空操作。不过我们这里不直接使用 Cache 接口,上面这张图中的 AbstractValueAdaptingCache 是一个抽象类,它已经实现了 Cache 接口,是spring在 Cache 接口的基础上帮助我们进行了一层封装,所以我们直接继承这个类就可以。
继承 AbstractValueAdaptingCache 抽象类后,除了创建 Cache 的构造方法外,还需要实现下面的几个方法:
// 在缓存中实际执行查找的操作,父类的get()方法会调用这个方法 protected abstract Object lookup(Object key); // 通过key获取缓存值,如果没有找到,会调用valueLoader的call()方法 public <T> T get(Object key, Callable<T> valueLoader); // 将数据放入缓存中 public void put(Object key, Object value); // 删除缓存 public void evict(Object key); // 清空缓存中所有数据 public void clear(); // 获取缓存名称,一般在CacheManager创建时指定 String getName(); // 获取实际使用的缓存 Object getNativeCache();
因为要整合 RedisTemplate 和 Caffeine 的 Cache ,所以这些都需要在缓存的构造方法中传入,除此之外构造方法中还需要再传出缓存名称 cacheName ,以及在配置文件中实际配置的一些缓存参数。先看一下构造方法的实现:
public class DoubleCache extends AbstractValueAdaptingCache {
private String cacheName;
private RedisTemplate<Object, Object> redisTemplate;
private Cache<Object, Object> caffeineCache;
private DoubleCacheConfig doubleCacheConfig;
protected DoubleCache(boolean allowNullValues) {
super(allowNullValues);
}
public DoubleCache(String cacheName,RedisTemplate<Object, Object> redisTemplate,
Cache<Object, Object> caffeineCache,
DoubleCacheConfig doubleCacheConfig){
super(doubleCacheConfig.getAllowNull());
this.cacheName=cacheName;
this.redisTemplate=redisTemplate;
this.caffeineCache=caffeineCache;
this.doubleCacheConfig=doubleCacheConfig;
}
//...
}
抽象父类的构造方法中只有一个 boolean 类型的参数 allowNullValues ,表示是否允许缓存对象为 null 。除此之外, AbstractValueAdaptingCache 中还定义了两个包装方法来配合这个参数进行使用,分别是 toStoreValue 和 fromStoreValue ,特殊用途是用于在缓存 null 对象时进行包装、以及在获取时进行解析并返回。
我们之后会在 CacheManager 中调用后面这个自己实现的构造方法,来实例化 Cache 对象,参数中 DoubleCacheConfig 是使用 @ConfigurationProperties 读取的yml配置文件封装的数据对象,会在后面使用。
当一个方法添加了 @Cacheable 注解时,执行时会先调用父类 AbstractValueAdaptingCache 中的 get(key) 方法,它会再调用我们自己实现的 lookup 方法。在实际执行查找操作的 lookup 方法中,我们的逻辑仍然是先查找 Caffeine 、没有找到时再查找 Redis :
@Override
protected Object lookup(Object key) {
// 先从caffeine中查找
Object obj = caffeineCache.getIfPresent(key);
if (Objects.nonNull(obj)){
log.info("get data from caffeine");
return obj;
}
//再从redis中查找
String redisKey=this.name+":"+ key;
obj = redisTemplate.opsForValue().get(redisKey);
if (Objects.nonNull(obj)){
log.info("get data from redis");
caffeineCache.put(key,obj);
}
return obj;
}
如果 lookup 方法的返回结果不为 null ,那么就会直接返回结果给调用方。如果返回为 null 时,就会执行原方法,执行完成后调用 put 方法,将数据放入缓存中。接下来我们实现 put 方法:
@Override
public void put(Object key, Object value) {
if(!isAllowNullValues() && Objects.isNull(value)){
log.error("the value NULL will not be cached");
return;
}
//使用 toStoreValue(value) 包装,解决caffeine不能存null的问题
caffeineCache.put(key,toStoreValue(value));
// null对象只存在caffeine中一份就够了,不用存redis了
if (Objects.isNull(value))
return;
String redisKey=this.cacheName +":"+ key;
Optional<Long> expireOpt = Optional.ofNullable(doubleCacheConfig)
.map(DoubleCacheConfig::getRedisExpire);
if (expireOpt.isPresent()){
redisTemplate.opsForValue().set(redisKey,toStoreValue(value),
expireOpt.get(), TimeUnit.SECONDS);
}else{
redisTemplate.opsForValue().set(redisKey,toStoreValue(value));
}
}
上面我们对于是否允许缓存空对象进行了判断,能够缓存空对象的好处之一就是可以避免 缓存穿透 。需要注意的是, Caffeine 中是不能直接缓存 null 的,因此可以使用父类提供的 toStoreValue() 方法,将它包装成一个 NullValue 类型。在取出对象时,如果是 NullValue ,也不用我们自己再去调用 fromStoreValue() 将这个包装类型还原,父类的 get 方法中已经帮我们做好了。
另外,上面在 put 方法中缓存空对象时,只在 Caffeine 缓存中一份即可,可以不用在 Redis 中再存一份。
缓存的删除方法 evict() 和清空方法 clear() 的实现就比较简单了,直接删除一跳或全部数据即可:
@Override
public void evict(Object key) {
redisTemplate.delete(this.cacheName +":"+ key);
caffeineCache.invalidate(key);
}
@Override
public void clear() {
Set<Object> keys = redisTemplate.keys(this.cacheName.concat(":*"));
for (Object key : keys) {
redisTemplate.delete(String.valueOf(key));
}
caffeineCache.invalidateAll();
}
获取缓存 cacheName 和实际缓存的方法实现:
@Override
public String getName() {
return this.cacheName;
}
@Override
public Object getNativeCache() {
return this;
}
最后,我们再来看一下带有两个参数的 get 方法,为什么把这个方法放到最后来说呢,因为如果我们只是使用注解来管理缓存的话,那么这个方法不会被调用到,简单看一下实现:
@Override
public <T> T get(Object key, Callable<T> valueLoader) {
ReentrantLock lock=new ReentrantLock();
try{
lock.lock();//加锁
Object obj = lookup(key);
if (Objects.nonNull(obj)){
return (T)obj;
}
//没有找到
obj = valueLoader.call();
put(key,obj);//放入缓存
return (T)obj;
}catch (Exception e){
log.error(e.getMessage());
}finally {
lock.unlock();
}
return null;
}
方法的实现比较容易理解,还是先调用 lookup 方法寻找是否已经缓存了对象,如果没有找到那么就调用 Callable 中的 call 方法进行获取,并在获取完成后存入到缓存中去。至于这个方法如何使用,具体代码我们放在后面使用这一块再看。
需要注意的是,这个方法的接口注释中强调了需要我们自己来保证方法同步,因此这里使用了 ReentrantLock 进行了加锁操作。到这里, Cache 的实现就完成了,下面我们接着看另一个重要的接口 CacheManager 。
CacheManager
从名字就可以看出, CacheManager 是一个缓存管理器,它可以被用来管理一组 Cache 。在上一篇文章的v2版本中,我们使用的 CaffeineCacheManager 就实现了这个接口,除此之外还有 RedisCacheManager 、 EhCacheCacheManager 等也都是通过这个接口实现。
下面我们要自定义一个类实现 CacheManager 接口,管理上面实现的 DoubleCache 作为spring中的缓存使用。接口中需要实现的方法只有下面两个:
//根据cacheName获取Cache实例,不存在时进行创建 Cache getCache(String name); //返回管理的所有cacheName Collection<String> getCacheNames();
在自定义的缓存管理器中,我们要使用 ConcurrentHashMap 维护一组不同的 Cache ,再定义一个构造方法,在参数中传入已经在spring中配置好的 RedisTemplate ,以及相关的缓存配置参数:
public class DoubleCacheManager implements CacheManager {
Map<String, Cache> cacheMap = new ConcurrentHashMap<>();
private RedisTemplate<Object, Object> redisTemplate;
private DoubleCacheConfig dcConfig;
public DoubleCacheManager(RedisTemplate<Object, Object> redisTemplate,
DoubleCacheConfig doubleCacheConfig) {
this.redisTemplate = redisTemplate;
this.dcConfig = doubleCacheConfig;
}
//...
}
然后实现 getCache 方法,逻辑很简单,先根据 name 从 Map 中查找对应的 Cache ,如果找到则直接返回,这个参数 name 就是上一篇文章中提到的 cacheName , CacheManager 根据它实现不同 Cache 的隔离。
如果没有根据名称找到缓存的话,那么新建一个 DoubleCache 对象,并放入 Map 中。这里使用的 ConcurrentHashMap 的 putIfAbsent() 方法放入,避免重复创建 Cache 以及造成 Cache 内数据的丢失。具体代码如下:
@Override
public Cache getCache(String name) {
Cache cache = cacheMap.get(name);
if (Objects.nonNull(cache)) {
return cache;
}
cache = new DoubleCache(name, redisTemplate, createCaffeineCache(), dcConfig);
Cache oldCache = cacheMap.putIfAbsent(name, cache);
return oldCache == null ? cache : oldCache;
}
在上面创建 DoubleCache 对象的过程中,需要先创建一个 Caffeine 的 Cache 对象作为参数传入,这一过程主要是根据实际项目的配置文件中的具体参数进行初始化,代码如下:
private com.github.benmanes.caffeine.cache.Cache createCaffeineCache(){
Caffeine<Object, Object> caffeineBuilder = Caffeine.newBuilder();
Optional<DoubleCacheConfig> dcConfigOpt = Optional.ofNullable(this.dcConfig);
dcConfigOpt.map(DoubleCacheConfig::getInit)
.ifPresent(init->caffeineBuilder.initialCapacity(init));
dcConfigOpt.map(DoubleCacheConfig::getMax)
.ifPresent(max->caffeineBuilder.maximumSize(max));
dcConfigOpt.map(DoubleCacheConfig::getExpireAfterWrite)
.ifPresent(eaw->caffeineBuilder.expireAfterWrite(eaw,TimeUnit.SECONDS));
dcConfigOpt.map(DoubleCacheConfig::getExpireAfterAccess)
.ifPresent(eaa->caffeineBuilder.expireAfterAccess(eaa,TimeUnit.SECONDS));
dcConfigOpt.map(DoubleCacheConfig::getRefreshAfterWrite)
.ifPresent(raw->caffeineBuilder.refreshAfterWrite(raw,TimeUnit.SECONDS));
return caffeineBuilder.build();
}
getCacheNames 方法很简单,直接返回 Map 的 keySet 就可以了,代码如下:
@Override
public Collection<String> getCacheNames() {
return cacheMap.keySet();
}
配置&使用
在 application.yml 文件中配置缓存的参数,代码中使用 @ConfigurationProperties 接收到 DoubleCacheConfig 类中:
doublecache: allowNull: true init: 128 max: 1024 expireAfterWrite: 30 #Caffeine过期时间 redisExpire: 60 #Redis缓存过期时间
配置自定义的 DoubleCacheManager 作为默认的缓存管理器:
@Configuration
public class CacheConfig {
@Autowired
DoubleCacheConfig doubleCacheConfig;
@Bean
public DoubleCacheManager cacheManager(RedisTemplate<Object,Object> redisTemplate,
DoubleCacheConfig doubleCacheConfig){
return new DoubleCacheManager(redisTemplate,doubleCacheConfig);
}
}
Service 中的代码还是老样子,不需要在代码中手动操作缓存,只要直接在方法上使用 @Cache 相关注解即可:
@Service @Slf4j
@AllArgsConstructor
public class OrderServiceImpl implements OrderService {
private final OrderMapper orderMapper;
@Cacheable(value = "order",key = "#id")
public Order getOrderById(Long id) {
Order myOrder = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
.eq(Order::getId, id));
return myOrder;
}
@CachePut(cacheNames = "order",key = "#order.id")
public Order updateOrder(Order order) {
orderMapper.updateById(order);
return order;
}
@CacheEvict(cacheNames = "order",key = "#id")
public void deleteOrder(Long id) {
orderMapper.deleteById(id);
}
//没有注解,使用get(key,callable)方法
public Order getOrderById2(Long id) {
DoubleCacheManager cacheManager = SpringContextUtil.getBean(DoubleCacheManager.class);
Cache cache = cacheManager.getCache("order");
Order order =(Order) cache.get(id, (Callable<Object>) () -> {
log.info("get data from database");
Order myOrder = orderMapper.selectOne(new LambdaQueryWrapper<Order>()
.eq(Order::getId, id));
return myOrder;
});
return order;
}
}
注意最后这个没有添加任何注解的方法,只有以这种方式调用时才会执行我们在 DoubleCache 中自己实现的 get(key,callable) 方法。到这里,基于 JSR107 规范和spring接口的两级缓存改造就完成了,下面我们看一下遗漏的第二个问题。
分布式环境改造
前面我们说了,在分布式环境下,可能会存在各个主机上一级缓存不一致的问题。当一台主机修改了本地缓存后,其他主机是没有感知的,仍然保持了之前的缓存,那么这种情况下就可能取到脏数据。既然我们在项目中已经使用了 Redis ,那么就可以使用它的发布/订阅功能来使各个节点的缓存进行同步。
定义消息体
在使用 Redis 发送消息前,需要先定义一个消息对象。其中的数据包括消息要作用于的 Cache 名称、操作类型、数据以及发出消息的源主机标识:
@Data
@NoArgsConstructor
@AllArgsConstructor
public class CacheMassage implements Serializable {
private static final long serialVersionUID = -3574997636829868400L;
private String cacheName;
private CacheMsgType type; //标识更新或删除操作
private Object key;
private Object value;
private String msgSource; //源主机标识,用来避免重复操作
}
定义一个枚举来标识消息的类型,是要进行更新还是删除操作:
public enum CacheMsgType {
UPDATE,
DELETE;
}
消息体中的 msgSource 是添加的一个消息源主机的标识,添加这个是为了避免收到当前主机发送的消息后,再进行重复操作,也就是说收到本机发出的消息直接丢掉什么都不做就可以了。源主机标识这里使用的是主机ip加项目端口的方式,获取方法如下:
public static String getMsgSource() throws UnknownHostException {
String host = InetAddress.getLocalHost().getHostAddress();
Environment env = SpringContextUtil.getBean(Environment.class);
String port = env.getProperty("server.port");
return host+":"+port;
}
这样消息体的定义就完成了,之后只要调用 redisTemplate 的 convertAndSend 方法就可以把这个对象发布到指定的主题上了。
Redis消息配置
要使用 Redis 的消息监听功能,需要配置两项内容:
MessageListenerAdapter RedisMessageListenerContainer
@Configuration
public class MessageConfig {
public static final String TOPIC="cache.msg";
@Bean
RedisMessageListenerContainer container(MessageListenerAdapter listenerAdapter,
RedisConnectionFactory redisConnectionFactory){
RedisMessageListenerContainer container = new RedisMessageListenerContainer();
container.setConnectionFactory(redisConnectionFactory);
container.addMessageListener(listenerAdapter, new PatternTopic(TOPIC));
return container;
}
@Bean
MessageListenerAdapter adapter(RedisMessageReceiver receiver){
return new MessageListenerAdapter(receiver,"receive");
}
}
在上面的监听适配器 MessageListenerAdapter 中,我们传入了一个自定义的 RedisMessageReceiver 接收并处理消息,并指定使用它的 receive 方法来处理监听到的消息,下面我们就来看看它如何接收消息并消费。
消息消费逻辑
定义一个类 RedisMessageReceiver 来接收并消费消息,需要在它的方法中实现以下功能:
- 反序列化接收到的消息,转换为前面定义的
CacheMassage类型对象 - 根据消息的主机标识判断这条消息是不是本机发出的,如果是那么直接丢弃,只有接收到其他主机发出的消息才进行处理
- 使用
cacheName得到具体使用的那一个DoubleCache实例 - 根据消息的类型判断要执行的是更新还是删除操作,调用对应的方法
@Slf4j @Component
@AllArgsConstructor
public class RedisMessageReceiver {
private final RedisTemplate redisTemplate;
private final DoubleCacheManager manager;
//接收通知,进行处理
public void receive(String message) throws UnknownHostException {
CacheMassage msg = (CacheMassage) redisTemplate
.getValueSerializer().deserialize(message.getBytes());
log.info(msg.toString());
//如果是本机发出的消息,那么不进行处理
if (msg.getMsgSource().equals(MessageSourceUtil.getMsgSource())){
log.info("收到本机发出的消息,不做处理");
return;
}
DoubleCache cache = (DoubleCache) manager.getCache(msg.getCacheName());
if (msg.getType()== CacheMsgType.UPDATE) {
cache.updateL1Cache(msg.getKey(),msg.getValue());
log.info("更新本地缓存");
}
if (msg.getType()== CacheMsgType.DELETE) {
log.info("删除本地缓存");
cache.evictL1Cache(msg.getKey());
}
}
}
在上面的代码中,调用了 DoubleCache 中更新一级缓存方法 updateL1Cache 、删除一级缓存方法 evictL1Cache ,我们会后面在 DoubleCache 中进行添加。
修改DoubleCache
在 DoubleCache 中先添加上面提到的两个方法,由 CacheManager 获取到具体缓存后调用,进行一级缓存的更新或删除操作:
// 更新一级缓存
public void updateL1Cache(Object key,Object value){
caffeineCache.put(key,value);
}
// 删除一级缓存
public void evictL1Cache(Object key){
caffeineCache.invalidate(key);
}
好了,完事具备只欠东风,我们要在什么场合发送消息呢?答案是在 DoubleCache 中存入缓存的 put 方法和移除缓存的 evict 方法中。首先修改 put 方法,方法中前面的逻辑不变,在最后添加发送消息通知其他节点更新一级缓存的逻辑:
public void put(Object key, Object value) {
// 省略前面的不变代码...
//发送信息通知其他节点更新一级缓存
CacheMassage cacheMassage
= new CacheMassage(this.cacheName, CacheMsgType.UPDATE,
key,value, MessageSourceUtil.getMsgSource());
redisTemplate.convertAndSend(MessageConfig.TOPIC,cacheMassage);
}
然后修改 evict 方法,同样保持前面的逻辑不变,在最后添加发送消息的代码:
public void evict(Object key) {
// 省略前面的不变代码...
//发送信息通知其他节点删除一级缓存
CacheMassage cacheMassage
= new CacheMassage(this.cacheName, CacheMsgType.DELETE,
key,null, MessageSourceUtil.getMsgSource());
redisTemplate.convertAndSend(MessageConfig.TOPIC,cacheMassage);
}
适配分布式环境的改造工作到此结束,下面进行一下简单的测试工作。
测试
我们可以用 idea 的 Allow parallel run 功能同时启动两个一样的springboot项目,来模拟分布式环境下的两台主机,注意在启动参数中添加 -Dserver.port 参数来启动到不同端口。
首先测试更新操作,使用接口修改某一个主机的本地缓存,可以看到发出消息的主机在收到消息后,直接丢弃不做任何处理:

查看另一台主机的日志,收到消息并更新了本地缓存:
再看一下缓存的删除情况,同样本地删除后再收到消息不做处理:
看另一台主机收到消息后,会删除本地的一级缓存:
可以看到,分布式环境下本地缓存通过 Redis 消息的发布订阅机制保证了一级缓存的一致性。
另外,如果更加严谨一些的话,其实还应该处理一下缓存更新失败的情况,这里留个坑以后再填。简单说一下思路,我们应该在代码中捕获缓存更新失败的异常,然后删除二级缓存、本机以及其他主机的一级缓存,再等待下一次访问时直接拉取最新的数据进行缓存。同样,要想实现缓存失效同时作用于所有单机节点的本地缓存这一功能,也可以使用上面的发布订阅来实现。
总结
好了,这次缝缝补补的填坑之旅到这里就要结束了。可以看到使用基于 JSR107 规范的spring接口进行修改后,代码看起来舒服了很多,并且支持直接使用spring的 @Cache 相关注解。如果想在项目中使用的话,自己封装一个简单的 starter 就可以了,使用起来也非常简单。
那么,这次的分享就到这里,我是Hydra,下篇文章再见。
本文及上一篇文章的示例代码已合并上传到了Hydra的 Github 上,依旧可以自取~
Git地址:

文章介绍了如何通过扩展Spring接口来实现基于Caffeine和Redis的两级缓存功能。首先,文章讲解了JSR107缓存规范,然后详细阐述了如何改造Spring的Cache和CacheManager接口,以及配置和使用。在分布式环境改造部分,通过Redis的消息发布/订阅功能确保各主机间一级缓存的一致性。文章提供了详细的改造步骤和测试,确保了缓存更新和删除操作在分布式环境中的正确性。
9170

被折叠的 条评论
为什么被折叠?



