背景
想要实现一个单机应用,就是普通的浏览量功能实现,如果同一个ip地址点击的文章多次的话,只能算是一次点击,因为是分布式,所以不想安装Redis服务。
EhCache 是一个纯Java的进程内缓存框架,具有快速、精干等特点,是Hibernate中默认的CacheProvider。
所以自己实现了一个使用缓存添加浏览量的功能,减少服务器的负担,要经常操作数据库。
前提条件
- 添加依赖 版本2.6.11用这个,较高版本在删掉了一些方法,高版本未实现
<!-- ehcache缓存 -->
<dependency>
<groupId>net.sf.ehcache</groupId>
<artifactId>ehcache-core</artifactId>
<version>2.6.11</version>
</dependency>
</dependencies>
- 在resources包下添加ehcache.xml 相关配置说明可以百度
<?xml version="1.0" encoding="UTF-8"?>
<ehcache updateCheck="false" dynamicConfig="false">
<diskStore path="java.io.tmpdir"/>
<!--日点击量缓存-->
<cache name="dayHits" maxEntriesLocalHeap="500" eternal="true" overflowToDisk="true">
</cache>
</ehcache>
- 修改application.yml文件
# 缓存
spring:
cache:
ehcache:
config: ehcache.xml
controller
ApiResponse 只是我自定义返回的一个实体对象
/**
* @description: 文章控制类
* @author: yuxiang
* @create: 2019-11-30 15:34
**/
@RequestMapping("/article")
@RestController
public class ArticleController {
@Autowired
private ArticleService articleService;
//缓存
private static CacheManager cacheManager = CacheManager.newInstance();
private static Long viewArticleTime = System.currentTimeMillis();
/**
* 增加浏览量
* @param id
* @return
*/
@PostMapping("visitCount")
public ApiResponse visitCount(@RequestParam("id")String id, HttpServletRequest request){
ApiResponse response = new ApiResponse();
try {
Integer count = cacheCount(id, IpUtil.getIpAddr(request));
response.setMsg("浏览量添加成功");
response.setObj(count);
}catch (Exception e){
e.printStackTrace();
return new ApiResponse<>(-1,"服务器错误,添加浏览量失败");
}
return response;
}
/**
* 缓存点击量方法
* @param articleId
* @return
*/
public Integer cacheCount(String articleId,String Ip){
ArticleEntity articleEntity = articleService.findById(articleId);
//查询缓存
Ehcache cache = cacheManager.getEhcache("dayHits");
Element element = cache.get(Ip+articleId+"_count");
Integer count = 0;
if(element!=null){
//如果缓存存在,则不增加count
count = (Integer) element.getValue();
}else{
count = articleEntity.getVisitCount()== null?0:articleEntity.getVisitCount();
count++;
cache.put(new Element(Ip+articleId+"_count",count));
}
cache.put(new Element(Ip+articleId+"_dayHitsDate",new SimpleDateFormat("yyyy-MM-dd").format(TimeUtil.getDayZero())));
System.out.println("==========================>>>"+new SimpleDateFormat("yyyy-MM-dd").format(TimeUtil.getDayZero()));
//超过有效时间更新数据库
Long time = System.currentTimeMillis();
if(time > (viewArticleTime+ 300000)){
viewArticleTime = time;
articleEntity.setVisitCount(count);
articleService.saveArticle(articleEntity);
cache.removeAll();
}
return count;
}
}
工具类
重要:获取ip地址工具类
/**
* @description: ip工具类
* @author: yuxiang
* @create: 2019-12-01 17:57
**/
public class IpUtil {
public static String getIpAddr(HttpServletRequest request){
String ipAddress = null;
try {
ipAddress = request.getHeader("x-forwarded-for");
if (ipAddress == null || ipAddress.length() == 0 || "unknown".equalsIgnoreCase(ipAddress)) {
ipAddress = request.getHeader("Proxy-Client-IP");
}
if (ipAddress == null || ipAddress.length() == 0 || "unknown".equalsIgnoreCase(ipAddress)) {
ipAddress = request.getHeader("WL-Proxy-Client-IP");
}
if (ipAddress == null || ipAddress.length() == 0 || "unknown".equalsIgnoreCase(ipAddress)) {
ipAddress = request.getRemoteAddr();
if (ipAddress.equals("127.0.0.1")) {
// 根据网卡取本机配置的IP
InetAddress inet = null;
try {
inet = InetAddress.getLocalHost();
} catch (UnknownHostException e) {
e.printStackTrace();
}
ipAddress = inet.getHostAddress();
}
}
// 对于通过多个代理的情况,第一个IP为客户端真实IP,多个IP按照','分割
if (ipAddress != null && ipAddress.length() > 15) { // "***.***.***.***".length()
// = 15
if (ipAddress.indexOf(",") > 0) {
ipAddress = ipAddress.substring(0, ipAddress.indexOf(","));
}
}
} catch (Exception e) {
ipAddress="";
}
// ipAddress = this.getRequest().getRemoteAddr();
return ipAddress;
}
}
/**
* @Description 时间工具类
* @Author yuxiang
* @CreatedDate 2019/7/27 18:58
*/
public class TimeUtil {
/**
* 返回今天零点
* @return
*/
public static Long getDayZero() {
Calendar calendar = Calendar.getInstance();
Long zero = calendar.getTime().getTime() / (1000 * 3600 * 24) * (1000 * 3600 * 24) - TimeZone.getDefault().getRawOffset();
return zero;
}
/**
* 根据截至时间戳返回今天零点
* @return
*/
public static Long getDayZero(Long endTime) {
Calendar calendar = Calendar.getInstance();
calendar.setTimeInMillis(endTime);
Long zero = calendar.getTime().getTime() / (1000 * 3600 * 24) * (1000 * 3600 * 24) - TimeZone.getDefault().getRawOffset();
return zero;
}
/**
* 获取当前时间
* @return
*/
public static Long getCurrent() {
Calendar calendar = Calendar.getInstance();
Long zero = calendar.getTime().getTime();
return zero;
}
}
参考
springboot+EHcache 实现文章浏览量的缓存和超时更新
还是存在一些bug吧,这个能达到一天之内重复ip点击同一文章算一次点击,有时间再修改一下逻辑过来,对ehcache不是很熟悉,如果用注解的话,又达不到Redis根据key获取值的效果。

本文介绍如何利用EhCache缓存框架优化单机应用中的文章浏览量统计功能,避免重复计数同一IP地址的多次点击,并减少数据库操作,提升服务器效率。
2万+

被折叠的 条评论
为什么被折叠?



