Spring的AOP实现(7)

使用BeanPostProcessor方式实现Spring的AOP

IUserService.java

package com.qfedu.aop07;

import java.util.List;

public interface IUserService {

    /**
     * 获取所有的用户对象列表
     * @return
     */
    List<Object> getAllUser();

    /**
     * 保存用户
     * @param user
     * @return
     */
    boolean saveUser(Object user);

    /**
     * 根据用户uid删除该uid对应的用户信息
     * @param uid
     * @return
     */
    boolean deleteUser(int uid);

    /**
     * 更新指定用户信息
     * @param obj
     * @return
     */
    boolean updateUser(Object obj);


    void getUserByUid();
}

UserServiceImpl.java

package com.qfedu.aop07;

import org.springframework.stereotype.Component;

import java.util.ArrayList;
import java.util.List;

@Component("us")
public class UserServiceImpl implements IUserService {

    @Override
    public List<Object> getAllUser() {
        System.out.println("--------getAllUser----------");
        return new ArrayList<>();
    }

    @Override
    public boolean saveUser(Object user) {
        System.out.println("--------saveUser----------");
        return true;
    }

    @Override
    public boolean deleteUser(int uid) {
        System.out.println("--------deleteUser----------");
        return false;
    }

    @Override
    public boolean updateUser(Object obj) {
        System.out.println("--------updateUser----------");
        return true;
    }

    @Override
    public void getUserByUid() {
        System.out.println("--------getUserByUid----------");
        System.out.println(1 / 0);
        String str = null;
        System.out.println(str.length());
    }
}

MyAspect.java

package com.qfedu.aop07;

/**
 * 自定义切面类,分别有前置方法和后置方法
 */
public class MyAspect {

    public void before(){
        System.out.println("this is my aspect before");
    }

    public void after(){
        System.out.println("this is my aspect after");
    }
}

beans.xml

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
       xmlns:aop="http://www.springframework.org/schema/aop"
       xmlns:context="http://www.springframework.org/schema/context"
       xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
        http://www.springframework.org/schema/aop
        http://www.springframework.org/schema/aop/spring-aop.xsd
        http://www.springframework.org/schema/context
        http://www.springframework.org/schema/context/spring-context.xsd">

    <!--<bean id="us" class="com.qfedu.aop07.UserServiceImpl" />-->

    <!--
        context:component-scan上下文的组件扫描
            base-package指定要扫描的包为com.qfedu.aop07
    -->
    <context:component-scan base-package="com.qfedu.aop07" />

    <!--
       指定BeanPostProcessor的Factory hook,让每个bean对象初始化是自动回调该对象中的回调方法
    -->
    <bean class="com.qfedu.aop07.MyBeanPostProcessor" />
</beans>

MyBeanPostProcessor.java

package com.qfedu.aop07;

import org.springframework.beans.BeansException;
import org.springframework.beans.factory.config.BeanPostProcessor;

import java.lang.reflect.InvocationHandler;
import java.lang.reflect.Method;
import java.lang.reflect.Proxy;

/**
 * 配置了包扫描之后,该类会初始化两个对象EventListenerMethodProcessor和DefaultEventListenerFactory,再外加我们自己的组件对象
 *
 * 所以会发现有三个before打印
 *
 * 我还专门加了一个UserServiceImpl2,你会发现将有四个before的打印(注意看看该类上的Component注解是否启用)
 *
 */
public class MyBeanPostProcessor implements BeanPostProcessor {
    @Override
    public Object postProcessBeforeInitialization(Object bean, String beanName) throws BeansException {
        System.out.println("this is before " + bean);
        return bean;
    }

    @Override
    public Object postProcessAfterInitialization(Object bean, String beanName) throws BeansException {
        System.out.println("this is after");

        return Proxy.newProxyInstance(MyBeanPostProcessor.class.getClassLoader(), bean.getClass().getInterfaces(), new InvocationHandler() {
            @Override
            public Object invoke(Object proxy, Method method, Object[] args) throws Throwable {

                MyAspect ma = new MyAspect();

                ma.before();

                Object obj = method.invoke(bean, args);

                ma.after();

                return obj;
            }
        });
    }
}

TestAOP07.java

package com.qfedu.aop07;

import org.junit.Test;
import org.springframework.context.ApplicationContext;
import org.springframework.context.support.ClassPathXmlApplicationContext;

public class TestAOP07 {

    @Test
    public void testAOP07(){

        ApplicationContext ac = new ClassPathXmlApplicationContext("com/qfedu/aop07/beans.xml");

        IUserService us = ac.getBean("us", IUserService.class);

        us.deleteUser(1);
        us.updateUser("zhangsan");
        us.saveUser("lisi");
        us.getAllUser();
        us.getUserByUid();
    }
}

————————————————
版权声明:本文为优快云博主「zpz2001」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.youkuaiyun.com/zpz2001/article/details/104559307

"sgmediation.zip" 是一个包含 UCLA(加利福尼亚大学洛杉矶分校)开发的 sgmediation 插件的压缩包。该插件专为统计分析软件 Stata 设计,用于进行中介效应分析。在社会科学、心理学、市场营销等领域,中介效应分析是一种关键的统计方法,它帮助研究人员探究变量之间的因果关系,尤其是中间变量如何影响因变量与自变量之间的关系。Stata 是一款广泛使用的统计分析软件,具备众多命令和用户编写的程序来拓展其功能,sgmediation 插件便是其中之一。它能让用户在 Stata 中轻松开展中介效应分析,无需编写复杂代码。 下载并解压 "sgmediation.zip" 后,需将解压得到的 "sgmediation" 文件移至 Stata 的 ado 目录结构中。ado(ado 目录并非“adolescent data organization”缩写,而是 Stata 的自定义命令存放目录)目录是 Stata 存放自定义命令的地方,应将文件放置于 "ado\base\s" 子目录下。这样,Stata 启动时会自动加载该目录下的所有 ado 文件,使 "sgmediation" 命令在 Stata 命令行中可用。 使用 sgmediation 插件的步骤如下:1. 安装插件:将解压后的 "sgmediation" 文件放入 Stata 的 ado 目录。如果 Stata 安装路径是 C:\Program Files\Stata\ado\base,则需将文件复制到 C:\Program Files\Stata\ado\base\s。2. 启动 Stata:打开 Stata,确保软件已更新至最新版本,以便识别新添加的 ado 文件。3. 加载插件:启动 Stata 后,在命令行输入 ado update sgmediation,以确保插件已加载并更新至最新版本。4
《Hadoop大数据技术原理与应用》课后习题答案是一本围绕Hadoop大数据技术的基础知识问答书籍,详细介绍了Hadoop的基本概念、HDFS分布式文件系统、MapReduce分布式计算框架、Zookeeper分布式协调服务等核心知识点。 一、Hadoop基本概念 Hadoop是由Apache软件基金会维护的一个开源大数据处理框架。它分为开源社区版和商业版。社区版由Apache基金会直接维护,是官方的标准版本体系。商业版Hadoop则是由第三方商业公司在社区版基础上进行修改、整合及兼容性测试后发行的版本,例如Cloudera公司的CDH版本。 二、HDFS分布式文件系统 HDFS(Hadoop Distributed File System)是Hadoop框架中的分布式文件系统,由NameNode和DataNode组成。NameNode负责管理文件系统的元数据,DataNode则负责存储文件的实际数据。HDFS具备高可扩展性、高可靠性和高性能等特点。 三、MapReduce分布式计算框架 MapReduce是一种用于处理大规模数据的分布式计算框架,其计算过程分为Map阶段和Reduce阶段。在Map阶段,MapTask将输入数据分割成小块并执行计算任务;在Reduce阶段,ReduceTask将MapTask的输出结果进行合并,最终生成结果。 四、Zookeeper分布式协调服务 Zookeeper是一种分布式协调服务,用于管理分布式应用程序的配置信息和状态信息。它提供了分布式锁、队列、监控等功能,能够帮助开发者更便捷地构建分布式应用程序。 五、Hadoop 2.0新特性 Hadoop 2.0是Hadoop的一个新版本,相比Hadoop 1.x,它在性能和可扩展性上有显著提升。Hadoop 2.0引入了ResourceManager、NodeManager和Applicat
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值