AOP

AOP(面向切面编程)是OOP的补充,通过预编译和动态代理实现程序功能隔离,降低耦合度。AOP关注业务逻辑的特定步骤,提供事务处理、权限判断、日志等功能。核心原理是动态代理在方法执行前后插入逻辑处理。Spring AOP通常使用AspectJ实现,包括前置、后置、环绕、异常和最终通知五种通知类型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

AOP

AOP为面向切面编程,它通过预编译和运行期间动态代理的方式实现程序功能的.

他可以对业务逻辑中的各个部分实现隔离,目的是为了降低业务逻辑的耦合度,提高程序的复用性,当然也就提高了开发的效率.

AOP和OOP(面向对象编程)的区别:

OOP是针对业务逻辑及其对象的属性和行为的封装.目的是为了获取较为清晰的逻辑单元划分.

AOP是针对业务逻辑中的切面提取,它所面对的是业务逻辑中的某个步骤或阶段,以获取逻辑过程中各部分之间降低耦合度的隔离效果.

这俩种设计思想在目标上有着本质的差异

注意:注意的是AOP是OOP的一种补充.

AOP的好处:

减少重复性代码,使得程序员更加专注于业务.

核心原理:

使用动态代理的方式在方法执行前后或者出现异常时加入相关的逻辑处理.

使用案例:

事务处理:开启事务,关闭事务,出现异常后回滚事务

权限判断:在执行方法前,判断是否具有权限

日志:在执行前进行日志处理

在这里插入图片描述

AOP的基本概念:

连接点:

类中可以被增强的方法,方法就被称为连接点

切入点:

实际上可以被增强的代码

通知:

连接点上要增强的功能.

切面:

把通知添加到切入点的过程

目标:

代理的目标对象(要增强的类)

代理:

向目标对象应用通知后创建的代理对象

Spring AOP实现:

在Spring中使用AOP时,一般使用AspectJ 的实现方式.

AspectJ是一个优秀的面向切面的框架,它扩展了java语言,提供了强大的切面实现.

AspectJ 中常用的通知有五种类型:

前置通知,后置通知,环绕通知,异常通知,最终通知

基于 aspectj 的 xml 配置:

相关的jar:

<dependency>
    <groupId>org.springframework</groupId> 
    <artifactId>spring-aspects</artifactId> 
    <version>5.2.2.RELEASE</version> 
</dependency>

基于 aspectj 的 xml 配置实现

将装有增强功能的类交由 spring 管理.

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
       xmlns:context="http://www.springframework.org/schema/context"
       xmlns:aop="http://www.springframework.org/schema/aop"
       xsi:schemaLocation="http://www.springframework.org/schema/beans
        https://www.springframework.org/schema/beans/spring-beans.xsd
        http://www.springframework.org/schema/context
        http://www.springframework.org/schema/context/spring-context.xsd
        http://www.springframework.org/schema/aop
        http://www.springframework.org/schema/aop/spring-aop.xsd">
    <!--把装有通知的类交给Spring管理-->
    <bean id="aop" class="com.ff.spring.demo1.aop.AOP"></bean>

    <!--配置切入点和通知-->
    <aop:config>
        <!--配置切入点-->
        <aop:pointcut id="save" expression="execution(* com.ff.spring.demo1.dao.UserDao.save(..))"/>

        <!--配置通知-->
        <aop:aspect ref="aop">
        		<!--方法执行前-->
            <!--<aop:before method="doLog" pointcut-ref="save"></aop:before>-->
                <!--执行后执行-->
            <!--<aop:after method="doLog" pointcut-ref="save"> </aop:after>-->
                <!--方法执行前,执行后执行-->
            <!--<aop:around method="around" pointcut-ref="save"></aop:around>-->
            <!--异常通知 出现异常后 执行-->
            <aop:after-throwing method="throwable" pointcut-ref="save" throwing="throwable"></aop:after-throwing>
            <!--返回通知 执行return后 执行-->
            <aop:after-returning method="doLog" pointcut-ref="save"></aop:after-returning>
        </aop:aspect>

    </aop:config>
</beans>

相关的类:

package com.ff.spring.demo1.aop;

import org.aspectj.lang.ProceedingJoinPoint;

public class AOP {

    /*
    通知:连接点上要增强的功能
        通知时间点:前置通知(方法执行前)  后置通知,环绕通知,异常通知,最终通知(return 后执行)
     */
    public void doLog(){
        System.out.println("保存日志");
    }
    public void around(ProceedingJoinPoint proceedingJoinPoint) throws Throwable {
        System.out.println("开启事务");
        proceedingJoinPoint.proceed(); //调用自己的方法
        System.out.println("提交事务");
    }

    public void throwable(Throwable throwable){
        System.out.println("出异常了"+throwable.getMessage());
    }
}

package com.ff.spring.demo1.dao;

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.jdbc.core.JdbcTemplate;
import org.springframework.stereotype.Repository;

import java.util.Date;

@Repository(value = "userDao")
//目标
public class UserDao {
    @Autowired
    JdbcTemplate jdbcTemplate;

    //连接点:可以被增强的方法
    //切入点:实际被增强的方法
    //
    public void save(){
        System.out.println("保存用户");
    }
}

@Autowired
JdbcTemplate jdbcTemplate;

//连接点:可以被增强的方法
//切入点:实际被增强的方法
//
public void save(){
    System.out.println("保存用户");
}

}


内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装和配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置、Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置、配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装和配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装与配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值