认识Druid

* 认识

       之前对druid的片面认识主要是两个功能,一个是sql监控,一个是对数据库密码进行加密。这两块的认识也是在项目中“感受”到的,其实druid的功能和强大之处不局限于此,感兴趣可以了解。

       Druid是阿里的一个产品,在阿里已经部署了超过600个应用,是目前比较流行的高性能的,分布式列存储的OLAP框架(具体来说是MOLAP)。

       认识Druid的话,首先它是一个数据库连接池,包括四部分:JDBC组件,基于filter-chain的插件体系,DataSource,sqlParse。

       之后了解的druid的功能还有:sql执行日志,Druid提供了不同的LogFilter,能够支持Common-Logging、Log4j和JdkLog,你可以按需要选择相应的LogFilter,监控你应用的数据库访问情况。扩展JDBC,如果你要对JDBC层有编程的需求,可以通过Druid提供的Filter机制,很方便编写JDBC层的扩展插件,下文会给大家分享druid中通过过滤器,对sql语句进行加工。


* 监控+加密

       我们更关心的是sql语句的执行时间,配置druid后,有可视化的页面进行监控:如下操作
在这里插入图片描述

       开发中,我们也会在连接数据库时对密码进行加密,加密使用的是druid-1.1.9.jar,对明文加密后会生成三对键值对,分别是publicKey,privateKey,密文。公钥需要我们配置,以供解密,同时需要增加配置,在datasource中:

<property name="filters" value="stat,config"/>

* 连接池

       这里附上druid配置的属性图,同时对于连接池的内容,我们需要了解几个概念JNDI,数据源,JDBC,还有其他的连接池的对比,这些内容正在学习,后续会有追加。

配置缺省值说明
name配置这个属性的意义在于,如果存在多个数据源,监控的时候 可以通过名字来区分开来。如果没有配置,将会生成一个名字, 格式是:“DataSource-” + System.identityHashCode(this)
jdbcUrl连接数据库的url,不同数据库不一样。例如: mysql : jdbc:mysql://10.20.153.104:3306/druid2 oracle : jdbc:oracle:thin:@10.20.149.85:1521:ocnauto
username连接数据库的用户名
password连接数据库的密码。如果你不希望密码直接写在配置文件中, 可以使用ConfigFilter
driverClassName根据url自动识别 这一项可配可不配,如果不配置druid会根据url自动识别dbType,然后选择相应的driverClassName
initialSize0初始化时建立物理连接的个数。初始化发生在显示调用init方法,或者第一次getConnection时
maxActive8最大连接池数量
maxIdle8已经不再使用,配置了也没效果
minIdle最小连接池数量
maxWait获取连接时最大等待时间,单位毫秒。配置了maxWait之后,缺省启用公平锁,并发效率会有所下降,如果需要可以通过配置useUnfairLock属性为true使用非公平锁。
poolPreparedStatementsfalse是否缓存preparedStatement,也就是PSCache。 PSCache对支持游标的数据库性能提升巨大,比如说oracle。 在mysql5.5以下的版本中没有PSCache功能,建议关闭掉。作者在5.5版本中使用PSCache,通过监控界面发现PSCache有缓存命中率记录, 该应该是支持PSCache。
maxOpenPreparedStatements-1要启用PSCache,必须配置大于0,当大于0时, poolPreparedStatements自动触发修改为true。 在Druid中,不会存在Oracle下PSCache占用内存过多的问题, 可以把这个数值配置大一些,比如说100
validationQuery用来检测连接是否有效的sql,要求是一个查询语句。 如果validationQuery为null,testOnBorrow、testOnReturn、 testWhileIdle都不会其作用。
testOnBorrowtrue申请连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能。
testOnReturnfalse归还连接时执行validationQuery检测连接是否有效,做了这个配置会降低性能
testWhileIdletrue建议配置为true,不影响性能,并且保证安全性。 申请连接的时候检测,如果空闲时间大于 timeBetweenEvictionRunsMillis, 执行validationQuery检测连接是否有效。
timeBetweenEvictionRunsMillis有两个含义: 1) Destroy线程会检测连接的间隔时间 2) testWhileIdle的判断依据,详细看testWhileIdle属性的说明
numTestsPerEvictionRun不再使用,一个DruidDataSource只支持一个EvictionRun
connectionInitSqls物理连接初始化的时候执行的sql
exceptionSorter根据dbType自动识别当数据库抛出一些不可恢复的异常时,抛弃连接
filters属性类型是字符串,通过别名的方式配置扩展插件, 常用的插件有: 监控统计用的filter:stat 日志用的filter:log4j 防御sql注入的filter:wall
proxyFilters类型是List<com.alibaba.druid.filter.Filter>, 如果同时配置了filters和proxyFilters, 是组合关系,并非替换关系

       详细的信息请查阅:https://github.com/alibaba/druid/wiki/使用ConfigFilter


* 过滤器

       因为我们项目中使用使用了数据库的中间件mycat,通过mycat去连接不同的数据库,这时我们的sql语句就需要改变了,在sql前增加一段注释:"/* !mycat:schema = " + schema + " */ " +sql ,因此我们做了一些改造,对插件进行扩展,增加过滤器类,同时在filter中指定配置。

       配置类如下,集成wallFilter,我们想到这个过滤器会对sql注入做一些拦截,因此我们可以在这个地方“做手脚”,code如下:

public class DruidMycatFilter extends WallFilter implements Filter {
    /**
     * 可增加myCat注解,用于分库分表
     *
     * @param sql 原始sql
     * @return 返回值
     * @throws SQLException 异常
     */
    @Override
    public String check(String sql) throws SQLException {
        if (TenancyContext.TenancyID.get()!=null){
            String schema = TenancyContext.TenancyID.get();
            String schemaSql = "/* !mycat:schema = " + schema + " */ ";
            sql=sql.startsWith(schemaSql) ? sql : schemaSql + sql;
        }
        return sql;
    }

    @Override
    public boolean preparedStatement_execute(FilterChain chain, PreparedStatementProxy statement) throws SQLException {
        return chain.preparedStatement_execute(statement);
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection, String sql)
            throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection,
                                                              String sql, int autoGeneratedKeys) throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql, autoGeneratedKeys);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection,
                                                              String sql, int resultSetType, int resultSetConcurrency)
            throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql, resultSetType,
                resultSetConcurrency);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection,
                                                              String sql, int resultSetType, int resultSetConcurrency,
                                                              int resultSetHoldability) throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql, resultSetType,
                resultSetConcurrency, resultSetHoldability);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection,
                                                              String sql, int[] columnIndexes) throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql, columnIndexes);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public PreparedStatementProxy connection_prepareStatement(FilterChain chain, ConnectionProxy connection,
                                                              String sql, String[] columnNames) throws SQLException {
        sql = check(sql);
        PreparedStatementProxy stmt = chain.connection_prepareStatement(connection, sql, columnNames);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public CallableStatementProxy connection_prepareCall(FilterChain chain, ConnectionProxy connection, String sql)
            throws SQLException {
        sql = check(sql);
        CallableStatementProxy stmt = chain.connection_prepareCall(connection, sql);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public CallableStatementProxy connection_prepareCall(FilterChain chain, ConnectionProxy connection, String sql,
                                                         int resultSetType, int resultSetConcurrency)
            throws SQLException {
        sql = check(sql);
        CallableStatementProxy stmt = chain.connection_prepareCall(connection, sql, resultSetType,
                resultSetConcurrency);
        setSqlStatAttribute(stmt);
        return stmt;
    }

    @Override
    public CallableStatementProxy connection_prepareCall(FilterChain chain, ConnectionProxy connection, String sql,
                                                         int resultSetType, int resultSetConcurrency,
                                                         int resultSetHoldability) throws SQLException {
        sql = check(sql);
        CallableStatementProxy stmt = chain.connection_prepareCall(connection, sql, resultSetType,
                resultSetConcurrency, resultSetHoldability);
        setSqlStatAttribute(stmt);
        return stmt;
    }
}

       新建META-INF,在下面添加properties配置文件,增加我们新配置的类:

druid.filters.mycat=XXX.DruidMycatFilter

       同时在filter中增加mycat配置

<property name="filters" value="mycat,stat,config"/>

* 待续

       通过druid的学习,更像一个平台,把我们很多知识都可以关联起来,而在项目中去实践和体会,便是这样一个反复的过程。后续会更深入学习,感谢您的阅读。

购买提醒:全程代码实战,本系列课程建议有Java开发经验2年以上的学员观看和购买。录制本套教程的初衷,通过从业10年接触过很多的技术开发人员,尤其在面试一些技术人员的时候,发现他们的技术知识更新较慢,很多人渴望接触到高并发系统和一些高级技术架构,为了帮助更多人能够提升自己和接触到这类技术架构,并满足企业的人才需求,利用业余时间我开始录制这套教程。通过录制教程有很多学员给我反馈信息,给了我很大的鼓舞,当然也有吐槽,我想说的是技术是没有边界的,脱离一线业务场景去谈技术,都是耍流氓的。如对我录制的教程内容有建议请及时交流。本套课程历经1年时间研发,案例来源于真实业务场景抽离,由从业10年企业一线架构师实录,没有基础不建议购买。购买后提供企业级多方位指导,通过本套案例可以让你学习目前主流的微服务技术架构和多种企业级高并发和海量数据、高可用、分布式、支付、多语言、前后端分离等技术的综合应用解决方案。在开始本课程前给大家科普几个概念: 高并发是指在比较短的时间内有大量的访问者访问目标系统,系统负载饱和或者过载宕机。 高并发的应用,我们应该都有用过或者见过,比如天猫、京东、拼多多、亚马逊的秒杀抢购还有12306的抢票。我们在体验应用的时候,可能并不会像到这种高并发系统背后的技术实现难度。高并发系统都存在这几种问题,高并发读、高并发写、访问高峰突发性、反馈结果的即时性。在抢购的时候,尤其是抢购火车票的时候,我们经常会疯狂的刷库存,几亿用户产生非常大的高并发读; 通过以上的科普相信大家对课程有一个基本的认知了,本套教程以应用最为广泛的电商系统为标本,给大家构建一个亿级微服务秒杀系统,让大家跟着我的步骤能学习行为背后的原理。本课程采用全新的微服务架构,运用了很多工业界企业解决方案和高级技术,带大家手把手实现一个高性能,高并发,高可用等的亿级微服务秒杀系统,本课程会包含很多高级的内容,比如微服务架构、分布式部署方案、多线程、支付、多语言、全链路性能压力测试等,让大家在实战中学习知识,在实战中不断进步。该课程是一个完整的微服务架构秒杀系统项目代码,案例具有很高的商业价值,大家可以根据自己的业务进行修改,便可以使用。本套课程可以满足世面上绝大多数企业级的业务场景,本课程全部代码可以直接部署企业,普通集群,支撑**并发;集群规模大,支撑亿级并发。本课程包含的技术: IDEA集成开发工具 SpringBoot2.0.2.RELEASE SpringCloudFinchley.RELEASE Thymeleaf(模板引擎技术) 微信支付 支付宝支付 银联支付 分布式数据库Mycat MySQL Druid RabbitMQ 分布式事务 分布式锁 事件驱动 多线程 MyBatis QuartzEhcache Redis Hystrix 单点登陆CAS Nginx Lua Restful AOP技术 性能压力测试Jemter VUE+jQuery+Ajax+NodeJS Python Go语言课程亮点: 1.与企业无缝对接、真实工业界产品 2.主流支付全覆盖(微信、支付宝、银联) 3.前后端分离(主流技术架构) 4.实现高并发请求和实现高可用架构解决方案 5.多语言(Java、Go、Python) 6.亿级微服务秒杀系统(支撑海量数据) 7.大型系统分布式部署方案 8.全链路性能压力测试  9.分布式事务解决方案 10.事件驱动设计解决方案 11.多线程技术的实战应用 12.高并发下的服务降级、限流实战 13.分布式架构师下实现分布式定时调度 14.集成MyBatis实现多数据源路由实战 15.集成Redis缓存实战 16.Eureka注册中心 17.OpenFeign声明式服务调用 18.Hystrix服务熔断降级方式 19.基于Hystrix实现接口降级实战 20.集成SpringCloud实现统一整合方案 21.全程代码实操,提供全部代码和资料 22.提供答疑和提供企业技术方案咨询购买提醒: 我本人在企业从业10年,因为热爱,所以坚持,下一个10年依然会在企业一线服务,因此对于课程中的技术点可以提供全方面的业务场景解决方案。我本人并非培训机构脱离一线业务场景的讲师,从业多年接触过大量的真实业务场景案例,后面会逐步通过教程案例分享我多年的实战经验,送给同行一句话:技术是服务于业务的,脱离一线业务场景就是耍流氓。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值