
数据库
文章平均质量分 53
你不知道你所以是你
在路上,永远年轻,永远热泪盈眶
展开
-
MySQL服务器自动数据备份脚本
mysqldump自动备份mysql数据库数据原创 2021-12-16 11:23:44 · 1269 阅读 · 0 评论 -
postgresql合并string_agg函数
1 有时候我们会需要将多条数据根据一些特别的字段做一些合并。比如下面这个查询,正常会查询出3条数据,但是我们会希望根据create_by 分成两列显示2 这时候需要用到string_agg函数,先通过group by分组,在进行合并,当然查询结果需要满足group by的限制;sql语句:select create_by,string_agg(videoname,',') as v...原创 2018-08-23 18:19:43 · 22730 阅读 · 4 评论 -
ORACLE日期转毫秒数
有时候,需要对数据库中的时间字段进行一些比较运算,而运算的差值不是整天、整月等,这个时候将时间转换成毫秒数会多了一些判断方法:基本方法:(t.#COLUMN#-to_date('1970-01-01 08:00:00','yyyy-mm-dd hh24:mi:ss'))*24*60*60*1000;这样得到的就是当前时间对应的毫秒数;用例:SELECT id, day, SHI...原创 2018-11-09 16:56:49 · 15920 阅读 · 3 评论 -
pg(union all)统计总数count
在分页查询中,常用的一种做法是分两部分查询;第一部分用limit查询出需要的条数,第二步用count函数查询出总数;sql1: select t.id,t.create_by,t.create_date from table t limit 0 offset 10sql2 : select count(t.id) from talbe t但是如果用到 ...原创 2018-12-17 21:07:14 · 8935 阅读 · 5 评论 -
postgresql批量插入数据
正常情况下,数据库插入一条数据耗时余额几十毫秒,这在大多数情况下是可以接受的;但是如果一次性需要插入几千、几万甚至更大数据量的时候,时间就有些长了,这个时候就需要稍微修改一下sql语句,使之可以批量插入大量数据 ;插入一条数据sql:INSERT INTO w008_test_insert(id, is_removed, work_id, taskid, wfid, e2eid, cre...原创 2019-03-11 13:54:11 · 39438 阅读 · 11 评论 -
postgresql通过索引优化查询速度
当数据量比较大的时候,提升查询效率就是需要去考虑的事情了。一个百万级别的表格,如果不做任何优化的话,即使是最简单的查询语句执行起来也是慢的让人难以接受;当然“优化”本身是一个比较复杂的工程,从设计表、字段到查询语句的写法都有很多讲究,这里只考虑索引的方式,且是最普通的索引;下面的操作中对应数据库表w008_execrise_info(8000数据量),w008_wf02_info(4000数...原创 2019-04-03 21:03:36 · 13961 阅读 · 0 评论 -
postgresql-with as处理子查询速度慢的问题
在数据库查询过程中,有时候我们会遇到一些对聚合函数的结果进行过滤的情况,如果这个聚合函数本身又是个子查询获得的结果,这个时候再把它作为 一个where 条件语句的话,会导致查询效率极其的差。而通过with as 语法先把它“暂存”一下速度则会快很多。基本用例如下:1 我想做一个错题统计,先把错题ID和错题数查询出来select info.answerexeid AS exeid,...原创 2019-03-28 20:50:55 · 6290 阅读 · 1 评论 -
java端jedisPool工具类以及一个异常处理Could not get a resource since the pool is exhausted
redis作业一个Key-Value数据库目前被用的越来越频繁,尤其在缓存处理有很不错的效果。这里记录仅一些配置信息。1. 配置poolConfigJedisPoolConfig poolConfig = new JedisPoolConfig();poolConfig.setMaxIdle(10);//最大空闲链接poolConfig.setMaxTotal(100);//最大连接...原创 2019-09-12 15:17:05 · 8841 阅读 · 0 评论