Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2910156
  • 博文数量: 199
  • 博客积分: 1400
  • 博客等级: 上尉
  • 技术积分: 4126
  • 用 户 组: 普通用户
  • 注册时间: 2008-07-06 19:06
个人简介

半个PostgreSQL DBA,热衷于数据库相关的技术。我的ppt分享https://pan.baidu.com/s/1eRQsdAa https://github.com/chenhuajun https://chenhuajun.github.io

文章分类

全部博文(199)

文章存档

2020年(5)

2019年(1)

2018年(12)

2017年(23)

2016年(43)

2015年(51)

2014年(27)

2013年(21)

2011年(1)

2010年(4)

2009年(5)

2008年(6)

分类: Mysql/postgreSQL

2019-09-09 21:07:36


问题

某日,研发的小伙伴扔过来一个SQL希望帮忙优化。

  1. select nation,province,city from ip_idc
  2.  where ip_start <='113.201.214.203'::inet and ip_end >='113.201.214.203'::inet;
这个SQL需要执行1秒多。而业务需要高并发的频繁执行这条SQL,1秒多的执行时间无法满足业务需求。


这个SQL是想在ip地址库中找到某个IP地址的归属地。ip地址库的表定义如下,每条记录描述了一个地址范围的相关信息,共300多万条记录,600MB。

  1. postgres=# \d ip_idc
  2.                             Table "public.ip_idc"
  3.      Column | Type | Collation | Nullable | Default
  4. --------------------+------------------------+-----------+----------+---------
  5.  id | character varying(255) | | not null |
  6.  ip_start | inet | | |
  7.  ip_end | inet | | |
  8.  nation | character varying(255) | | |
  9.  province | character varying(255) | | |
  10.  city | character varying(255) | | |
  11.  ...()
  12. Indexes:
  13.     "ip_idc_pkey" PRIMARY KEY, btree (id)
  14.     "ip_idc_ip_start_ip_end_idx" btree (ip_start, ip_end)


分析

通过检查执行计划,可以很明显看出,这个SQL之所以慢,是因为它使用了全表扫描。

postgres=# explain (analyze ,buffers)select nation,province,city from ip_idc where ip_start <='113.201.214.203'::inet and ip_end >='113.201.214.203'::inet; QUERY PLAN                                                    
-----------------------------------------------------------------------------------------------------------------
 Seq Scan on ip_idc  (cost=0.00..128204.08 rows=645500 width=29) (actual time=1062.045..1066.116 rows=1 loops=1)
   Filter: ((ip_start <= '113.201.214.203'::inet) AND (ip_end >= '113.201.214.203'::inet))
   Rows Removed by Filter: 3470145 Buffers: shared hit=4143 read=72010 I/O Timings: read=321.196 Planning time: 17.140 ms
 Execution time: 1073.907 ms
(7 rows) 

明明表上有索引,为什么还会走全表扫描?

对于btree索引上的范围查询,这其实是一个很正常的现象。

对于联合索引btree(ip_start, ip_end),起决定作用的是开头的ip_start字段。
这个SQL中,ip_start字段上的约束条件是ip_start <= '113.201.214.203'::inet,
即它需要扫描索引中所有小于等于113.201.214.203'::inet的索引项。
这样的索引项的数量越多,执行时间就越长;同时优化器计算出的索引扫描的cost也就越大,大到超过顺序扫描的cost后,优化器就会选择使用顺序扫描的执行计划了。

使用"更小"的ip地址继续查询,可以验证上面的描述。
使用60,10,1开头的IP地址查询,都会走索引扫描,查询时间分别是210毫秒,3毫秒和0.4毫秒。

postgres=# explain (analyze ,buffers)select nation,province,city from ip_idc where ip_start <='60.201.214.203'::inet and ip_end >='60.201.214.203'::inet; QUERY PLAN                                                                    
-------------------------------------------------------------------------------------------------------------------------------------------------
 Index Scan using ip_idc_ip_start_ip_end_idx on ip_idc  (cost=0.43..77943.75 rows=640787 width=29) (actual time=104.813..104.815 rows=1 loops=1)
   Index Cond: ((ip_start <= '60.201.214.203'::inet) AND (ip_end >= '60.201.214.203'::inet))
   Buffers: shared hit=3240 Planning time: 0.082 ms
 Execution time: 104.843 ms
(5 rows)

postgres=# explain (analyze ,buffers)select nation,province,city from ip_idc where ip_start <='10.201.214.203'::inet and ip_end >='10.201.214.203'::inet; QUERY PLAN                                                                 
--------------------------------------------------------------------------------------------------------------------------------------------
 Index Scan using ip_idc_ip_start_ip_end_idx on ip_idc  (cost=0.43..17828.34 rows=30263 width=29) (actual time=2.298..2.299 rows=1 loops=1)
   Index Cond: ((ip_start <= '10.201.214.203'::inet) AND (ip_end >= '10.201.214.203'::inet))
   Buffers: shared hit=70 Planning time: 0.156 ms
 Execution time: 2.327 ms
(5 rows) 
postgres=# explain (analyze ,buffers)select nation,province,city from ip_idc where ip_start <='1.201.214.203'::inet and ip_end >='1.201.214.203'::inet; QUERY PLAN                                                                
------------------------------------------------------------------------------------------------------------------------------------------
 Index Scan using ip_idc_ip_start_ip_end_idx on ip_idc  (cost=0.43..3426.17 rows=5057 width=29) (actual time=0.392..0.393 rows=1 loops=1)
   Index Cond: ((ip_start <= '1.201.214.203'::inet) AND (ip_end >= '1.201.214.203'::inet))
   Buffers: shared hit=15 Planning time: 0.103 ms
 Execution time: 0.413 ms
(5 rows) 

测试结果汇总如下:

目标IP地址 扫描类型 扫描数据块数 执行时间(ms)
113.201.214.203 顺序扫描 76153 1073.907
60.201.214.203 索引扫描 3240 104.843
10.201.214.203 索引扫描 70 2.327
1.201.214.203 索引扫描 15 0.413

查询条件中虽然有ip_end >='1.201.214.203'::inet的约束条件,但由于ip_end是联合索引的第二个字段,难以发挥作用。

因此,本问题的根因在于btree索引不擅长处理范围类型。

优化方案1

熟悉PostgreSQL的人应该都知道,PostgreSQL里有非常丰富的数据类型,其中就包含范围类型。
利用与之配套的gist索引,可以在索引中同时搜索范围的上下边界,达到比较理想的查询效果。
下面实际验证一下效果。

由于inet范围不是内置类型,先创建一个inet的范围类型。

create type inetrange as range(subtype=inet) 

为了不修改表结构,创建inet范围的表达式索引

create index on ip_idc using gist(inetrange(ip_start, ip_end, '[]'::text)) 

执行查询

postgres=# explain (analyze,buffers) select * from ip_idc where inetrange(ip_start,ip_end,'[]') @> '113.21.214.203'::inet; QUERY PLAN                                                           
-------------------------------------------------------------------------------------------------------------------------------
 Bitmap Heap Scan on ip_idc  (cost=1.92..3.44 rows=1 width=136) (actual time=11.071..11.072 rows=1 loops=1)
   Recheck Cond: (inetrange(ip_start, ip_end, '[]'::text) @> '113.21.214.203'::inet)
   Heap Blocks: exact=1 Buffers: shared hit=521 ->  Bitmap Index Scan on ip_idc_inetrange_idx  (cost=0.00..1.92 rows=1 width=0) (actual time=11.066..11.066 rows=1 loops=1)
         Index Cond: (inetrange(ip_start, ip_end, '[]'::text) @> '113.21.214.203'::inet)
         Buffers: shared hit=520 Planning time: 0.098 ms
 Execution time: 11.140 ms
(9 rows) 

使用inet范围索引后,执行时间减少到了11毫秒。
仔细检查这个执行计划,发现这个SQL扫描了520个索引块,似乎有点多,有兴趣的同学可以看看从内核源码角度能不能再优化一下。

注:相同的SQL在9.6上执行时间是300毫秒,需要扫描13435个索引块。应该PG 10对gist索引做过优化。

优化方案2

除了自定义的inetrange类型,inet本身就有表示地址范围的能力,并且支持gist索引。另外还有更高效的第三方的ip4r插件可以做同样的事情。
下面比较一下这3种方式在同一个数据集下的性能。

先创建包含3种数据类型的表,并生成300多万不重复的ip范围

create extension ip4r; create table ip_idc2(id serial,ip_start inet,ip_end inet,iprange inet,iprange2 ip4r); insert into ip_idc2(ip_start,ip_end,iprange,iprange2) select (r1::text ||'.'|| r2::text ||'.'|| r3::text||'.0')::inet, 
        (r1::text ||'.'|| r2::text ||'.'|| r3::text||'.255')::inet,
        (r1::text ||'.'|| r2::text ||'.'|| r3::text||'.0/24')::inet,
        (r1::text ||'.'|| r2::text ||'.'|| r3::text||'.0/24')::ip4r from generate_series(1,60) a(r1),generate_series(1,254) b(r2),generate_series(1,254) c(r3) limit 1; create index on ip_idc2 using gist(inetrange(ip_start, ip_end, '[]'::text)); create index on ip_idc2 using gist(iprange inet_ops); create index on ip_idc2 using gist(iprange2); 

执行ip地址查询的SQL,比较3种的类型的索引扫描效率。

postgres=# explain (analyze,buffers) select * from ip_idc2 where inetrange(ip_start,ip_end,'[]') @> '33.21.214.203'::inet; QUERY PLAN                                                              
--------------------------------------------------------------------------------------------------------------------------------------
 Bitmap Heap Scan on ip_idc2  (cost=384.42..17950.58 rows=19355 width=33) (actual time=15.131..15.133 rows=1 loops=1)
   Recheck Cond: (inetrange(ip_start, ip_end, '[]'::text) @> '33.21.214.203'::inet)
   Heap Blocks: exact=1 Buffers: shared hit=668 ->  Bitmap Index Scan on ip_idc2_inetrange_idx  (cost=0.00..379.58 rows=19355 width=0) (actual time=15.122..15.122 rows=1 loops=1)
         Index Cond: (inetrange(ip_start, ip_end, '[]'::text) @> '33.21.214.203'::inet) Buffers: shared hit=667 Planning time: 0.072 ms
 Execution time: 15.204 ms
(9 rows)

postgres=# explain (analyze,buffers) select * from ip_idc2 where iprange >>= '33.21.214.203'::inet; QUERY PLAN                                                          
------------------------------------------------------------------------------------------------------------------------------
 Index Scan using ip_idc2_iprange_idx on ip_idc2  (cost=0.41..3.43 rows=1 width=33) (actual time=2.758..4.940 rows=1 loops=1)
   Index Cond: (iprange >>= '33.21.214.203'::inet) Buffers: shared hit=227 Planning time: 0.082 ms
 Execution time: 4.964 ms
(5 rows)

postgres=# explain (analyze,buffers) select * from ip_idc2 where iprange2 >>= '33.21.214.203'::ip4r; QUERY PLAN                                                            
---------------------------------------------------------------------------------------------------------------------------------
 Bitmap Heap Scan on ip_idc2  (cost=54.42..4966.41 rows=3871 width=33) (actual time=0.032..0.032 rows=1 loops=1)
   Recheck Cond: (iprange2 >>= '33.21.214.203'::ip4r)
   Heap Blocks: exact=1 Buffers: shared hit=4 ->  Bitmap Index Scan on ip_idc2_iprange2_idx  (cost=0.00..53.45 rows=3871 width=0) (actual time=0.027..0.027 rows=1 loops=1)
         Index Cond: (iprange2 >>= '33.21.214.203'::ip4r) Buffers: shared hit=3 Planning time: 0.083 ms
 Execution time: 0.065 ms
(9 rows) 

测试结果汇总如下

数据类型 Where条件 扫描类型 扫描索引块数 执行时间(ms)
inet范围类型 inetrange(ip_start,ip_end,'[]') @> '33.21.214.203'::inet 索引扫描 667 15.204
inet iprange >>= '33.21.214.203'::inet; 索引扫描 227 4.964
ip4r iprange2 >>= '33.21.214.203'::ip4r 索引扫描 3 0.065

从测试结果可以看出,原生的inet比自定义的inetrange快了3倍。
而第三方的ip4r又比原生的inet快了76倍,执行时间只有0.065毫秒,执行过程中只扫描了3个索引块,可以认为已经优化到头了。

优化方案3

方案2中的ip4r的性能虽然比较理想,但是需要对现有ip地址库的表数据重新定义,而且还需要安装额外的第三方插件,实施代价比较高。

有没有性能和ip4r相当,又不需要修改表数据以及安装第三方插件的方案呢?

经过和业务方沟通,了解到ip地址库中的地址范围没有重叠,并且ip地址库数据齐全,没有ip遗漏。
也就是说,查询ip地址的SQL一定会返回且只返回一条记录。
既然这样,简单思考一下就不难发现:

 ip_start小于等于目标IP的最大的地址范围其实就是要找的记录。 

这样的查询只需在SQL上简单的添加 order by + limit 1就可以完成优化。效果如下

在ip_start字段上创建btree索引

create index on ip_idc2(ip_start); 

当然也可以继续使用现有的btree(ip_start,ip_end)联合索引。

执行SQL

postgres=# explain (analyze ,buffers)select * from ip_idc2 where ip_start <='33.201.214.203'::inet and ip_end >='33.201.214.203'::inet order by ip_start desc limit 1; QUERY PLAN                                                                    
   
----------------------------------------------------------------------------------------------------------------------------------------------------
---
 Limit  (cost=0.43..0.53 rows=1 width=33) (actual time=0.019..0.020 rows=1 loops=1)
   Buffers: shared hit=4 ->  Index Scan Backward using ip_idc2_ip_start_idx on ip_idc2  (cost=0.43..99888.39 rows=957385 width=33) (actual time=0.018..0.018 rows=1 loops= 1)
         Index Cond: (ip_start <= '33.201.214.203'::inet)
         Filter: (ip_end >= '33.201.214.203'::inet)
         Buffers: shared hit=4 Planning time: 0.133 ms
 Execution time: 0.044 ms
(8 rows) 

优化后,只扫描4个索引块,执行速度比ip4r还快50%,效果符合预期。

小结

对于IP地址段查询的场景,PostgreSQL的ip4r插件是一个性能和通用性都比较不错的一个方案,
但用户不一定方便使用ip4r,比如在未安装ip4r的公有云RDS上或者使用PostgreSQL以外的数据库。

在能满足以下限制条件的情况下,方案3(即order by + limit 1)应该是更好的选择。

  1. ip地址库中的ip地址范围不能重叠,否则原本应该返回多条记录的结果只能查到第1条记录。
  2. ip地址库中的ip地址范围齐全,不能有遗漏,否则可能需要扫描一半的索引,性能很差。

最终,业务采纳了方案3。

阅读(1213) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~