Postgresql | 执行计划

news/2024/7/9 22:02:52 标签: postgresql, 数据库, oracle

SQL优化主要从三个角度进行:
(1)扫描方式;
(2)连接方式;
(3)连接顺序。

如果解决好这三方面的问题,那么这条SQL的执行效率就基本上是靠谱的。看懂SQL的执行计划的关键也是要首先了解这三方面的基本概念,只有搞清楚了这些基本概念,才能够更好的看懂SQL的执行计划,下面我们分别来学习这些预备知识。

要想让SQL语句有好的执行效果,首先要采用正确的扫描方式。PG的扫描方式与Oracle等其他数据库类似,但也存在较大的不同,为了掌握好SQL语句优化的技术,我们首先要学会看SQL语句的执行计划,而看执行计划的最为基础的能力就是看懂每一步的扫描方式。下表是一个PG常用的表扫描方式的清单,大家一定要熟练掌握。

扫描方式简称解释
Seq Scan顺序扫描整个对象
Parallel Seq Scan采用并行方式顺序扫描整个对象
Index Scan采用离散读的方式,利用索引访问某个对象
Index Only Scan仅通过索引,不访问表快速访问某个对象
Bitmap Index Scan通过多个索引扫描后形成位图找到符合条件的数据
Bitmap Heap Scan往往跟随bitmap index scan,使用该扫描生成的位图访问对象
CTE Scan从CTE(Common Table Expression)中扫描数据 (WITH Block)
Function Scan从存储过程中扫描数据

顺序扫描(Seq Scan)

顺序扫描(Seq Scan)往往是开销最大的扫描方式,其方式是针对一个关系(表)从头到尾进行扫描,从而找到所需要的数据。如果这张表上的数据量比较大,那么这种扫描方式可能会产生较大的IO,消耗较多的CPU资源,持续较长的时间。如果某条SQL语句扫描某张表的时候返回的记录数较少(或者返回记录的比例较少,比如小于5%)。

而SQL语句的WHERE条件中具有针对某几个字段的某些条件的,那么在这张表上创建适当的索引可能会大大提高这条SQL的执行效率。如果扫描返回的记录数占表的比例比较大,比如超过50%,那么,通过索引扫描该表可能效率还不如直接进行顺序扫描。因此我们不能看到顺序扫描就认为这条SQL扫描数据的方式存在问题,而是要根据实际情况来判断扫描方式是否合理。

并行顺序扫描(Parallel Seq Scan)

并行顺序扫描(Parallel Seq Scan)是一种改良的顺序扫描,从PG 9.6开始支持的一种新的扫描功能。如果对于某张表的扫描无法使用索引,必须进行顺序扫描,那么我们如何提高这样的扫描的性能呢?答案就是Parallel Seq Scan,通过并行扫描的方式对大表进行扫描,从而减少扫描所需的时间。

采用并行扫描时应该注意两个问题:第一个问题是,并行扫描会增加系统的资源开销,比如在SQL执行时会消耗更多的CPU/IO/内存等资源。如果系统资源本身存在瓶颈,那么就要尽可能限制并行扫描的数量;第二是并行扫描并不一定具有更高的效率,在不同的系统环境与数据情况下,有时候并行顺序扫描效率并不会比普通的顺序扫描更快。这取决于并行扫描的协同工作成本是否较高。

索引扫描(Index Scan)

索引扫描(Index Scan)是我们希望遇到的扫描方式,不过索引唯一扫描(Index Only Scan)具有更高的效率,因为Index Only Scan不需要再进行回表操作,就可以完成执行工作,获得到所需要的数据,因为索引中已经包含了SQL执行所需要的所有数据。不过我们要注意的是,有些时候,索引扫描的效率还不一定比顺序扫描高,比如某个扫描需要返回的行数较多,底层存储的顺序读性能远高于离散读,这种情况下,如果我们还一味追求索引扫描,那么可能会起到副作用。

CTE SCAN

CTE SCAN是一种特殊的扫描,当SQL语句中存在CTE结构(语法上的WITH …),那么在SQL的执行计划中会看到CTE SCAN的内容。相当于从一个固化的子查询体中获得数据。CTE结构在一次SQL执行中只执行一次,但是可以给SQL中的子查询多次使用,从而减少响应的开销。

Function Scan

Function Scan也是一种特殊的扫描方式,是从函数中获取数据。

针对一个单表的访问,我们只要选择最适合的表扫描方式就可以实现优化了,不过我们面对的SQL往往不是一张单表访问的,很多SQL涉及多张表的关联操作。因此仅仅了解PG数据库的扫描方式是不够的,我们需要认真学习一下PG数据库的表连接方式。和其他关系型数据库类似,PostgreSQL 支持三种连接操作:
(1)嵌套循环连接(Nested Loop Join)
(2)合并连接(Merge Join)
(3)散列连接(Hash Join)

PostgreSQL 中的嵌套循环连接和合并连接有几种变体。要注意的是这里所说的PG数据库的表连接方式与SQL语句中的表连接不是一码事。PostgreSQL支持的三种join方法都可以进行所有的join操作,不仅是INNER JOIN,还有LEFT/RIGHT OUTER JOIN、FULL OUTER JOIN等。

Nested Loop Join(嵌套循环连接)

Nested Loop Join(嵌套循环连接)是最基本的连接操作,它可以用于任何连接条件。PostgreSQL 支持嵌套循环连接,包括其多种变体。参与Nested Loop Join的两张表分为外表(Outer)和内表(Inner),首先找出外表符合条件的数据集,然后针对这个数据集的每一行进行一次循环,找出内表中符合条件的数据。针对内表的扫描可能是Index Scan,也可能是Seq Scan。如果内表数据量不大,那么Seq Scan是可以接受的,如果内表比较大,那么进行Seq Scan的成本太高,就可能导致Nested Loop的成本过高。因此这种情况下,就需要在内表上创建适当的索引来进行优化。如果关联条件使用索引的效果不佳,那么Nested Loop连接的性能就无法优化了。另外如果外表的结果集太大,有上万甚至几十万条记录,那么Nested Loop的循环次数就很大,哪怕内表扫描使用Index Scan,总体效率也不高。

每当读取外部表的每个元组时,上述嵌套循环连接必须扫描内部表的所有元组。如果上面所说的情况出现,由于为每个外表元组扫描整个内表是一个昂贵的过程,PostgreSQL 通过一种变种的Nested Loop连接方式-物化嵌套循环连接(Materialized Nested Loop Join)以降低内表的总扫描成本,从而解决这个问题。

=# explain select o.o_c_id,i.apd from test_outer o,test_inner i where o.o_id=i.o_id and o.o_w_id=29 and o.o_c_id=1831 and i.o_id<3000;< span="">
                                         QUERY PLAN                                         
----------------------------------------------------------------------------------
 Nested Loop  (cost=1000.00..180434.51 rows=2 width=8)
   Join Filter: (o.o_id = i.o_id)
   ->  Seq Scan on test_inner i  (cost=0.00..691.75 rows=2971 width=8)
         Filter: (o_id < 3000)
   ->  Materialize  (cost=1000.00..178450.45 rows=29 width=8)
         ->  Gather  (cost=1000.00..178450.31 rows=29 width=8)
               Workers Planned: 2
               ->  Parallel Seq Scan on test_outer o  (cost=0.00..177447.41 rows=12 width=8)
                     Filter: ((o_w_id = 29) AND (o_c_id = 1831))
(9 rows)

从上面的执行计划看,针对表的过滤条件比较好,筛选后只有29条记录,因此针对这张表的条件建立了一个物化视图,用test_inner作为外表,执行nested loop。

Merge Join(合并连接)

第二种常用的表连接方式是Merge Join(合并连接)在一些其他数据库中也叫Sort Merge Join,是因为两个结果集做JOIN之前,都需要对连接字段进行排序,然后再进行连接。如果结果集数量不大,所有元组都可以存储在内存中,那么排序操作就可以在内存中进行;否则,将使用临时文件。使用临时文件排序的效率远低于内存排序,因此要确保work_mem的配置足够大,从而提高合并连接的性能。与嵌套循环连接一样,合并连接也支持物化合并连接来物化内表,使内表扫描更加高效。Merge Join往往在内外表的大小相差较小的情况下有较好的效果。

Hash Join(哈希连接)

第三种常用的表连接方式是Hash Join(哈希连接)。与Merge Join类似,Hash Join只能用于自然连接和等连接。PostgreSQL 中的Hash Join的行为取决于表的大小。如果目标表足够小(更准确地说,内表的大小是 work_mem 的 25% 或更少),它将是一个简单的两阶段内存哈希连接;否则需要采用具有倾斜处理的混合哈希连接。

内存中哈希连接(In-memory Hash Join)是在work_mem上处理的,这个hash表区在PostgreSQL中称为batch。一批具有散列槽,内部称为桶。外表上构建好Hash桶之后,内表的连接字段逐个探测Hash桶,完成连接操作。

当内表的元组无法在work_mem中存储为一个batch时,PostgreSQL使用了混合散列连接和skew算法,这是基于混合散列连接的一种变体。在构建和探测阶段,PostgreSQL 准备多个批次。批次数与桶数相同,在这个阶段,work_mem中只分配了一个batch,其他batch作为临时文件创建;并将属于这些批次的元组写入相应的文件并使用临时元组存储功能进行保存。在混合哈希联接中,构建和探测阶段执行的次数与批次数相同,因为内表和外表存储在相同的批次数中。在构建和探测阶段的第一轮中,不仅创建了每个批次,而且处理了内部表和外部表的第一批。另一方面,第二轮和后续轮次的处理需要向/从临时文件写入和重新加载,因此这些是昂贵的过程。因此,PostgreSQL 还准备了一个名为skew的特殊批处理,以在第一轮更有效地处理更多的元组。

了解了表的扫描方式与表连接的方式之后,我们就可以来分析SQL的执行计划了。不过在看执行计划之前,我们还需要了解一下执行计划中的每个节点的操作。常见的操作包括如下几种:

操作解释
ljoin采用某种方法把两个node的数据连接起来
lsort进行排序操作
llimit通过limit结束扫描,限制返回的数据量
laggregate进行汇总
lhash aggregate通过hash分组数据
lunique对于已经排序的数据进行除重
lgather从不同的并发worker中汇总数据

学习了每个节点的操作符,我们基本上就能看懂PG的执行计划了。我们可以使用explain命令来查看PG的SQL语句的执行计划。Explain命令的语法如下:

EXPLAIN [ ANALYZE ] [ VERBOSE ] statement
EXPLAIN [ ( option [, ...] ) ] statement
 ANALYZE 执行SQL并且显示执行细节
 VERBOSE 详细输出
 COSTS 显示执行计划开销
 BUFFERS 显示查询的buffers操作信息
 TIMING 显示执行消耗的时间
 SUMMARY 在最后显示汇总信息
 FORMAT TEXT/XML/JSON/YAML 显示格式选择

下面我们还是以上面举例的那条SQL来看看SQL的执行计划。通过explain命令我们可以获得某条SQL语句的执行计划。比如下面的SQL:

PG=# explain select o.o_c_id,i.apd from test_outer o,test_inner i where o.o_id=i.o_id and o.o_w_id=29 and o.o_c_id=1831 and i.o_id<3000;< span="">
                                         QUERY PLAN                                         
-------------------------------------------------------------------------------------------
 Nested Loop  (cost=1000.00..180434.51 rows=2 width=8)
   Join Filter: (o.o_id = i.o_id)
   ->  Seq Scan on test_inner i  (cost=0.00..691.75 rows=2971 width=8)
         Filter: (o_id < 3000)
   ->  Materialize  (cost=1000.00..178450.45 rows=29 width=8)
         ->  Gather  (cost=1000.00..178450.31 rows=29 width=8)
               Workers Planned: 2
               ->  Parallel Seq Scan on test_outer o  (cost=0.00..177447.41 rows=12 width=8)
                     Filter: ((o_w_id = 29) AND (o_c_id = 1831))
(9 rows)

我们看到最下面的两行,只针对test_outer表做并行Seq Scan,条件正是SQL语句中针对该表的两个过滤条件。Parallel Sequence Scan的成本为:
(cost=0.00…177447.41 rows=12 width=8)

从上面的数据可以看出,Parallel Seq Scan的成本是177447.41。经过Gather后生成了一个物化视图,成本变为178450.45。rows=12指出了本操作返回的行数,而width=8指出了每行数据的长度,rows*width可以计算出操作涉及的字节数。
然后执行了一个和物化视图同等级的Seq Scan,是针对test_inner表的,这个扫描操作:

  ->  Seq Scan on test_inner i  (cost=0.00..691.75 rows=2971 width=8)

这个操作的成本为691.75,返回2971条记录。然后这两个结果集之间进行Join,方式采用的是Nested Loop。
读懂了执行计划,就可以判断执行计划中那些地方存在问题了。我们看到对于test_outer表的扫描采用Parallel Seq Scan的成本占比很高,如果要优化这条SQL,可以考虑创建一个o_c_id和o_w_id的索引来进一步优化。

highgo=# create index idx_outer1 on test_outer(o_c_id,o_w_id);
CREATE INDEX
highgo=# explain select o.o_c_id,i.apd from test_outer o,test_inner i where o.o_id=i.o_id and o.o_w_id=29 and o.o_c_id=1831 and i.o_id<3000;< span="">
                                      QUERY PLAN                                      
---------------------------------------------------------------------------------------
 Hash Join  (cost=729.32..760.00 rows=2 width=8)
   Hash Cond: (o.o_id = i.o_id)
   ->  Index Scan using idx_outer1 on test_outer o  (cost=0.43..30.98 rows=29 width=8)
         Index Cond: ((o_c_id = 1831) AND (o_w_id = 29))
   ->  Hash  (cost=691.75..691.75 rows=2971 width=8)
         ->  Seq Scan on test_inner i  (cost=0.00..691.75 rows=2971 width=8)
               Filter: (o_id < 3000)
(7 rows)

可以看出,执行计划中使用了这个索引,而且表连接方式也变成了Hash Join,Cost也下降了上百倍。这是PG数据库SQL优化最为常用的方法。

一个顺序磁盘页面操作的cost值由系统参数seq_page_cost (floating point)参数指定的,由于这个参数默认为1.0,所以我们可以认为一次顺序磁盘页面操作的cost值为1。

osdba=# explain select * from t;
QUERY PLAN
———————————————————-
Seq Scan on t  (cost=0.00 ..4621.00  rows=300000  width=10 )
(1 row)

cost 说明:
第一个数字0.00表示启动cost,这是执行到返回第一行时需要的cost值。
第二个数字4621.00表示执行整个SQL的cost

可以explain后加analyze来通过真实执行这个SQL来获得真实的执行计划和执行时间:.

osdba=# EXPLAIN ANALYZE SELECT * FROM t;
QUERY PLAN
-----------------------------------------------------------------------------------------------------------
Seq Scan on t  (cost=0.00..4621.00 rows=300000 width=10) (actual time=0.022 ..355.380rows=300000 loops=1)
Total runtime: 696.074 ms

actual time中的第一个数字表示返回第一行需要的时间(叫启动时间),第二个数字表示执行这个整个花的时间。后面的rows=300000是实际的行数。

表顺序扫描由于是立即可以获得第一行,所以启动时间一般都是0,而如果是排序操作,则需要处理完所有行后才能返回第一行,所以排序操作是需要启动时间的,下表列出了哪些操作是需要启动时间的,哪些操作不是需要的:

执行计划运算类型操作说明是否有启动时间
Seq Scan扫描表无启动时间
Index Scan索引扫描无启动时间
Bitmap Index Scan索引扫描有启动时间
Bitmap Heap Scan索引扫描有启动时间
Subquery Scan子查询无启动时间
TidScan ctid = …条件无启动时间
Function Scan函数扫描无启动时间
Nested Loop循环结合无启动时间
Merge Join合并结合有启动时间
Hash Join哈希结合有启动时间
Sort排序,ORDER BY操作有启动时间
Hash哈希运算有启动时间
Result函数扫描,和具体的表无关无启动时间
UniqueDISTINCT,UNION操作有启动时间
LimitLIMIT,OFFSET操作有启动时间
Aggregatecount, sum,avg, stddev集约函数有启动时间
GroupGROUP BY分组操作有启动时间
AppendUNION操作无启动时间
Materialize子查询有启动时间
SetOpINTERCECT,EXCEPT有启动时间
explain select distinct course_id from course where course_term = 'Fal02';
NOTICE:  QUERY PLAN:
Unique  (cost=12223.09..12339.76 rows=4667 width=4)
               -> Sort (cost=12223.09..12223.09 rows=46666 width=4)
               ->  Seq Scan on course  (cost=0.00..8279.99 rows=46666 width=4)

1.从下往上读
2.explain报告查询的操作,开启的消耗,查询总的消耗,访问的行数 访问的平均宽度
3.开启时间消耗是输出开始前的时间例如排序的时间
4.消耗包括磁盘检索页,cpu时间
5.注意,每一步的cost包括上一步的
6.重要的是,explain 不是真正的执行一次查询 只是得到查询执行的计划和估计的花费
7.索引有用条件 当满足特定条件的元组数小于总的数目

cost

(1)含义:这个计划节点的预计的启动开销和总开销
(2)描述:启动开销是指一个计划节点在返回结果之前花费的开销,如果是在一个排序节点里,那就是指执行排序花费的开销。 总开销是指一个计划节点从开始到运行完成,即所有可用行被检索完后,总共花费的开销。实际上,一个节点的父节点可能会在子节点返回一部分结果后,停止继续读取剩余的行,如Limit节点。

rows

(1)含义:这个计划节点的预计输出行数
(2)描述:在带有ANALYZE选项时,SQL语句会实际运行,这时一个计划节点的代价输出会包含两部分,前面部分是预计的代价,后面部分是实际的代价。前面部分中rows是指预计输出行数,后面部分是指实际输出行数。如果中间节点返回的数据量过大,最终返回的数据量很小,或许可以考虑将中间节点以下的查询修改成物化视图的形式。

width

(1)含义:这个计划节点返回行的预计平均宽度(以字节计算)
(2)描述:如果一个扫描节点返回行的平均宽度明显小于子节点返回行的平均宽度,说明从子节点读取的大部分数据是无用的,或许应该考虑一下调整SQL语句或表的相关设计,比如让执行计划尽量选择Index Only Scan,或者对表进行垂直拆分。

actual time

(1)含义:这个计划节点的实际启动时间和总运行时间
(2)描述:启动时间是指一个计划节点在返回第一行记录之前花费的时间。 总运行时间是指一个计划节点从开始到运行完成,即所有可用行被检索完后,总共花费的时间。

loops

(1)含义:这个计划节点的实际重启次数
(2)描述:如果一个计划节点在运行过程中,它的相关参数值(如绑定变量)发生了变化,就需要重新运行这个计划节点。

Filter

(1)含义:这个扫描节点的过滤条件
(2)描述:对于一个表的扫描节点,如果相关的条件表达式不能对应到表上的某个索引,可能需要分析一下具体的原因和影响,比如该表相关的字段在表达式中需要进行隐式类型转换,那么即使在该字段上存在索引,也不可能被使用到。如:((b.intcol)::numeric > 99.0)

Index Cond

(1)含义:这个索引扫描节点的索引匹配条件
(2)描述:说明用到了表上的某个索引。

Rows Removed by Filter

(1)含义:这个扫描节点通过过滤条件过滤掉的行数
(2)描述:如果一个扫描节点的实际输出行数明显小于通过过滤条件过滤掉的行数,说明这个计划节点在运行过程中的大量计算是无用的,或者说是没有实际产出的,那么这个SQL语句或者表的相关设计可能不是特别好。


http://www.niftyadmin.cn/n/135825.html

相关文章

Android程序自动在线升级安装

安卓小白分享: Android程序自动在线升级安装.(通过GetSharedDownloadsPath方法) 1>.修改AndroidManifest.template.xml ( 此文件在你DELPHI项目的目录中,如找不到就文件查找吧) 最好把此文件拖到DELPHI, 用DELPHI打开,(这样,它会一行一行格式清楚) 找到文字<%u…

因果推断12--dragonnet论文和代码学习

目录 论文 dragonnet 1介绍 2 Dragonnet 3定向正则化 4相关工作 5实验 6讨论 NN-Based的模型 dragonnet 如何更新参数 dragonnet的损失函数 CausalML Dragonnet类 论文代码 论文 dragonnet Adapting Neural Networks for the Estimation of Treatment Effects 应…

MQTT协议-心跳请求和心跳响应

MQTT协议-心跳请求和心跳响应 心跳请求是客户端发送给服务器的&#xff0c;心跳响应是服务器回应给客户端的 作用是保持客户端与服务器之间的连接 CONNECT报文的可变报头是由协议名&#xff08;Procotol Name&#xff09;协议级别&#xff08;Procotol Level&#xff09;连接…

关于Pytorch中的张量学习

关于Pytorch中的张量学习 张量的概念和创建 张量的概念 Tensor是pytorch中非常重要且常见的数据结构&#xff0c;相较于numpy数组&#xff0c;Tensor能加载到GPU中&#xff0c;从而有效地利用GPU进行加速计算。但是普通的Tensor对于构建神经网络还远远不够&#xff0c;我们需…

基于Spring Boot的学院教师职称评审系统

文章目录 项目介绍主要功能截图:登录首页评议信息专家评议统计教学机构通知信息个人中心参评人数统计部分代码展示设计总结项目获取方式🍅 作者主页:Java韩立 🍅 简介:Java领域优质创作者🏆、 简历模板、学习资料、面试题库【关注我,都给你】 🍅文末获取源码联系�…

如何为Keil安装version 5版本的ARM Compiler(Use default compliler version 5)

目录1. 为什么要安装version 5编译器2. 从原来MDK5.37以下版本(MDK536)的软件中提取AC5的编译器3. 解压完成后的文件如下图&#xff0c;打开ARM文件夹4. 将AMRCC文件夹拷贝到你的keil安装目录的AMR文件下5. 打开Keil&#xff0c;点击Project→Manage→Project Items&#xff0c…

Dynamics365 本地部署整体界面

昨天已经登陆上去了然后今天开机突然又登陆不上去了 具体原因也不知道 然后我把注册插件删除又重新下载结果还是登陆不上去于是返回之前的断点就可以登陆上去了重复昨天的操作这里就不截图了6、注册新步骤右键单击&#xff08;插件&#xff09;BasicPlugin.FollowUpPlugin&…

STM32的USART发送数据时如何使用TXE和TC标志

8人从A出发去D旅游的故事 STM32的USART发送数据时如何使用TXE和TC标志 TXE为1&#xff1a; TDR里的数据全部移到了移位寄存器&#xff0c;且没有新的数据TDR。 TXE为0&#xff1a; TDR里有数据&#xff0c;未空&#xff0c;则TXE0。 TC为1&#xff1a; 从TDR过来的数据全部被移…