当前位置: 首页 > article >正文

PostgreSQL技术内幕7:PostgreSQL查询编译

文章目录

    • 0.简介
    • 1.整体过程
    • 2.查询分析
      • 2.1 Lex
      • 2.2 Yacc
      • 2.3 PG词法分析和语法分析介绍
      • 2.4 PG语义分析
    • 4.查询优化
      • 4.1 预处理
        • 4.1.1 提升子链接和子查询
        • 4.1.2 预处理表达式
        • 4.1.3 处理HAVING子句
      • 4.2 改进查询树
        • 4.2.1 路径生成
        • 4.2.2 代价估计
      • 4.3 计划生成

0.简介

一次完整的SQL执行包含两大部分,一个是查询编译涉及到的内容较多,整体分为查询分析,查询重写和查询优化。结束后交给执行器其进行编译的执行,本节将整体介绍一次查询的流程以及详细分析PG查询编译的三个步骤。

1.整体过程

先看一次常规的查询流程,收到查询语句后经过解析器和转换器,得到相应的关系代数表达式,然后经过优化器得到最后的执行计划,最后执行后输出结果。
在这里插入图片描述
对于PG,后台的backend收到命令后,首先会调用查询分析模块,然后根据命令类型来做处理,如果是创建表,创建用户这种会直接发送给功能性命令处理模块处理,如果是select,insert等,则需要构建查询树,然后进行查询重写和查询优化,然后交给执行器执行。
在这里插入图片描述
代码调用流程如下:


exec_simple_query
    ->pg_parse_query
        ->raw_parser
    ->pg_analyze_and_rewrite
        ->parse_analyze
        ->pg_rewrite_query
    ->pg_plan_querie

在这里插入图片描述
代码目录结构如下:
在这里插入图片描述

2.查询分析

查询分析包含词法分析,语法分析以及语义分析三部分。PG使用Lex与Yacc实现词法分析和语法分析。一条SQL语句在函数pg_parse_query中经过词法分析和语法分析得到解析树(PG中的Query结构)。

2.1 Lex

Lex 即为 Lexical Analyzar,是一种生成扫描器的工具。扫描器是一种识别文本中的词汇模式的程序。这些词汇模式(或者常规表达式)在一种特殊的句子结构中定义。定义了正则表达式匹配规则的Lex文件(后缀名为".l")可以转换为为C语言源代码文件。一个Lex文件分为三段,各段之间使用"%%"分隔:

1)定义段:包含任意的C语言头文件、符号说明等,这部分会被直接拷贝到生成文件当中;

2)规则段:正则表达式的匹配规则,每当成功匹配一个模式,就对应其后"{}"中的代码;

3)代码段:可以是任意的C语言代码,但是必须要调用Lex提供的函数,因为这里是Lex的入口函数,完成实际的分析功能。
一个例子:


//字数统计
%{
        int wordCount = 0;
        %}
        chars [A-za-z\_\'\.\"]
        numbers ([0-9])+
        delim [" "\n\t]
        whitespace {delim}+
        words {chars}+
        %%

2.2 Yacc

Yacc 即为 Yet Another Compiler Compiler。其 GNU 版叫做 Bison。它是一种工具,将任何一种编程语言的所有语法翻译成针对此种语言的 Yacc 语 法解析器。它用巴科斯范式(BNF, Backus Naur Form)来书写。Yacc 文件一般带有 .y 后缀。其也分为三个段,段之间使用%%分隔。
1)定义段:可以是C代码,包含头文件以及函数声明,同时也可以定义Yacc的内部标志等;
2)规则段:语法规则,每当成功匹配一个语法后,就对应其后面"{}“中的代码。其中”$$“标识语法表达式中左边结构的值(类似左值),而”$1"表示语法表达式右边结构第一个标识符对应的值,以此类推;

3)代码段:包含C代码,同样地也必须包含一些Yacc函数和Lex传递给Yacc的变量。
一个例子:


%
        typedef char* string;
        #define YYSTYPE string
        %}
        %token NAME EQ AGE
        %%
        file : record file
        | record
        ;
        record : NAME EQ AGE {
        printf("%s is %s years old!!!\n", $1, $3); }
        ;
        %%
        int main()
        {
        yyparse();
        return 0;
        }
        int yyerror(char *msg)
        {
        printf("Error
        encountered: %s \n", msg);
        }

2.3 PG词法分析和语法分析介绍

  1. kwlist.h: 声明keyword列表。可以简单看几个

PG_KEYWORD("copy", COPY, UNRESERVED_KEYWORD)
PG_KEYWORD("cost", COST, UNRESERVED_KEYWORD)
PG_KEYWORD("create", CREATE, RESERVED_KEYWORD)
PG_KEYWORD("cross", CROSS, TYPE_FUNC_NAME_KEYWORD)
PG_KEYWORD("csv", CSV, UNRESERVED_KEYWORD)

2)keywords.c: 定义ScanKeywordLookup函数实现,通过二分查找输入是否为关键字,如果为关键字,返回指针,不是则返回NULL(这依赖于上面的kwlist中声明是有序的)。


const ScanKeyword *
ScanKeywordLookup(const char *text,
          const ScanKeyword *keywords,
          int num_keywords)
{
  int      len,
        i;
  char    word[NAMEDATALEN];
  const ScanKeyword *low;
  const ScanKeyword *high;

  len = strlen(text);
  /* We assume all keywords are shorter than NAMEDATALEN. */
  if (len >= NAMEDATALEN)
    return NULL;

  /*
   * Apply an ASCII-only downcasing.  We must not use tolower() since it may
   * produce the wrong translation in some locales (eg, Turkish).
   */
  for (i = 0; i < len; i++)
  {
    char    ch = text[i];

    if (ch >= 'A' && ch <= 'Z')
      ch += 'a' - 'A';
    word[i] = ch;
  }
  word[len] = '\0';

  /*
   * Now do a binary search using plain strcmp() comparison.
   */
  low = keywords;
  high = keywords + (num_keywords - 1);
  while (low <= high)
  {
    const ScanKeyword *middle;
    int      difference;

    middle = low + (high - low) / 2;
    difference = strcmp(middle->name, word);
    if (difference == 0)
      return middle;
    else if (difference < 0)
      low = middle + 1;
    else
      high = middle - 1;
  }

  return NULL;
}

3)scansup.c:实现词法分析时常见的函数。
4) scan.l:Lex文件,通过编译编译生成scan.c。
5) gram.y:Yacc文件,通过编译生成gram.c。
6)check_keywords.pl: 检查在gram.y和kwlist.h中定义的关键字列表一致性
7)parser.c: 解析的入口,定义raw_parser函数
通过以上文件处理raw_parser会返回一个List ,也就是为每个SQL命令都返回一个解析树。

2.4 PG语义分析

语义分析会检查命令中是否包含不符合语义规定的元素,如表和字段是否存在,函数是否可用。因此语义分析需要访问到数据库中的系统表,从而获得查询表的OID以及查询字段的属性等。
语义分析的入口函数是pg_analyze_and_rewrite,其将词法分析与语法分析处理后得到的parsetree_list中的每棵树都进行语义分析与重写。其中负责语义分析的函数为parse_analyze,该函数对parse_tree进行语法分析并转换为一棵查询树(以Query结点的形式存在)。parse_tree函数中涉及的两个重要的结构体分别为Query和ParseState,其中Query用于存储查询树而ParseState则用于存储语义分析的中间信息,比如是否是子查询,查询涉及的表等,结构如下。Query的生成可以参考transformSelectStmt()的流程,解析SelectStmt结构生成一个查询树,将其各部分挨个分析填入Query。


typedef struct Query
{
  NodeTag    type;

  CmdType    commandType;  /* select|insert|update|delete|utility */

  QuerySource querySource;  /* where did I come from? */

  uint64    queryId;    /* query identifier (can be set by plugins) */

  bool    canSetTag;    /* do I set the command result tag? */

  Node     *utilityStmt;  /* non-null if commandType == CMD_UTILITY */

  int      resultRelation; /* rtable index of target relation for
                 * INSERT/UPDATE/DELETE; 0 for SELECT */
  ..........             /* other */
  int      stmt_location;  /* start location, or -1 if unknown */
  int      stmt_len;    /* length in bytes; 0 means "rest of string" */
} Query;

struct ParseState
{
  struct ParseState *parentParseState;  /* stack link */
  const char *p_sourcetext;  /* source text, or NULL if not available */
  List     *p_rtable;    /* range table so far */
  List     *p_joinexprs;  /* JoinExprs for RTE_JOIN p_rtable entries */
  List     *p_joinlist;    /* join items so far (will become FromExpr
                 * node's fromlist) */
  List     *p_namespace;  /* currently-referenceable RTEs (List of
                 * ParseNamespaceItem) */
  bool    p_lateral_active;  /* p_lateral_only items visible? */
  ......                     /* other*/
}

3.查询重写

从整体流程中我们已经知道,PG会对完成查询分析的非功能性的语句进行查询重写。查询重写是根据规则来进行的,其规则存储在pg_rewrite表中。


select rulename,ev_enabled,ev_type from pg_rewrite;

在这里插入图片描述
各个字段含义介绍:
在这里插入图片描述
可以认为一条规则(pg_rewrite的一个元组)是在目标表(ev_class)上执行符合条件(ev_qual)的特定动作(ev_type)时,将用规则动作(ev_action)代替原始的动作或者将规则的动作附加在原始命令之前或之后。
PG中规则分为两类:

1)ev_type:可以分为SELECT,UPDATE,INSERT,DELETE;

2)is_instead:INSTEAD(true)或ALSO(false)
根据需要来进行不同元组的创建就可以创建不同的重写规则,这也体现了PG的扩展性。

4.查询优化

查询优化分为三个步骤:1.预处理,处理查询树,主要是提升子链接和子查询以及having子句等;2.根据改进的查询树,利用特定算法来生成最优连接路径和候选路径列表;3.根据最优路径,先生成基本查询计划,然后group by和having等子句的计划节点,生成最后的计划。
查询计划的入口函数是pg_plan_queries,调用关系如下:

exec_simple_query
    ->pg_plan_queries
        ->pg_plan_query
            ->planner
                ->standard_planner
                    ->subquery_planner
                        // 预处理
                        ->preprocess_xxx
                        ->pull_up_sublinks
                        ->pull_up_subqueries
                        // 生成计划树
                        ->grouping_planner
                            ->query_planner
                ->SS_finalize_plan

4.1 预处理

预处理阶段时主要负责消除冗余条件,减少递归层数(通过提升子链接与子查询实现)以及简化路径生成等。

4.1.1 提升子链接和子查询

子链接和子查询的区别:子查询是一条完整的查询语句,而子链接是一条表达式,但是表达式内部也可以包含查询语句。也就是说,子查询是放在FROM子句里的而子链接则出现在WHERE子句或者HAVING子句中。PG支持嵌套查询的SQL写法,即FROM子句中可以包含一个SELECT查询语句。原始执行下,会先执行子查询(内部),再执行父查询。但将子查询提升后,可以与父查询共同优化,从而提高查询的效率。
提升子链接的入口函数是pull_up_sublinks,其内部会调用pull_up_sublinks_jointree_recurse函数递归地处理jointree,然后调用pull_up_sublinks_qual_recurse处理约束条件。

提升子查询的入口函数是pull_up_subqueries,其内部会调用pull_up_subqueries_recurse函数递归地处理子查询。提升子查询分为三种情况处理:
1)范围表存在子查询。如果是简单的子查询,那么调用函数pull_up_simple_subquery直接提升,而如果是简单的UNION ALL子查询,那么调用pull_up_simple_union_all直接提升;
2)FROM表达式存在子查询。调用pull_up_subqueries_recurse进行递归处理;
3)连接表达式中的子查询。调用pull_up_subqueries_recurse进行递归处理。

4.1.2 预处理表达式

表达式可以是一个目标链表,一个WHERE语句,一个HAVING谓语或者一些其它的东西。在PG中表达式的预处理由函数preprocess_expression完成,其主要作用是:
1)连接别名使用基本关系变量替换;
2)简化常量表达式;
3)规范表达式内容;
4)将子链接转化为子计划,该转换通过函数make_subplan实现。

4.1.3 处理HAVING子句

对于HAVING子句来说,除了进行前面所提到的预处理外,还需要处理其中的每个条件。如果HAVING子句中没有聚集函数的话,那么它完全可以退化到WHERE子句中去,否则的话它将被写到查询树的HavingQual字段里面。

4.2 改进查询树

4.2.1 路径生成

生成路径工作由函数query_planner来完成,整体流程如下:
在这里插入图片描述
因为单表有多种访问方式(索引访问,顺序访问等)、表和表直接有着多种连接方式和连接顺序,所以就算基本表一致,但最后访问最终表的路径可能有着多种,所以优化器考虑了所有可能的路径,并选择最优路径来生成查询执行计划。PG中生成执行计划的算法是动态规划(小规模优化)与遗传算法(大规模优化):
1)动态规划:在PG中,使用动态规划获得最优路径,主要分为三步:1. 初始化,为每个基本表生成访问路径;2. 状态传递,从基本表开始向前生成连接表与计算该连接表路径需要的代价,并保留其中代价评估最优的路径;3. 传递到最后表时,选出其中最优的路径。保留的路径需要满足以下条件:启动代价最小;总执行代价最小;路径的输出排序键。
2)遗传算法:当表格的数量过多时,遍历所有的表需要消耗大量的时间和内存空间。因此,PG提供了遗传算法来减少需要遍历的路径,从而提高查找路径的效率。不过遗传算法只能找到一个准最优的路径。

4.2.2 代价估计

路径的效率与其在执行过程中需要的CPU时间以及磁盘存取非常相关,因此PG在文件"src/backend/optimizer/path/costsize.c"中定义了一些关于磁盘I/O以及CPU的估算代价:
seq_page_cost:顺寻存取页的代价,值为1.0。
random_page_cost:非顺序存取页的代价,值为4.0。
cpu_tuple_cost:典型的CPU处理一个元组的代价,值为0.01。
cpu_index_tuple_cost:典型的CPU处理一个索引元组的代价,值为0.005。
cpu_operator_cost:CPU处理一个典型的WHERE操作的代价,值为0.0025。
effective_cache_size:用来度量PG和OS缓存的磁盘页的数量,值为16384
一条路径的代价与磁盘中存储的元组数量及元组占用的页数相关,其估计路径代价的步骤主要如下:1. 根据统计信息与查询条件估算本次查询需要的I/O次数以及获取的元组个数,并得到估算的磁盘代价;2. 根据元组数量计算需要的CPU代价;3. 综合考虑磁盘代价与CPU代价。

4.3 计划生成

在得到最优路径后,规划器会根据该路径生成对应的计划。PG中生成计划的代码文件是"backend/optimizer/plan/createplan.c",其提供的入口函数是create_plan,里面包含了顺序扫描,采样扫描,索引扫描,TID扫描等计划的生成。


http://www.kler.cn/news/292606.html

相关文章:

  • SpringBoot 消息队列RabbitMQ Work模型 绑定多个消费者 负载均衡 消息处理速度
  • 学习记录:js算法(二十五):合并两个有序链表
  • Power Automate向Power Apps传Table数据
  • C++项目引入开源库bit7z
  • ARM SIMD instruction -- movi
  • ccfcsp-202209(1、2、3)
  • Kafka【十一】数据一致性与高水位(HW :High Watermark)机制
  • 企业财务流程优化的财税自动化解决方案
  • Python知识点:如何使用Pytest进行单元测试
  • JVM系列(十) -垃圾收集器介绍
  • OpenObserve云原生可观测平台本地Docker部署与远程访问实战教程
  • KDD2024参会笔记-Day1
  • Core ML
  • 基于.NET6的WPF基础总结(上)
  • CSS学习9
  • RPC框架-RMI
  • OpenHarmony应用开发( Beta5版)利用native方式实现跨线程调用最佳实践
  • nvidia-cuda-tensorrt-cudnn下载网站
  • 【golang】使用container/heap官方包实现一个优先队列
  • 鼠标在虚拟机virtualbox里面不显示/消失,如何解决?
  • Stable Diffusion训练LoRA模型参数详细说明(阿里巴巴堆友AI)
  • List、Set、Map中的方法使用、Stream流、Collections工具类
  • 如何使用 Lua 脚本进行更复杂的网络请求,比如 POST 请求?
  • 一个开源、注重隐私且支持自托管的网站分析工具
  • 数据结构 哈希表 五大排序算法 二分查找(折半查找)
  • GitHub精选|8 个强大工具,助力你的开发和探究工作
  • Android studio 导出 release 版本的 .aar 文件
  • PyTorch 创建数据集
  • 相机检查内参 外参
  • Github Codespaces Cmake项目使用