青训营-Presto架构原理与优化介绍

本文探讨了大数据的发展背景,重点介绍了OLAP系统特别是Presto的概念、设计思想和基础原理,涵盖了多租户资源管理、任务调度、内存计算和多数据源联邦查询等关键机制,并提到了性能优化实践中的工具和技巧。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

7.1 概述

1.大数据与OLAP的演进

什么是大数据?大数据=大规模的数据量?

关于大数据这里我们参考马丁希尔伯特的总结:大数据其实是在2000年后,因为信息化的快速发展。信息交换、信息存储、信息处理三个方面能力的大幅增长而产生的数据。

image.png

Hadoop:基于廉价机器的存算分离的大规模分布式处理系统

1)谷歌在2003、2004年 发布Google File System论文、MapReduce论文。

2) 2008年,Hadoop成为apache顶级项目

➢OLAP(OnLine Analytical Processing)对业务数据执行多维分析,并提供复杂计算,趋势分析和复杂数据建模的能力。是许多商务智能(BI) 应用程序背后的技术。

➢OLAP VS MapReduce

1)MapReduce代表了抽象的物理执行模型,使用门槛较高

2)与Mapreduce Job相比,OL AP引擎常通过SQL的形式,为数据分析、数据开发人员提供统一的逻辑描述语言,实际的物理执行由具体的引擎进行转换和优化。

OLAP核心概念:维度、度量

image.png

➢常见的OLAP引擎:

预计算引擎: Kylin, Druid

批式处理引擎: Hive, Spark

流式处理引擎: Flink

交互式处理引擎: Presto, Clickhouse, Doris

2.Presto设计思想:

Presto 最初是由Facebo研发的构建于HopHDFPP系统之上的PB级交互式分析引擎,其具有如下的特点:

1)多租户任务的管理 与调度

2)多数据源联邦查询

3)支持内存化计算

4)Pipeline式数据处理

image.png

有很多公司也基于Presto进行了二次开发:

Prestodb: github.com/prestodb/pr…

Trino: github.com/trinodb/tri…

Openlookeng: github.com/openlookeng…

3.小结

1)介绍了大数据与OLAP系统的演进

2)带大家初步认识了Presto,了解Presto相关设计理念

7.2 Presto基础原理和概念

1.基础概念的介绍

基础概念介绍-服务相关

Coordinator:解析SQL语句、生成执行计划、分发执行任务给Worker节点

Worker、执行Task处理数据、与其他Worker交互传输数据

image.png

基础概念介绍-数据源相关

➢Connector:一个Connector代表一 种数据源。可以认为Connector是由Presto提供 的适配多数据源的统一接口。

➢Catalog:管理元信息与实际数据的映射关系。

image.png

基础概念介绍-Query相关

➢Query:基于SQL parser后获得的执行计划

➢Stage:根据是否需要shuffle将Query拆分成不同的subplan,每一个subplan便是一个 stage

➢Fragment:基本等价于Stage,属于在不同阶段的称呼,在本门课程可以认为两者等价

➢Task:单个Worker节点上的最小资源管理单元:在一个节点上, -个Stage只有一个Task,一个Query可能有多个Task

➢Pipeline:Stage按照LocalExchange切分为若干Operator集合,每个Operator集合定义一个Pipeline.

➢Driver:Pipeline的可执行实体,Pipeline和Driver的关系可类比程序和进程,是最小的执行单元,通过火山迭代模型执行每一个Operator.

➢Split:输入数据描述(数据实体是Page),数量上和Driver一对应,不仅代表实际数据源split,也代表了不同stage间传输的数据。

➢Operator:最小的物理算子。

image.png

基础概念介绍-数据传输相关

➢Exchange & LocalExchange; Exchange:表示不同Stage间的数据传输,大多数意义下等价于Shufle

LocalExchange:Stage 内的rehash操作,常用于提高并行处理数据的能力(Task在Presto中只是最小的容器,而不是最小的执行单元)

LocalExchange的默认数值是16。

image.png

多租户下的任务调度-数据传输相关

Q;如何衡量某个任务某个Stage的真实并行度?

A:在不同pipeline下split(driver)的数目之和

image.png

image.png

2.核心组件架构介绍

Presto架构图

image.png

核心组件架构介绍-服务发现

Discovery Service:

1) Worker配置文件配置Discovery Service地址

2) Worker节点启动后会向Discovery Service注册

3) Coordiantor从Discovery Service获取Worker的地址

image.png

核心组件架构介绍-通信机制

➢通信机制 1) Presto Client I JDBC Client 与Server间通信:Http

2) Coordinator 与Worker间的通信:Thrift/ Http

3) Worker与Worker间的通信:Thrift/ Http

➢Http 1.1 VS Thrift

Thrift具有更好的数据编码能力,Http 1.1还不支持头部信息的压缩,Thrift 具有更好的数据压缩率

节点状态:

1)ACTIVE

2)INACTIVE

3)SHUTDOWN

SHUTDOWN状态的作用是什么?

➢Graceful shutdown(优雅的扩缩容):

image.png

小结:

1)从服务、数据源、Query、数据传输四个角度,介绍了Presto相关的基础概念服务、数据源、Query、 数据传输包含哪些基本概念?如何衡量一个任务的并行度(Task 并不是最小的执行单元)

2)通过服务发现、通信机制、节点状态三方面介绍了Coordinator与Worker是如何协调和工作的

7.3 Presto重要机制

1.多租户资源管理

Case介绍

假设某个用户提交一个sql:

提交方式: Presto-cli

提交用户: zhangyanbing

提交SQL: select customer_type, avg(cost) as a from test_table group by customer_type order by a limit 10;

Resource Group

类似Yarn多级队列的资源管理方式

基于CPU、MEMORY、SQL执行数进行资源使用量限制

image.png

image.png

image.png

优点:轻量的Query级别的多级队列资源管理模式

缺点:存在一定滞后性,只会对Group 中正在运行的SQL进行判断

2.多租户下的任务调度

物理计划生成

提交SQL: select customer_type, avg(cost) as a from test_table group by customer_type order by a limit 10;

  1. Antlr4解析生成AST

2)转换成Logical Plan

3)按照是否存在Shuffle (Exchange) ,切分成不同的Stage (Fragment)

image.png

Stage调度

AllAtOnceExecutionPolicy-同时调度

PhasedExecutionPolicy-分阶段调度

➢PhasedExecutionPolicy:不代表每个stage都分开调度

典型的应用场景(join查询)

Build 端:右表构建用户join的hashtable

Probe 端:对用户左表数据进行探查,需要等待build端完成

Build 端构建hashtable端时,probe 端是一直在空跑的

image.png

调度策略:

AllAtOnceExecutionPolicy-延迟点,会存在任务空跑

PhasedExecutionPolicy-有一定延迟、节省部分资源

Task调度

task的数量如何确定?

Source :根据数据meta决定分配多少个节点

Fixed: hash partition count确定,如集群节点数量

Sink:汇聚结果,一台机器

Scaled:无分区限制,可拓展,如write数据

Coordinator_Only: 只需要coordinator参与

image.png

选择什么样的节点(调度方式有哪些)

➢HARD_ AFFINITY:计算、存储Local模式,保障计算与存储在同一个节点,减少数据传输

➢SOFT AFFINITY:基于某些特定算法,如一致性HASH函数,常用于缓存场景,保证相似的Task调度到同一个Worker

➢NO_ PREFERENCE:随机选取,常用于普通的纯计算Task

Split调度

Query A大SQL先提交

Query B小SQL后提交

是否应该等Query A执行完了再执行Query B?

FIFO顺序执行,绝对公平

优先级调度:快速响应

1)按照固定的时间片,轮训Split处理数据,处理1s,再重新选择一个Split执行

2) Split 间存在优先级

MultilevelSplitQueue

5个优先级level理论.上分配的时间占比为16:8:4:2:1 (2-based)

优势:

1)优先保证小Query快速执行

2)保障大Query存在固定比例的时间片,不会被完全饿死

3.内存计算

Pipeline化的数据处理

Pipeline(按LocalExchange拆分):

Pipeline的引入更好的实现算子间的并行

语义上保证了每个Task内的数据流式处理

image.png

Back Pressure Mechanism

控制split生成流程

控制operator的执行

1) targetConcurrency auto-scale-out定时检查,如果OutputBuffers使用率低于0.5 (下游消费较快需要提高生产速度),并发度+1

2) "sink.max buffer- size"写入buffer的大小控制"exchange.max buffer size"读取buffer的大小控制

达到最大值时Operator会进入阻塞状态

4.多数据源联邦查询

将各个数据源进行统一的抽象,最后由presto sever进行统一的物理执行

image.png

局限性:

1)元数据管理与映射(每个connector管理一套元数据服务)

2)谓词下推

3)数据源分片

小结:

展开介绍了如下的Presto重要机制:

1)多租户资源管理

2)多租户任务调度

3)内存计算

4)多数据源联邦查询

7.4 性能优化实践

1.常用性能分析工具

Grafana:埋点、系统指标如CPU、内存、网络等的可视化界面,时序化的数据显示

image.png

image.png

JAVA相关指令

Jstack查看Java线程栈信息,排查是否有死锁,或者异常线程存在

JMX(Java Management Extensions)是一个为应用程序植入管理功能的框架,常用来做一些监控指标的统计收集

JMAP & GC日志等等内存分析工具

image.png

image.png

线上问题排查工具

Arthas:Watch,Trace...

image.png

image.png

Flame Figure/火焰图

用于分析热点代码占用大量CPU,从而导致服务性能下降的情况。如下图,自底向上为调用关系。上层宽度越宽表示当前函数 CPU耗时越久,我们关注最宽的函数调用。

image.png

Presto UI

Query级别统计信息

Logical plan

Stage、Task 信息

Worker状态信息

image.png

3.字节内部优化实战

这个错误是由于无法连接到本地主机的10248端口导致的。这个端口通常是kubelet进程监听的端口,用于健康检查。出现这个错误可能是由于kubelet进程没有正确启动或者配置错误导致的。 解决这个问题的方法是检查kubelet进程的状态和配置。你可以按照以下步骤进行操作: 1. 检查kubelet进程是否正在运行。你可以使用以下命令检查kubelet进程的状态: ```shell systemctl status kubelet ``` 如果kubelet进程没有运行,你可以使用以下命令启动它: ```shell systemctl start kubelet ``` 2. 检查kubelet的配置文件。你可以使用以下命令查看kubelet的配置文件路径: ```shell kubelet --kubeconfig /etc/kubernetes/kubelet.conf --config /var/lib/kubelet/config.yaml --bootstrap-kubeconfig /etc/kubernetes/bootstrap-kubelet.conf config view ``` 确保配置文件中的端口号和地址正确,并且你的环境相匹配。 3. 检查网络连接。你可以使用以下命令检查是否可以连接到localhost的10248端口: ```shell curl -sSL http://localhost:10248/healthz ``` 如果无法连接,请确保端口没有被防火墙或其他网络配置阻止。 4. 检查docker的配置。有时候,kubelet进程依赖于docker进程。你可以按照以下步骤检查docker的配置: - 创建/etc/docker目录: ```shell sudo mkdir /etc/docker ``` - 编辑/etc/docker/daemon.json文件,并添加以下内容: ```json { "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "storage-driver": "overlay2", "storage-opts": [ "overlay2.override_kernel_check=true" ], "registry-mirrors": ["https://tdhp06eh.mirror.aliyuncs.com"] } ``` - 重启docker进程: ```shell systemctl restart docker ``` 请注意,以上步骤是一种常见的解决方法,但具体解决方法可能因环境而异。如果以上步骤无法解决问题,请提供更多的错误信息和环境配置,以便我们能够更好地帮助你。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值