Spark读取小文件调优参数

Spark读取小文件调优参数

# 每个文件只有514B
hadoop fs -count /user/hive/warehouse/small_files_orc/date=20211024
1 16 8420 /user/hive/warehouse/small_files_orc/date=20211024

验证的代码:

package com.lambert.examples

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark
### 参数对比 #### Hive on Spark 参数设置 Hive on Spark 使用了 Hive 查询化器,这意味着许多配置项都继承自 Hive 配置文件 `hive-site.xml`。然而,由于最终执行是由 Spark 完成的,所以也允许整一些特定于 Spark 的属性。 - **资源分配** - 可以通过 `spark.executor.memory`, `spark.driver.memory` 来控制内存大小。 - 设置 `spark.executor.cores` 和 `spark.task.cpus` 控制CPU核心数[^1]。 - **并行度管理** - 利用 `spark.sql.shuffle.partitions` 设定Shuffle操作后的分区数量,默认值通常较低(如200),可以根据集群规模适当增加此数值以提高并发处理能力。 - **广播变量与缓存机制** - 对于小表可启用广播连接(`hive.auto.convert.join=true`),减少数据传输量。 - 合理利用持久化级别 (`persist()`, `cacheTable()` 方法) 将常用的数据集保存到内存中加快访问速度。 ```sql SET hive.execution.engine=spark; SET spark.sql.broadcastTimeout=600; -- 广播超时时间设为600秒 ``` #### Spark SQL 参数设定 Spark SQL 更加灵活地暴露了许多可以直接影响性能表现的关键参数: - **动态分区裁剪** - 开启选项 `spark.sql.hive.metastorePartitionPruning=true` 改善读取大宽表时的表现[^4]。 - **自动Broadcast Join阈值** - 修改 `spark.sql.autoBroadcastJoinThreshold` (单位字节),当右表小于该值会触发broadcast join而非shuffle hash join。 - **CBO(基于代价估算的化)** - 如果开启了统计信息收集,则可以通过 `spark.sql.cbo.enabled=true` 让查询计划更加智能化。 ```scala // Scala代码示例:修改Session级别的配置 val session = SparkSession.builder().appName("example").getOrCreate() session.conf.set("spark.sql.sources.partitionOverwriteMode", "dynamic") // 动态覆盖模式 ``` 尽管两者共享部分相似之处,但在某些方面还是有所区别的。例如,在Hive on Spark环境中更多依赖于Hive本身的特性来进行初步化,而Spark SQL则提供了更为丰富的内置手段供用户选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值