
spark
文章平均质量分 51
芹菜学长
一个p大点事儿都能发文章的人
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【Spark】spark使用jdbc连接带有kerberos认证的hive jdbc
使用spark jdbc API 访问带有kerberos的hive jdbc获取数据原创 2023-03-12 21:21:01 · 2156 阅读 · 1 评论 -
【Spark】Spark的DataFrame向Impala写入数据异常及源码解析
spark使用impala jdbc 写入数据会发生报错。原创 2023-03-05 02:44:53 · 1236 阅读 · 0 评论 -
【Spark】使用spark访问ali云hbase完全实践(增强版)
spark 访问云hbase原创 2022-09-06 01:22:51 · 1162 阅读 · 0 评论 -
【spark】join异常分析(逻辑问题)
spark join 数据表关系从多对一,变成了多对多原创 2022-08-17 13:35:17 · 955 阅读 · 0 评论 -
【Spark案例】本地访问cdh集群不将配置文件放入resource目录方式
【Spark案例】本地访问cdh集群不将配置文件放入resource目录方式背景故事今天我领导,他想用pyspark连接集群中的hive,作数据分析用。于是这变成了一个在本地集群中如何访问远程集群的问题。在python环境中使用pyspark构建sparkSession的过程当中,config参数选项里面配置了一个hive.metastore.uris的时候,sparkSession能够访问hive的数据库,及表信息。但是读取数据的时候会发生报错。问题分析在java中如果是maven构建的jav原创 2022-04-25 21:09:00 · 3567 阅读 · 0 评论 -
【Spark】SparkJdbc并发读取的partitionColumn规则
【Spark】SparkJdbc并发读取的partitionColumn规则参考: spark 官方文档使用spark的jdbc的方式读取数据的操作:方式1:spark.read.option(...).jdbc(url,table,properties)方式2:spark.fomat('jdbc').option(...).load()可以注意到,在spark通过jdbc读取数据时候是有一个option的选项的。本次主要讨论spark jdbc的多连接读取参数:partitionC原创 2022-03-28 23:16:38 · 3379 阅读 · 0 评论 -
spark sql截断小数做非四舍五入操作
spark sql截断小数做非四舍五入操作在开发过程当中,会遇到这样的一种情况。保留四位小数。比如这个图中,spark sql可以做到保留四位小数,但是这四位小数中的第五位是以四舍五入的方式进行进位的。最近遇到了一个业务场景,需要保留四位小数,但是第五位无论是多少都要进行舍弃,那么我们可以这样去做:* 现将这个数字扩大10000倍,然后在将这个数字进行向下取整数操作,然后将这个数除以10000。最后再转换为decimal(6,4) 保留四位精度小数。如上图所示:已经成功将temp转换为我们需要原创 2021-12-26 11:29:18 · 5780 阅读 · 0 评论 -
Spark Sql读取字符串json数组
Spark Sql读取字符串数组开门见山样例数据:造数sql:df:SELECT "[{'id':1,'name':'abc'},{'id':1,'name':'abc'}]" AS js+---------------------------------------------+|js |+---------------------------------------------+|[{'id':1,'原创 2021-10-27 00:17:23 · 9982 阅读 · 1 评论 -
2021-10-22 pyspark读取kudu表
pyspark 读取kudu表背景:有一个pyspark程序需要读取kudu表的数据。数据存储在kudu中,使用impala的话也不好读取kudu表中的数据—有一个kerberos认证的过程,阻碍了数据的读取。另外当前版本的hive是没有做针对kudu相关的配置。所以也无法使用hive去读取kudu表的数据。解决办法参考: kudu的官方文档针对spark读取kudu的方式:引入kudu-spark2_2.11,jarscala 可以通过maven的pom配置映入这个依赖包pyspark可原创 2021-10-25 16:17:36 · 1306 阅读 · 0 评论