参考链接
- https://spark.apache.org/docs/latest/sql-data-sources-jdbc.html
- https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.DataFrameWriter.jdbc.html
准备工作
- 下载 mysql / postgresql 驱动。
- 将 xxxconnector.jar 放到 spark/jars 下面(或者在代码中指定 jar 文件路径)
代码
- 初始化 spark 资源
from pyspark import SparkConf
from pyspark.sql import SparkSession
conf = SparkConf

本文详细介绍了如何使用Apache Spark通过JDBC连接MySQL和PostgreSQL数据库,包括两种读取方式及准备工作,适合Spark开发者快速上手数据导入操作。
最低0.47元/天 解锁文章
204

被折叠的 条评论
为什么被折叠?



