spark 读取ftp_SparkStreaming 的 Kafka SSL 证书读取问题

本文介绍了在SparkStreaming与Kafka作业中遇到的SSL证书读取失败的问题,详细分析了在local和yarn模式下证书路径配置的差异,并提供了两种解决方案:1) 使用`spark-submit`的`--files`参数配合相对路径;2) 在代码中使用`addFile`方法并处理不同模式下的工作目录。同时,文章还解释了`SparkFiles.get()`在不同模式下的行为,以及如何确保executor能够访问到证书文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在 SparkStreaming 和 kafka 作业开发时,遇到了 SSL 证书读取失败的错误,如图:

a0625ee7f089

可以看到,报错原因是 kafka 在初始化 consumer 时读取证书失败。kafka 的配置中有如下几个 SSL 相关配置:ssl.keystore.type

ssl.truststore.type

ssl.keystore.location

ssl.truststore.location

ssl.keystore.password

ssl.truststore.password

一般情况,如果在 local 模式下运行 spark 任务时,ssl.keystore.location(下文简称 SKL)和 ssl.truststore.location(下文简称 STL)填写本地路径即可。但是当以 yarn 模式下运行,填 HDFS 路径时就会报错,从错误栈中看出只能读取本地文件,因为最终调用 java.io.File...的接口。

解决办法如下:

1. 用命令行提交时,则用如下的命令:spark-submit --class xxx \

--files hdfs://xxx/,hdfs://xxx/ \

./xxx.jar

这个时候 STL 和 SKL 一定要填相对路径,因为--files 会把文件分发到每个 executor 的工作目录下,也就是每个 container 的目录下,换句话说就是当前的 distributed cache,所以此时的

spark 读取 linux sftp上的文本文件,原jar只支持josn,csv等,增加bcp,txt文件的支持 下面是例子: public static void main(String[] args) throws Exception { SparkConf conf = new SparkConf().setMaster("local").setAppName("SparkDataFrame"); JavaSparkContext javacontext = new JavaSparkContext(conf); SQLContext sqlContext = new SQLContext(javacontext); Dataset<Row> df = sqlContext.read(). format("com.springml.spark.sftp"). option("host", "192.168.1.3"). option("username", "root"). option("password", "111111"). option("fileType", "bcp"). load("/sparktest/sparkfile0.bcp"); /*List<Row> list = df.collectAsList(); for(Row row:list){ String[] words = new String(row.getString(0).getBytes(),0,row.getString(0).length(),"UTF-8").split(" ",-1); for(int i=0;i<words.length;i++){ System.out.println("words==="+words[i]); } }*/ JavaRDD<Row> rowRdd = df.javaRDD(); JavaRDD<Row> words_bcp= rowRdd.map(new Function<Row, Row>() { @Override public Row call(Row row) throws Exception { // TODO Auto-generated method stub String line = row.getString(0); String[] words = new String(line.getBytes(),0,line.getBytes().length,"utf-8").split(" ",-1); return RowFactory.create(words); } }); List<Row> list = words_bcp.collect(); for(Row row:list){ System.out.println("row1=="+row.getString(0)); } df.write().format("com.springml.spark.sftp"). option("host", "192.168.1.3"). option("username", "root"). option("password", "111111"). option("fileType", "bcp"). save("/sparktest/luozhao.bcp"); df.show(); javacontext.close(); }
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值