该方法不需要使用hdfs的配置文件??
import org.apache.hadoop.fs.{FSDataOutputStream, FileSystem, Path}
val filePath = new org.apache.hadoop.fs.Path(Path)
val fileSystem = filePath.getFileSystem(spark.sparkContext.hadoopConfiguration)
//判断该路径下的HDFS文件是否存在
fileSystem.exists(filePath)
本文介绍了一种不依赖HDFS配置文件的方法来实现文件的操作。通过使用Spark上下文中的Hadoop配置,可以创建文件系统的实例,并进一步判断指定路径下的HDFS文件是否存在。
1001

被折叠的 条评论
为什么被折叠?



