Spark从hdfs下读取txt文件并保存到hdfs目录下

这篇博客演示了如何使用Spark从HDFS读取txt文件,通过flatMap和reduceByKey操作处理数据,然后将结果保存到另一个HDFS目录下。代码示例展示了SparkConf和SparkContext的使用,以及Spark任务的提交方式。

多说无益,先参考代码:

object File {
//文件读取
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setAppName(“File”).setMaster(“spark://IP地址:7077”)
val sc = new SparkContext(conf);
// 读取hdfs数据
val textFileRdd = sc.textFile(“hdfs://IP地址:9000/demo1/demo_vertice.txt”)
val fRdd = textFileRdd.flatMap { .split(" ") }
val mrdd = fRdd.map { (
, 1) }
val rbkrdd = mrdd.reduceByKey(+)
// 写入数据到hdfs系统
rbkrdd.saveAsTextFile(“hdfs://IP地址/demo2”)
}
}

将编译好的程序打成 jar 包,Build——Build Artifacts——build在这里插入图片描述

这样以后该程序就以jar包的形式存到本地文件夹内了,我用的是rz命令将此jar包上传到服务器上

在这里插入图片描述
最后spark-submit --master spark /home/wangyang/FirstSpark.jar 提交任务命令

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值