spark-shell示例

本文提供了一个使用Spark Shell操作数据的示例,包括从本地文件和HDFS读取数据。通过`sc.textFile()`方法,可以使用通配符加载多个文件或目录。例如,读取按日期和小时分区的HDFS数据,可以使用模糊匹配如`hr=*`来获取指定日期下所有小时的数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Scala 行数统计

命令及结果示例


# spark-shell
scala> val lines  = sc.textFile("README.md")
lines: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] at textFile at <console>:24


scala> lines.count()
res0: Long = 99


scala> lines.first()

res1: String = # Apache Spark


其中 README.md 默认是spark安装路径bin/下的README.md文件,多种读取方式,

1、本地文件:val lines =sc.textFile("file:///root/bus_info.txt")

还可以通过通配符的形式加载多个文件或者加载多个目录下面的所有文件

假设我的数据结构为先按天分区,再按小时分区的,在hdfs上的目录结构类似于:

/user/hdfs/input/dt=20130728/hr=00/

/user/hdfs/input/dt=20130728/hr=01/

...

/user/hdfs/input/dt=20130728/hr=23/

具体的数据都在hr等于某个时间的目录下面,现在我们要分析20130728这一天的数据,我们就必须把这个目录下面的所有hr=*的子目录下面的数据全部装载进RDD,于是我们可以这样写:sc.textFile("hdfs://n1:8020/user/hdfs/input/dt=20130728/hr=*/"),注意到hr=*,是一个模糊匹配的方式。


2、hdfs文件中读取:val lines2 =sc.textFile("hdfs://localhost:8082/user/spark/bus_info.txt")

### 如何使用 spark-shell 运行 Scala 代码 `spark-shell` 是 Apache Spark 提供的一个交互式 Scala Shell,用于快速测试和运行 Scala 代码[^1]。它允许用户在无需编译的情况下直接执行 Scala 脚本或命令。以下是关于如何使用 `spark-shell` 运行 Scala 代码的详细说明。 #### 启动 spark-shell 启动 `spark-shell` 的基本命令如下: ```bash spark-shell --master local[N] ``` 其中 `local[N]` 表示本地模式,并指定使用 N 个线程来模拟集群环境。如果未指定 `[N]`,默认值为 1[^1]。 #### 在 spark-shell 中运行 Scala 代码 启动后,用户可以直接在 `spark-shell` 提示符下输入 Scala 代码并立即查看结果。例如: ```scala val textFile = sc.textFile("hdfs://path/to/file") val wordCount = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _) wordCount.collect().foreach(println) ``` 上述代码从 HDFS 中读取文件,对每个单词进行计数,并打印结果[^1]。 #### 加载外部 Scala 文件 如果需要运行保存在文件中的 Scala 代码,可以使用 `:load` 命令加载文件。例如: ```bash :load /path/to/your/scala/file.scala ``` 这将执行文件中的所有代码[^2]。 #### 检查使用的 Scala 版本 不同的 Spark 版本支持不同的 Scala 版本。例如,Spark 3.3.2 使用的是 Scala 2.12.15,而 Spark 3.1.3 使用的是 Scala 2.12.10[^3]。可以通过以下命令检查当前 `spark-shell` 使用的 Scala 版本: ```scala scala.util.Properties.versionString ``` #### 示例代码 以下是一个简单的 Scala 程序,演示如何在 `spark-shell` 中计算包含特定字符的行数: ```scala val logFile = "file:///usr/local/spark-2.1.0/README.md" val sc = new org.apache.spark.SparkContext(new org.apache.spark.SparkConf().setAppName("Simple Application").setMaster("local")) val logData = sc.textFile(logFile, 2).cache() val numAs = logData.filter(line => line.contains("a")).count() val numBs = logData.filter(line => line.contains("b")).count() println(s"Lines with a: $numAs, Lines with b: $numBs") ``` 此代码片段读取本地文件,统计包含字符 `a` 和 `b` 的行数,并输出结果[^2]。 ### 注意事项 - 确保 Spark 环境已正确配置,包括 Hadoop 和其他依赖项。 - 如果需要访问 HDFS 文件,请确保 HDFS 集群可用,并提供正确的 URI。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值