Tuple,Array,Map,文件操作

本文介绍了Scala语言中的基本数据结构,包括Tuple(元组)、Array(数组)和Map(映射),并通过示例代码展示了如何使用这些数据类型。此外,还提供了文件读取的基本方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • Tuple是一个元组:

1,)一组元组中支持多个元素;

2,)一组元组中可以包含不同类型的元素;

3,)返回下标从_1开始。

  • Array 数组

var items=Array(1,2,3,4)

  • Map key,value的方式

val ages=Map("hadoop"->9,"Spark"->5)

  • 文件的操作方法

Source.fromFile("c:\test.txt")

 1 package com.dtgroup.study
 2 import scala.io.Source
 3 
 4 object TupleArrayMapFile {
 5   def main(arg: Array[String]): Unit = {
 6     // Tuple
 7     var tuple = (1, "hadoop", "spark")
 8     println(tuple._1)
 9     println(tuple._2)
10     println(tuple._3)
11 
12     // Array
13     var items = Array(1, 2, 3)
14     for (i <- 0 until items.length) println(items(i))
15 
16     for (item <- items) println(item)
17 
18     // Map
19     var maps = Map("spark" -> 5, "hadoop" -> 8)
20     println(maps("spark"))
21     println(maps("hadoop"))
22 
23     for ((k, v) <- maps) println("k:" + k + ",v:" + v)
24     for ((k, _) <- maps) println("k:" + k)
25 
26     // file operator
27     var file = Source.fromFile("d:\\spark.txt")
28     for (line <- file.getLines()) println(line)
29   }
30 }

备注:

1,)Map中的key,value都是一些元组;

2,)for((k,_)<-maps) 这里的_是一个占位符,不可以取出该值;

打印结果为:

1
hadoop
spark
1
2
3
1
2
3
5
8
k:spark,v:5
k:hadoop,v:8
k:spark
k:hadoop
spark starting
....
spark running...
....
....

转载于:https://www.cnblogs.com/yy3b2007com/p/4970230.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值