scala2.11知识总结 1

这篇博客总结了Scala 2.11版本中关于Tuple的重大变化,指出在Scala 2.10.4中由于限制,最多只能有22个属性,而在Scala 2.11中这一限制被放宽,允许处理更多列的数据,特别是在Spark中可以直接从数据库读取超过22列的数据。博主强调了这个改进对于大数据处理的重要性,并建议做相关笔记。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

object _22 {


  def main(args: Array[String]): Unit = {

    val _22 = new Tuple22(1, 2, 3, 4, 5, 6, 7, 8, 9, 10
      , 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22)

    print(_22)


//    Error:(19, 16) Implementation restriction: case classes cannot have more than 22 parameters.
//    case class Tuple23(i1: Int, i2: Int, i3: Int, i4: Int, i5: Int, i6: Int, i7: Int, i8: Int, i9: Int, i10: Int, i11: Int, i12: Int, i13: Int, i14: Int, i15: Int, i16: Int, i17: Int, i18: Int, i19: Int, i20: Int, i21: Int, i22: Int, i23: Int) {
    case class Tuple23(i1: Int, i2: Int, i3: Int, i4: Int, i5: Int, i6: Int, i7: Int, i8: Int, i9: Int, i10: Int, i11: Int, i12: Int, i13: Int, i14: Int, i15: Int, i16: Int, i17: Int, i18: Int, i19: Int, i20: Int, i21: Int, i22: Int, i23: Int) {
    }

    val _23 = new Tuple23(1, 2, 3, 4, 5, 6, 7, 8, 9, 10
      , 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23)
    print(_23)



  }

}
如上程序在scala2.10.4下会报错,因为版本原因,scala限制对象的属性最多为22个,也可自定义对象 extends Product23 
在scala2.11 中貌似取消了1~22的限定 现在spark可以直接重数据库中读取大于22列的数据了,做下笔记!!
 
 

                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值