dataFrame操作

package sparkSQL
import org.apache.spark.sql.{DataFrame, SparkSession}
/**
  * Created by sicong on 2017/3/9.
  */
object sparkKodo {
//
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().appName("Spark SQL Example").master("local[3]")
      .config("spark.some.config.option", "some-value")
      .getOrCreate()
    loggin(spark)
  }
  def loggin(sparkSession: SparkSession): Unit ={
    val df = sparkSession.read.json("/Users/sicong/Downloads/kodo-z1-req-io2016-12-11-00-00-26-b162d6nqdg60cgrca5tg.json")
    df.createOrReplaceTempView("people")

    val sqlDF = sparkSession.sql("SELECT path  FROM people")
    playbackurl(sqlDF)
  }
  def playbackurl(dataFrame: DataFrame): Unit ={
    println("================"+dataFrame.count())
    //meipai-live
        dataFrame.filter(x=>x.get(0).toString.split("/").length>2).filter(x=>x.get(0).toString.contains("meipai-live")&&x.get(0).toString.contains("m3u8")).foreach(x=>println(x))
    //    dataFrame.filter(x=>x.get(0).toString.split("/").length>2).filter(x=>jusu(x.get(0),"meipai-live","ts")).foreach(x=>println(x))
  }
  def jusu(x:Any,title:String,types:String):Boolean={
    try {
      val datFraments = x.toString.split("/")
      val hubFrament = datFraments(2).split("\\.").contains(title)
      val filetype = datFraments(datFraments.length - 1).split("\\.").contains(types)
      return datFraments.contains("fragments") && hubFrament && filetype
    }catch {
      case e: Exception => {
       println("===================="+x)
        return false
      }
    }
  }


}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值