安装配置IntelliJ IDEA

该博客主要涉及IntelliJ IDEA的配置内容,虽未给出具体配置信息,但明确指向了IntelliJ IDEA这一开发工具的配置相关,属于信息技术领域开发工具范畴。
##参考资料:
https://blog.youkuaiyun.com/Haidaiya/article/details/81230636
https://www.cnblogs.com/yjmyzz/p/4694219.html
https://my.oschina.net/u/3825598/blog/1789861
https://www.jianshu.com/p/160cefd354a2

具体步骤如下:
1、安装IntelliJ IDEA 
2、安装Java SKD
3、安装Scala
4、添加配置文件,如hadoop-common-2.6.0-bin-master.zip等
5、测试HelloWorld代码demo

//demo one

package com.xx.HelloWorld


object Test {
  def sum(args: Int*) = {
    var result = 0
    for (arg <- args) result += arg
    result
       }

  def main(args: Array[String]) {
    val mylist = List(1,2,3,4,5)

    println("Final Results: " + sum(mylist: _*))

  }
}
//demo two
package com.xx.feature_engineer

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._

object demo {
  def main(args: Array[String]) {
    val sparkConf = new SparkConf().setAppName("ReadData").setMaster("local").set("spark.sql.warehouse.dir", "file:///C:/Users/username/IdeaProjects/spark_demo/spark-warehouse")
    val sparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    val input_path = "D:/spark_data/datatypes.csv"
    val colTypes = sparkSession.sqlContext.read.format("csv")
                                           .option("sep", ",")
                                           .option("inferSchema", "false")
                                           .option("header", "true")
                                           .load(input_path)

    //println(colTypes.printSchema)
    println("*******************************")
    //println(colTypes.show)

    val df = sparkSession.sqlContext.read.format("csv")
      .option("sep", ",")
      .option("inferSchema", "false")
      .option("header", "true")
      .load("D:/spark_data/train.csv")

    val typeMap = colTypes.rdd.collect().map(line => (line.getString(0) -> line.getString(1))).toMap
    val cols = df.columns.map{f=> if(typeMap.getOrElse(f,"")=="continuous") col(f).cast(IntegerType) else col(f)}
    val results = df.select(cols: _*)
    results.dtypes.map{line=>println(line)}

    sparkSession.stop()

  }
}

转载于:https://my.oschina.net/kyo4321/blog/3064355

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值