
spark
文章平均质量分 71
润砾成珠
这个作者很懒,什么都没留下…
展开
-
Spark0.81安装
1.wget https://github.com/apache/incubator-spark/archive/v0.8.1-incubating.zip2.mvn -Dyarn.version=2.2.0 -Dhadoop.version=2.2.0 -Pnew-yarn -DskipTests package3.原创 2013-12-25 10:58:37 · 919 阅读 · 0 评论 -
Spark1.0.1集群部署
1. 前面都是在4台hadoop2.2集群,yi原创 2014-07-22 15:58:24 · 953 阅读 · 0 评论 -
Spark源码编译1.0.1
1. scala_home= /path/2.10.32. JAVA_HOME=/path/to/原创 2014-07-16 15:35:19 · 516 阅读 · 0 评论 -
Spark1.01运行例子以及问题解决
1. 直接下载编译好的 export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoopSPARK_JAR=./assembly/target/scala-2.10/spark-assembly_2.10-0.9.1-hadoop2.2.0.jar \./bin/spark-class org.apache.spark.depl原创 2014-07-21 17:28:24 · 1205 阅读 · 0 评论 -
SparkPageRank
1.读入参数构建sparkContext if (args.length < 1) { System.err.println("Usage: SparkPageRank ") System.exit(1) } val sparkConf = new SparkConf().setAppName("PageRank") val iters = if原创 2014-07-21 10:37:59 · 825 阅读 · 0 评论 -
SparkTC
1. 计算传递闭包(可到达路径数目)原创 2014-07-21 14:12:23 · 1280 阅读 · 0 评论 -
SimpleSkewedGroupByTest
1. spark 在做group可以做不对称de原创 2014-07-16 17:10:55 · 920 阅读 · 1 评论 -
MultiBroadcastTest
1. 能够val sparkConf = new SparkConf().setAppName("Multi-Broadcast Test") val sc = new SparkContext(sparkConf) val slices = if (args.length > 0) args(0).toInt else 2 val num = if (args.le原创 2014-07-16 16:27:32 · 474 阅读 · 0 评论 -
LogQuery
1. 正则表达式,匹配下面stringval apacheLogRegex = """^([\d.]+) (\S+) (\S+) \[([\w\d:/]+\s[+\-]\d{4})\] "(.+?)" (\d{3}) ([\d\-]+) "([^"]+)" "([^"]+)".*""".r原创 2014-07-16 16:14:57 · 874 阅读 · 0 评论 -
SparkKMeans
1. 读取每一行,按 def parseVector(line: String): Vector[Double] = { DenseVector(line.split(' ').map(_.toDouble)) }原创 2014-07-16 13:51:04 · 902 阅读 · 0 评论 -
LocalLR
1. 生成Arraydef generateData = { def generatePoint(i: Int) = { val y = if(i % 2 == 0) -1 else 1 val x = DenseVector.fill(D){rand.nextGaussian + y * R} DataPoint(x, y) } A原创 2014-07-15 20:27:03 · 560 阅读 · 0 评论 -
LocalKMeans
1. 随机生成N个 def generateData = { def generatePoint(i: Int) = { DenseVector.fill(D){rand.nextDouble * R} } Array.tabulate(N)(generatePoint) }原创 2014-07-15 20:19:24 · 732 阅读 · 0 评论 -
Spark 运行自带例子
1. 运行spark自带例子时遇到军原创 2014-05-07 15:18:51 · 5784 阅读 · 0 评论 -
Spark1.0.1sbt打包运行自己程序及问题解决
1.安装sbt并加入环境变量原创 2014-07-22 12:53:39 · 1077 阅读 · 0 评论