
spark
盒马coding
这个作者很懒,什么都没留下…
展开
-
spark SQL 执行过程
1、代码实现import org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkConf, SparkContext}//case class一定要放到外面case class Person(id: Int, name: String, age: Int)object InferringSchema { def原创 2016-11-05 14:54:29 · 2218 阅读 · 0 评论 -
Spark Streaming 通过NC运行日志
"F:\Program Files\Java\jdk1.7.0_15\bin\java" -Didea.launcher.port=7534 "-Didea.launcher.bin.path=F:\Program Files (x86)\JetBrains\IntelliJIDEASpark\bin" -Dfile.encoding=UTF-8 -classpath "F:\Program Fi原创 2017-02-20 10:16:06 · 1566 阅读 · 0 评论 -
PageRank 算法
package com.sdcetimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}/** * Created by Administrator on 2017/2/10. */object PageRank { def main(args: Array[Strin原创 2017-02-10 18:52:56 · 668 阅读 · 0 评论 -
微信红包算法研究
package com.galaxy.fym.algorithm.maxsublist;import java.math.BigDecimal;import java.util.*;/** * Created by fengyiming on 2017/2/17. * * @author fengyiming * 随机产生红包:金额正太分布 * *原创 2017-02-20 23:17:01 · 604 阅读 · 1 评论 -
spark SQL多表查询运行日志
"F:\Program Files\Java\jdk1.7.0_15\bin\java" -Didea.launcher.port=7532 "-Didea.launcher.bin.path=F:\Program Files (x86)\JetBrains\IntelliJIDEASpark\bin" -Dfile.encoding=UTF-8 -classpath "F:\Program Fi原创 2017-03-04 17:07:22 · 1195 阅读 · 0 评论 -
Spark SQL 常用操作
package sqlTextimport org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.sql.SQLContextimport org.apache.spark.sql.DataFrameimport org.apache.spark.sql.types.{StringType, StructFie原创 2017-03-04 18:34:38 · 1141 阅读 · 0 评论 -
Spark SQL 算子实例
package sqlTextimport org.apache.spark.rdd.RDDimport org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.sql.types.{StructType, IntegerType, St原创 2017-03-04 22:57:51 · 2761 阅读 · 2 评论 -
Spark 大数据处理技术
Spark 大数据处理技术整体架构图原创 2017-02-16 21:13:49 · 1901 阅读 · 0 评论 -
Spark快速大数据分析
Spark快速大数据分析原创 2017-02-27 09:07:43 · 519 阅读 · 0 评论 -
SparkRDDOperation.scala
package sparkExampleimport org.apache.log4j.{Level, Logger}import org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}/** * Created by xiaoxu */object SparkRDDOperation原创 2017-03-12 18:27:41 · 475 阅读 · 0 评论 -
Spark Streaming编程指南
原文来自于:http://blog.youkuaiyun.com/dabokele/article/details/52810573本文基于Spark Streaming Programming Guide原文翻译, 加上一些自己的理解和小实验的结果。 一、概述 Spark Streaming是基于Core Spark API的可扩展,高吞吐量,并具有容错能力的用转载 2017-02-20 09:28:06 · 868 阅读 · 0 评论 -
Spark Streaming中的操作函数分析
原文:http://blog.youkuaiyun.com/dabokele/article/details/52602412根据Spark官方文档中的描述,在Spark Streaming应用中,一个DStream对象可以调用多种操作,主要分为以下几类TransformationsWindow OperationsJoin OperationsOutput Operations转载 2017-02-19 22:54:47 · 381 阅读 · 0 评论 -
spark SQL 读取mysql中的数据日志分析
"F:\Program Files\Java\jdk1.7.0_15\bin\java" -Didea.launcher.port=7539 "-Didea.launcher.bin.path=F:\Program Files (x86)\JetBrains\IntelliJIDEASpark\bin" -Dfile.encoding=UTF-8 -classpath "F:\Program Fi原创 2016-11-05 17:21:16 · 1254 阅读 · 1 评论 -
spark-sql 集合hive查询数据执行日志
[root@hadoop1 spark]# spark-sql --master spark://hadoop1:7077,hadoop2:7077 --executor-memory 1g --total-executor-cores 2 --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.35-bin.jar l原创 2016-11-06 10:15:46 · 4160 阅读 · 0 评论 -
spark SQL 数据保存到MYSQL中的执行日志
"F:\Program Files\Java\jdk1.7.0_15\bin\java" -Didea.launcher.port=7534 "-Didea.launcher.bin.path=F:\Program Files (x86)\JetBrains\IntelliJIDEASpark\bin" -Dfile.encoding=UTF-8 -classpath "F:\Program Fi原创 2016-11-05 17:39:18 · 1400 阅读 · 0 评论 -
spark 读取mysql数据
import java.sql.DriverManagerimport org.apache.spark.rdd.JdbcRDDimport org.apache.spark.{SparkConf, SparkContext}object JdbcRDDDemo { def main(args: Array[String]) { System.setProperty("ha原创 2016-11-05 17:10:53 · 1364 阅读 · 0 评论 -
java调用spark的借口运行WordCount
"F:\Program Files\Java\jdk1.7.0_15\bin\java" -Didea.launcher.port=7533 "-Didea.launcher.bin.path=F:\Program Files (x86)\JetBrains\IntelliJIDEASpark\bin" -Dfile.encoding=UTF-8 -classpath "F:\Program Fi原创 2016-12-04 21:09:33 · 1283 阅读 · 0 评论 -
Spark 相似度算法
package com.sdcetimport org.apache.spark.{SparkConf, SparkContext}/** * Created by Administrator on 2017/2/16. */object TestColl { System.setProperty("hadoop.home.dir", "E:\\winutils-hadoop-原创 2017-02-16 17:21:01 · 4346 阅读 · 0 评论 -
推荐引擎系统结构
推荐引擎系统结构原创 2017-02-27 18:29:32 · 1033 阅读 · 0 评论 -
Spark-SQL 之DataFrame操作大全
package com.sdcetimport org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkConf, SparkContext}/** * Created by Administrator on 2017/2/18. */object JdbcText { def main(args: Arra原创 2017-02-18 19:56:47 · 1502 阅读 · 0 评论 -
Spark-SQL之DataFrame操作大全
原文来自于:http://blog.youkuaiyun.com/dabokele/article/details/52802150 Spark SQL中的DataFrame类似于一张关系型数据表。在关系型数据库中对单表或进行的查询操作,在DataFrame中都可以通过调用其API接口来实现。可以参考,Scala提供的DataFrame API。 本文中的代码基于Spark-转载 2017-02-18 19:59:26 · 1978 阅读 · 1 评论 -
Spark_Bench使用文档
Spark_Bench使用文档1. 什么是Spark-BenchSparkBench是Spark的基准测试组件(集成了很多spark支持的经典测试案列)。 它大致包含四种不同类型的测试案例,包括机器学习,图形处理,流处理和SQL查询。Spark-Bench所选择的测试案例可以,在不同的工作负载情况下测试出系统瓶颈; 目前,我们大致涵盖了CPU,内存和Shuffle以及IO密原创 2018-02-03 22:27:30 · 4222 阅读 · 1 评论