Apache Spark集成

本文介绍如何使用Apache Spark与Elasticsearch进行数据交互,包括写入和读取数据的具体步骤及代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Apache Spark集成

 

本文档在ES与 Hadoop集群安装成功条件下,参照:

https://www.elastic.co/guide/en/elasticsearch/hadoop/master/spark.html

版本信息:
HDP version : HDP-2.6.1.0

ES version : 5.6.0

Spark version : 2.2.0

maven version:3.5

Scala version 2.10.6

 

1. write data to elasticsearch

 

1.1. 方式一步骤解析


RDD先定义Map/JavaBean/Scala case class将其内容翻译成文件,利用elasticsearch Hadoop将保存到Elasticsearch中
在Scala中只需要以下几步:

1.Spark Scala imports

2.Elasticsearch-hadoop Scala imports

3.Start Spark through its Scala API

4.makeRDD

5.index content(内容索引) index ES under spark/docs

1.2. 代码如下:

import org.apache.spark.{SparkConf, SparkContext}
import org.elasticsearch.spark.rdd.EsSpark


/**
  * Created by hand on 2018/1/9.
  */

object Es_spark {
  def main(args: Array[String]): Unit = {

    case class Job(jobName: String, jobUrl: String, companyName: String, salary: String)
    var conf = new SparkConf()
    conf.setAppName("S2EExample")
    conf.setMaster("local[*]")
    conf.set("es.index.auto.create", "true")
    conf.set("es.nodes", "hdfs01.edcs.org:9200")
    val sc = new SparkContext(conf)

    val job1 = Job("C开发工程师", "http://job.c.com", "c公司", "10000")
    val job2 = Job("C++开发工程师", "http://job.c++.com", "c++公司", "10000")
    val job3 = Job("C#开发工程师", "http://job.c#.com", "c#公司", "10000")
    val job4 = Job("Java开发工程师", "http://job.java.com", "java公司", "10000")
    val job5 = Job("Scala开发工程师", "http://job.scala.com", "java公司", "10000")

    val rdd = sc.makeRDD(Seq(job1, job2, job3, job4, job5))
    EsSpark.saveToEs(rdd, "data/job01")

  }
}

 

1.3. 方式二步骤解析:

 

Scala用户可能会使用SEQ和→符号声明根对象(即JSON文件)而不是使用Map。而类似的,第一个符号的结果略有不同,不能相匹配的一个JSON文件:序列是一阶序列(换句话说,一个列表),←会创建一个Tuple(元组),或多或少是一个有序的,元素的定数。例如,一个列表的列表不能作为一个文件,因为它不能被映射到一个JSON对象;但是它可以在一个自由的使用。因此在上面的例子Map(K→V)代替SEQ(K→V)
作为一种替代上面的隐式导入,elasticsearch-hadoop支持spark的Scala用户通过org.elasticsearch.spark.rdd包作为实用类允许显式方法调用EsSpark。

步骤如下:

1.Spark Scala imports

2.Elasticsearch-hadoop Scala imports

3.Define a case class named Trip

4.Create an RDD around the Trip instances

5.Index the RDD explicitly through EsSpark

 

对于指定documents的id(或者其他类似于TTL或时间戳的元数据),可以设置名字为es.mapping.id的映射。下面以前的实例,Elasticsearch利用filed的id作为documents的id.更新RDD的配置configuration(也可以在SparkConf上设置全局的属性,不建议这样做)

 

 

注意:设置es.mapping.id属性,参数不可以设置包含_id(与ES中数据默认字段冲突)

 

1.4. 代码如下:

import org.apache.spark.{SparkConf, SparkContext}
import org.elasticsearch.spark.rdd.EsSpark


/**
  * Created by hand on 2018/1/9.
  */

object Es_spark {
  def main(args: Array[String]): Unit = {

    case class Trip(jobName: String, jobUrl: String, companyName: String, salary: String)
    var conf = new SparkConf()
    conf.setAppName("S2EExample")
    conf.setMaster("local[*]")
    conf.set("es.index.auto.create", "true")
    conf.set("es.nodes", "hdfs01.edcs.org:9200")
    val sc = new SparkContext(conf)

    val trip1 = Trip("C开发工程师", "http://job.c.com", "c公司", "10000")
    val trip2 = Trip("C++开发工程师", "http://job.c++.com", "c++公司", "10000")
    val trip3 = Trip("C#开发工程师", "http://job.c#.com", "c#公司", "10000")
    val trip4 = Trip("Java开发工程师", "http://job.java.com", "java公司", "10000")
    val trip5 = Trip("Scala开发工程师", "http://job.scala.com", "java公司", "10000")

    val rdd = sc.makeRDD(Seq(trip1, trip2, trip3, trip4, trip5))
    EsSpark.saveToEs(rdd, "data/job01")

  }
}

2. write data from elasticsearch

2.1. 步骤:

1.Spark Scala imports

2.elasticsearch-hadoop Scala imports

3.start Spark through its Scala API

4.a dedicated RDD for Elasticsearch is created for index eee/01

5.create an RDD streaming all the documents matching me* from index eee/01

代码如下:

import org.apache.spark.{SparkConf, SparkContext}
import org.elasticsearch.spark.rdd.EsSpark


/**
  * Created by hand on 2018/1/9.
  */

object Es_spark {
  def main(args: Array[String]): Unit = {

    case class Trip(jobName: String, jobUrl: String, companyName: String, salary: String)
    var conf = new SparkConf()
    conf.setAppName("S2EExample")
    conf.setMaster("local[*]")
    conf.set("es.index.auto.create", "true")
    conf.set("es.nodes", "hdfs01.edcs.org:9200")
    val sc = new SparkContext(conf)

    EsSpark.esRDD(sc, "eee/01", "q?name=*")
  }
}

 

 

资源下载链接为: https://pan.quark.cn/s/1bfadf00ae14 华为移动服务(Huawei Mobile Services,简称 HMS)是一个全面开放的移动服务生态系统,为企业和开发者提供了丰富的工具和 API,助力他们构建、运营和推广应用。其中,HMS Scankit 是华为推出的一款扫描服务 SDK,支持快速集成到安卓应用中,能够提供高效且稳定的二维码和条形码扫描功能,适用于商品扫码、支付验证、信息获取等多种场景。 集成 HMS Scankit SDK 主要包括以下步骤:首先,在项目的 build.gradle 文件中添加 HMS Core 库和 Scankit 依赖;其次,在 AndroidManifest.xml 文件中添加相机访问和互联网访问权限;然后,在应用程序的 onCreate 方法中调用 HmsClient 进行初始化;接着,可以选择自定义扫描界面或使用 Scankit 提供的默认扫描界面;最后,实现 ScanCallback 接口以处理扫描成功和失败的回调。 HMS Scankit 内部集成了开源的 Zxing(Zebra Crossing)库,这是一个功能强大的条码和二维码处理库,提供了解码、生成、解析等多种功能,既可以单独使用,也可以与其他扫描框架结合使用。在 HMS Scankit 中,Zxing 经过优化,以更好地适应华为设备,从而提升扫描性能。 通常,ScanKitDemoGuide 包含了集成 HMS Scankit 的示例代码,涵盖扫描界面的布局、扫描操作的启动和停止以及扫描结果的处理等内容。开发者可以参考这些代码,快速掌握在自己的应用中实现扫码功能的方法。例如,启动扫描的方法如下: 处理扫描结果的回调如下: HMS Scankit 支持所有安卓手机,但在华为设备上能够提供最佳性能和体验,因为它针对华为硬件进行了
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值