livy安装

本文详细介绍了如何下载、安装和配置 Livy 0.6.0 版本,包括环境变量设置和关键参数调整,以实现与 Hadoop 和 Spark 的无缝集成。

下载

wget http://mirror.bit.edu.cn/apache/incubator/livy/0.6.0-incubating/apache-livy-0.6.0-incubating-bin.zip

 

解压到对应的路径

unzip apache-livy-0.6.0-incubating-bin.zip

修改配置

名称修改

mv apache-livy-0.6.0-incubating-bin/ livy-0.6.0


 cd livy-0.6.0/conf

 mv livy.conf.template livy.conf

vim livy.conf

# Hadoop Credential Provider Path to get "livy.keystore.password" and "livy.key-password".
# Credential Provider can be created using command as follow:
# hadoop credential create "livy.keystore.password" -value "secret" -provider jceks://hdfs/path/to/livy.jceks
# livy.hadoop.security.credential.provider.path =

# What host address to start the server on. By default, Livy will bind to all network interfaces.
livy.server.host = ip

# What port to start the server on.
livy.server.port = 8998

# What base path ui should work on. By default UI is mounted on "/".
# E.g.: livy.ui.basePath = /my_livy - result in mounting UI on /my_livy/
# livy.ui.basePath = ""

# What spark master Livy sessions should use.
livy.spark.master = yarn

# What spark deploy mode Livy sessions should use.
livy.spark.deploy-mode = client

 

修改这几个参数就可以启动

配置环境变量

 

vim ~/.bash_profile


export LIVY_HOME=/data/appcom/livy-0.6.0
export PATH=$LIVY_HOME/bin:$PATH

source ~/.bash_profile

 ./livy-server start

看到这个LivyServer进程则启动成功

Apache Livy是一个开源项目,它提供了一种RESTful接口,用于在Apache Spark集群上运行交互式和批处理作业。这个接口使得在Java或其他编程语言中使用Spark变得更加简单和方便。 安装 1. 安装Java和Scala Livy需要Java 8或更高版本和Scala 2.11.x或2.12.x。您可以从官方网站下载Java和Scala,也可以使用包管理器进行安装。 2. 下载和编译Livy源代码 您可以从Apache Livy的官方网站https://livy.apache.org/download/下载最新版本的源代码。下载后,解压缩文件并使用以下命令编译: ``` $ mvn clean package -DskipTests ``` 3. 配置Livy 在编译完成后,将生成一个目录livy-0.7.1-incubating-bin。在该目录中,找到conf目录并编辑livy.conf文件。在该文件中,您需要配置以下参数: ``` livy.server.port = 8998 livy.file.local-dir-whitelist = /tmp livy.spark.master = spark://<spark-master>:7077 ``` 其中,livy.server.port是Livy服务器的端口号,livy.file.local-dir-whitelist是本地目录的白名单,livy.spark.master是Spark master的URL。 4. 启动Livy 在配置完成后,使用以下命令启动Livy: ``` $ bin/livy-server ``` 在启动完成后,您可以使用http://localhost:8998/访问Livy的RESTful API。 使用 在Java中使用Livy,您需要使用Livy的Java客户端库。您可以在Maven中添加以下依赖项: ```xml <dependency> <groupId>org.apache.livy</groupId> <artifactId>livy-client-common</artifactId> <version>0.7.1-incubating</version> </dependency> <dependency> <groupId>org.apache.livy</groupId> <artifactId>livy-client-spark_2.11</artifactId> <version>0.7.1-incubating</version> </dependency> ``` 1. 创建LivyClient对象 使用以下代码创建一个LivyClient对象: ```java LivyClient client = new LivyClientBuilder() .setURI(new URI("http://localhost:8998")) .build(); ``` 其中,URI参数是Livy服务器的URL。 2. 提交Spark作业 使用以下代码提交一个Spark作业: ```java JavaSparkContext spark = new JavaSparkContext("spark://<spark-master>:7077", "MyApp"); List<Integer> data = Arrays.asList(1, 2, 3, 4, 5); JavaRDD<Integer> distData = spark.parallelize(data); int result = distData.reduce((a, b) -> a + b); ``` 其中,spark参数是Spark master的URL,data是一个包含整数的列表,distData是一个JavaRDD对象,result是reduce操作的结果。 使用以下代码将作业提交到Livy服务器: ```java JobHandle<Integer> handle = client.submit(new JavaSparkJob<>(MyApp.class.getName(), result)); ``` 其中,JavaSparkJob是一个用于包装Spark作业的类,MyApp是您的Spark作业的类名,result是作业的结果。 3. 获取作业结果 使用以下代码获取作业的结果: ```java int result = handle.get(); ``` 其中,handle是提交作业后返回的JobHandle对象,result是作业的结果。 4. 关闭LivyClient对象 使用以下代码关闭LivyClient对象: ```java client.stop(true); ``` 其中,true参数表示在关闭之前等待所有作业完成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值