spark-1.6.1+alluxio-1.3.0实现off_heap存储

本文介绍如何将Spark与Alluxio通过spark-alluxio-blockstorage项目进行集成的方法。主要内容包括下载源码、打包成jar、配置Spark环境及简单测试步骤。

第一步:到下面链接网址下载spark-alluxio-blockstorage工程

https://github.com/winse/spark-alluxio-blockstorage

第二步:把下载的工程打包成jar包

从empty打包

从加号中添加来自于下面二种地方的jar包

添加之后重新命名

选择Bulid->spark-alluxio-blockstore->bulid

找到编译好的Jar包

把此包放到/spark/lib目录下

在spark/conf/spark-defaults.conf中配置以下信息

测试:首先alluxio中需要上传README.txt文件,再运行以下命令

发现多了一个文件

按ctrl+c退出spark-shell

此时,spark in memory data中的数据随即删除。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值