hadoop:基于Java API实现的编译

Hadoop入门教程:基于Java API实现的编译,如果用户使用Eclipse开发,则需要导入hadoop-core-x.y.x.jar核心包,由于Eclipse会自动编译,则直接使用export功能导出词频统计的jar包即可;如果使用Linux中的vim开发,则应使用下面的方法进行编译并打包。

在上节Java实现中有三个类:WordcountMapper.java、WordcountReducer.java、MyWordCount.java,用户的当前工作目录只有这三个Java文件,则编译脚本如下:

#!/bin/bash

#编译并打包单词统计MapReduce程序

HADOOP_VERSION=1.0.4

HADOOP_HOME=/home/nuoline/Hadoop-$HADOOP_VERSION

LIB=${HADOOP_HOME}/Hadoop-core-${HADOOP_VERSION}.jar

mkdir wordcount

javac –cp $LIB –d wordcount *.java

jar -cvf /usr/nuoline/wordcount.jar -C wordcount/

在该脚本中的HADOOP_HOME是Hadoop的安装目录,LIB是词频统计的依赖库,只需要Hadoop-core-${HADOOP_VERSION}.jar核心包就可以。执行上述脚本就可以编译并打包词频统计程序。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值