初探大数据之本地运行Hadoop wordcount和grep案例

        经过上上一章博客的介绍,大概了解了hadoop框架的作用和技术组成。同时,在上一章中,配置了hadoop和jdk的环境变量。这一章,体验一下hadoop魅力,虽然说是体验hadoop的魅力,其实我知道,我根本连hadoop的门都还没有踏入,但是我相信,任何事都是由简到难,只要我能坚持下去,总会有那么一天的......

        就像当初学习java一样,起初都会从“Hello  World”开始。本地运行hadoop自带wordcount和grep案例,wordcount光看单词的意思,大概就能猜到它是统计文件中每个单词的数量。运行这个案例,只要hadoop和jdk的环境变量配置成功即可。

一、进入hadoop的安装目录

执行一下Linux命令:

1、cd  /opt/etchome/hadoop-2.7.2   --进入hadoop的安装目录

2、ll  --显示当前目录下的文件内容

二、本地运行wordcount案例

执行Linux命令如下:

1、mkdir  wcinput   --在当前目录下创建一个文件夹,然后在该文件夹中创建input.txt(其实并不需要这么麻烦,可以直接用当前目录的文件,例如NOTICE.txt,README.txt等,不过既然是初学者,这么做就当练习Linux命令了)

2、cd  wcinput   --进入wcinput文件夹

3、touch  input.txt  --创建input.txt文件

4、vi  input.txt&n

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值