MapR M3 MapReduce Streaming Python AWS 30分钟 (1)

通过使用MapR虚拟机,用户能在30分钟内轻松配置本地环境,并利用Ubuntu进行Hadoop相关操作,包括wordcount等基本任务。演示了如何在本地执行Hadoop命令并上传文件至HDFS进行处理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop配置本来就很麻烦,这次想用VM本地调试Python脚本,然后到Amazon Elastic MapReduce,M3+VMware Fusion。


30分钟即可配置好local mode,又是ubuntu,非常方便。


http://www.mapr.com/doc/display/MapR/A+Tour+of+the+MapR+Virtual+Machine

这份参考文档里又简单的说明,最下面就是wordcount,hadoop世界的hello world,随便准备几个文件推送到hdfs上原样执行就行啦。


执行hadoop命令

hadoop jar /opt/mapr/hadoop/hadoop-0.20.2/hadoop-0.20.2-dev-examples.jar wordcount /user/mapr/helloword 
/user/mapr/helloword-out
经过若干的jobinfo,结果乡下面这样。

OK,好奇心满足了吧,有时间再篇写mapreduce和python。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值