HelloMapReduce

本文介绍如何在Eclipse中搭建Hadoop开发环境,包括安装Eclipse、Hadoop插件,配置Hadoop安装目录,创建并运行MapReduce项目。

开发环境:eclipse-jee-indigo-SR2-linux-gtk + hadoop-0.20.205.0

1.安装eclipse,直接解压eclipse-jee-indigo-SR2-linux-gtk.tar.gz即可,如果启动时提示找不到jre或者jdk,可以进入/eclipse目录,执行如下命令:

mkdir jre

cd jre

ln -s $JAVA_HOME/bin

 

2.安装hadoop的eclipse插件,在/hadoop-0.20.205.0/contrib/eclipse-plugin/目录下将jar文件复制到/eclipse/plugins目录下,然后重启eclipse即可

 

3.配置Hadoop安装目录:

 

4.创建Hadoop项目

File->New->Other,找到Map/Reduce Project,点击next,如何项目名称,比如HelloMapReduce,然后点击Finish,项目创建完成



 

5.编写java文件

   该程序从data.txt文件中找出每年的最大值,data.txt中的每行表示年份和对应的值

 

package com.nexusy.hadoop;

import java.io.IOException;

import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class HelloMapReduce {
	
	static class MyMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

		@Override
		protected void map(LongWritable key, Text value, Context context)
				throws IOException, InterruptedException {
			String line = value.toString();
			String year = line.substring(0, 4);
			String num = line.substring(5);
			context.write(new Text(year), new IntWritable(Integer.parseInt(num)));
		}
		
	}
	
	static class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

		@Override
		protected void reduce(Text key, Iterable<IntWritable> values, Context context)
				throws IOException, InterruptedException {
			int maxValue = Integer.MIN_VALUE;
			for(IntWritable value : values){
				maxValue = Math.max(maxValue, value.get());
			}
			context.write(key, new IntWritable(maxValue));
		}
		
	}
	
	public static void main(String[] args) throws Exception{
		Job job = new Job();
		job.setJarByClass(HelloMapReduce.class);
		
		FileInputFormat.addInputPath(job, new Path("data.txt"));
		FileOutputFormat.setOutputPath(job, new Path("output"));
		
		job.setMapperClass(MyMapper.class);
		job.setReducerClass(MyReducer.class);
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		
		System.exit(job.waitForCompletion(true) ? 0 : 1);
	}

}

 

6.在项目根目录下放一个data.txt文件,内容如下

2011 33
2011 600
2011 77
2011 33
2011 665
2011 123
2012 187
2012 25
2012 753
2012 134
2012 234
2012 575
2012 332
2012 100

 

7.运行第5步创建的.java文件

右键选择Run As->Run On Hadoop,然后选择Define a new hadoop server location,并点击next,输入Location Name,然后点击Finish即可。

 

8.控制台输出如下

12/03/04 16:46:30 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
12/03/04 16:46:30 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same.
12/03/04 16:46:30 INFO input.FileInputFormat: Total input paths to process : 1
12/03/04 16:46:30 INFO mapred.JobClient: Running job: job_local_0001
12/03/04 16:46:31 INFO util.ProcessTree: setsid exited with exit code 0
12/03/04 16:46:31 INFO mapred.Task:  Using ResourceCalculatorPlugin : org.apache.hadoop.util.LinuxResourceCalculatorPlugin@138c63
12/03/04 16:46:31 INFO mapred.MapTask: io.sort.mb = 100
12/03/04 16:46:31 INFO mapred.JobClient:  map 0% reduce 0%
12/03/04 16:46:36 INFO mapred.MapTask: data buffer = 79691776/99614720
12/03/04 16:46:36 INFO mapred.MapTask: record buffer = 262144/327680
12/03/04 16:46:36 INFO mapred.MapTask: Starting flush of map output
12/03/04 16:46:36 INFO mapred.MapTask: Finished spill 0
12/03/04 16:46:36 INFO mapred.Task: Task:attempt_local_0001_m_000000_0 is done. And is in the process of commiting
12/03/04 16:46:39 INFO mapred.LocalJobRunner: 
12/03/04 16:46:39 INFO mapred.Task: Task 'attempt_local_0001_m_000000_0' done.
12/03/04 16:46:39 INFO mapred.JobClient:  map 100% reduce 0%
12/03/04 16:46:39 INFO mapred.Task:  Using ResourceCalculatorPlugin : org.apache.hadoop.util.LinuxResourceCalculatorPlugin@1cef4f7
12/03/04 16:46:39 INFO mapred.LocalJobRunner: 
12/03/04 16:46:39 INFO mapred.Merger: Merging 1 sorted segments
12/03/04 16:46:39 INFO mapred.Merger: Down to the last merge-pass, with 1 segments left of total size: 156 bytes
12/03/04 16:46:39 INFO mapred.LocalJobRunner: 
12/03/04 16:46:39 INFO mapred.Task: Task:attempt_local_0001_r_000000_0 is done. And is in the process of commiting
12/03/04 16:46:39 INFO mapred.LocalJobRunner: 
12/03/04 16:46:39 INFO mapred.Task: Task attempt_local_0001_r_000000_0 is allowed to commit now
12/03/04 16:46:39 INFO output.FileOutputCommitter: Saved output of task 'attempt_local_0001_r_000000_0' to output
12/03/04 16:46:42 INFO mapred.LocalJobRunner: reduce > reduce
12/03/04 16:46:42 INFO mapred.Task: Task 'attempt_local_0001_r_000000_0' done.
12/03/04 16:46:43 INFO mapred.JobClient:  map 100% reduce 100%
12/03/04 16:46:43 INFO mapred.JobClient: Job complete: job_local_0001
12/03/04 16:46:43 INFO mapred.JobClient: Counters: 20
12/03/04 16:46:43 INFO mapred.JobClient:   File Output Format Counters 
12/03/04 16:46:43 INFO mapred.JobClient:     Bytes Written=30
12/03/04 16:46:43 INFO mapred.JobClient:   FileSystemCounters
12/03/04 16:46:43 INFO mapred.JobClient:     FILE_BYTES_READ=11442
12/03/04 16:46:43 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=78488
12/03/04 16:46:43 INFO mapred.JobClient:   File Input Format Counters 
12/03/04 16:46:43 INFO mapred.JobClient:     Bytes Read=121
12/03/04 16:46:43 INFO mapred.JobClient:   Map-Reduce Framework
12/03/04 16:46:43 INFO mapred.JobClient:     Map output materialized bytes=160
12/03/04 16:46:43 INFO mapred.JobClient:     Map input records=14
12/03/04 16:46:43 INFO mapred.JobClient:     Reduce shuffle bytes=0
12/03/04 16:46:43 INFO mapred.JobClient:     Spilled Records=28
12/03/04 16:46:43 INFO mapred.JobClient:     Map output bytes=126
12/03/04 16:46:43 INFO mapred.JobClient:     Total committed heap usage (bytes)=279183360
12/03/04 16:46:43 INFO mapred.JobClient:     CPU time spent (ms)=0
12/03/04 16:46:43 INFO mapred.JobClient:     SPLIT_RAW_BYTES=113
12/03/04 16:46:43 INFO mapred.JobClient:     Combine input records=0
12/03/04 16:46:43 INFO mapred.JobClient:     Reduce input records=14
12/03/04 16:46:43 INFO mapred.JobClient:     Reduce input groups=2
12/03/04 16:46:43 INFO mapred.JobClient:     Combine output records=0
12/03/04 16:46:43 INFO mapred.JobClient:     Physical memory (bytes) snapshot=0
12/03/04 16:46:43 INFO mapred.JobClient:     Reduce output records=2
12/03/04 16:46:43 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=0
12/03/04 16:46:43 INFO mapred.JobClient:     Map output records=14

 

9.最后在项目根目录下生成output目录及两个文件_SUCCESS和part-r-00000,如下图所示
   

 

PS:

1.如果JVM的内存太小将不能运行mapreduce任务,本人开始时虚拟机只有512MB内存,启动hadoop和eclipse后只剩几十MB内存,于是报OutOfMemeryError错误,将虚拟机内存调整为2GB后正常运行。

2.伪分布模式下启动Hadoop时,要先执行hadoop namenode -format,然后才是start-dfs.sh,start-mapred.sh
 
 

1. 实验目的与任务 MapReduce 是谷歌公司的核心计算模型,Hadoop 开源实现了 MapReduceMapReduce 将复杂的、运行于大规模集群上的并行计算过程高度抽象到了两个函数:Map 和 Reduce, 并极大地方便了分布式编程工作,编程人员在不会分布式并行编程的情况下,也可以很容易 将自己的程序运行在分布式系统上,完成海量数据的计算。本实验要求掌握 MapReduce 的 相关操作。 2. 实验要求 掌握使用 MapReduce 的操作,完成词频统计的任务。 3. 实验内容 利用 eclipse,使用 HadoopMapReduce 完成词频统计。 词频统计任务,输入为多个包含大量单词的文本文件,输出文件中每个单词及其出现次 数(频数),并按照单词字母顺序排序,每个单词和其频数占一行,单词和频数之间有间隔。 具体如表 1 所示: 表 1 一个 WordCount 的输入和输出实例 输入 输出 Hello World Hello Hadoop Hello MapReduce Hadoop 1 Hello 3 MapReduce 1 World 1 4. 实验设备 一台装有 Windows10 系统的 pc 机,装有两个 Ubantu 虚拟系统,并且两个虚拟 Ubantu 系统已完成 Hadoop 集群的配置,装有 Eclipse 软件。 5. 实验步骤 5.1 Eclipse 中创建项目并添加 jar 包 MapReduce 依赖的 JAR 包都位于 Linux 系统的 Hadoop 安装目录下(假设安装目录为 “/usr/local/hadoop/share/hadoop”)。点击界面中的“Libraries”选项卡,然后,点击界面右侧的 “Add External JARs…”按钮,添加: (1)“/usr/local/hadoop/share/hadoop/common” 目录下的 hadoop-common-3.1.3.jar 和 haoop-nfs-3.1.3.jar; (2)“/usr/local/hadoop/share/hadoop/common/lib”目录下的所有 JAR 包; (3)“/usr/local/hadoop/share/hadoop/mapreduce”目录下的所有JAR包,但是,不包括jdiff、lib、lib-examples 和 sources 目录。 (4)“/usr/local/hadoop/share/hadoop/mapreduce/lib”目录下的所有 JAR 包。 5.2 编写 Map 处理逻辑 • Map 输入类型为<key,value> • 期望的 Map 输出类型为<单词,出现次数> • Map 输入类型最终确定为<Object,Text> Map 输出类型最终确定为<Text,IntWritable public static class MyMapper extends Mapper<Object,Text,Text,IntWritable>{ private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException,InterruptedException{ StringTokenizer itr = new StringTokenizer(value.toString()); while (itr.hasMoreTokens()) { word.set(itr.nextToken()); context.write(word,one); } } } 5.3 编写 Reduce 处理逻辑 • 在 Reduce 处理数据之前,Map 的结果首先通过 Shuffle 阶段进行整理 • Reduce 阶段的任务:对输入数字序列进行求和 • Reduce 的输入数据为<key,Iterable 容器> Reduce 任务的输入数据: <”I”,<1,1>> <”is”,1> …… <”from”,1> <”China”,<1,1,1>> public static class MyReducer extends Reducer<Text,IntWritable,Text,IntWritable>{ private IntWritable
10-15
内容概要:本文围绕六自由度机械臂的人工神经网络(ANN)设计展开,重点研究了正向与逆向运动学求解、正向动力学控制以及基于拉格朗日-欧拉法推导逆向动力学方程,并通过Matlab代码实现相关算法。文章结合理论推导与仿真实践,利用人工神经网络对复杂的非线性关系进行建模与逼近,提升机械臂运动控制的精度与效率。同时涵盖了路径规划中的RRT算法与B样条优化方法,形成从运动学到动力学再到轨迹优化的完整技术链条。; 适合人群:具备一定机器人学、自动控制理论基础,熟悉Matlab编程,从事智能控制、机器人控制、运动学六自由度机械臂ANN人工神经网络设计:正向逆向运动学求解、正向动力学控制、拉格朗日-欧拉法推导逆向动力学方程(Matlab代码实现)建模等相关方向的研究生、科研人员及工程技术人员。; 使用场景及目标:①掌握机械臂正/逆运动学的数学建模与ANN求解方法;②理解拉格朗日-欧拉法在动力学建模中的应用;③实现基于神经网络的动力学补偿与高精度轨迹跟踪控制;④结合RRT与B样条完成平滑路径规划与优化。; 阅读建议:建议读者结合Matlab代码动手实践,先从运动学建模入手,逐步深入动力学分析与神经网络训练,注重理论推导与仿真实验的结合,以充分理解机械臂控制系统的设计流程与优化策略。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值