
Hadoop
文章平均质量分 54
嘿lemon
http://my.youkuaiyun.com/u012343297#
展开
-
hadoop之环境配置
1.准备Linux环境;2.安装JDK; Ubuntu下:apt-get install open-jdk3.配置环境变量:vi /etc/profile export JAVA_HOME export JRE_HOME export CLASSPATH export PATH4.下载Hadoop安装包,并解压tar包5.设置hadoop下的conf下的配置文件原创 2017-01-10 10:50:31 · 391 阅读 · 0 评论 -
Hadoop之MapReduce
MapReduce:任务切分 ---->统计---->交换---->再次合并--->排序 map task 和 reduce taskJob&taskJobTracker:1.作业调度 2.分配任务、监控任务执行进度 3.监控TaskTracker的状态TaskTracker:1.执行任务 2.汇报任务状态MapReduce容错机制:1.重复执行 默认4次2.推测原创 2017-01-10 10:52:18 · 251 阅读 · 0 评论 -
Hadoop安装配置
本次实验环境为Ubuntu 16.04.31、安装JDK,并配置环境变量,详见http://blog.youkuaiyun.com/u012343297/article/details/78748446。2、配置SSH面密码登录先安装ssh sudo apt-get install ssh查看当前用户家目录下是否有.ssh文件 ls -a /home/lenmon没有,手动创建一个 mkdir /原创 2018-01-03 14:19:03 · 322 阅读 · 0 评论 -
CentOS 7上安装hadoop集群
环境:CentOS 7虚拟机两台(192.168.31.224、192.168.31.225)、Hadoop-2.8.0 、jdk 1.8实现两台虚拟机SSH免密码登录1、修改主机名,192.168.31.224(hserver1),192.168.31.225(hserver2)在主机192.168.31.224上执行>hostname hserver1在主机19...原创 2018-04-16 17:04:52 · 1240 阅读 · 0 评论 -
Hadoop HDFS文件操作
1、添加目录,HDFS默认工作目录为 /user/{user},其中{USER}为当前登录的用户名。 hadoop fs -mkdir -p /user/root 2、查看目录文件列表 hadoop fs -ls -R / 3、将文件从本地目录put到hdfs中 hadoop fs -put /root/example.ext /user/root 4、删除文件 hadoop...原创 2018-04-17 10:52:57 · 978 阅读 · 0 评论 -
用hadoop自带的wordcount测试
1、创建文件example.txt,并将其拷贝到hdfs的/user/root中./hadoop fs -put /root/example.txt /user/root2、执行hadoop-mapreduce-examples-2.8.0.jar./hadoop jar ../share/hadoop/mapreduce/hadoop-mapreduce-examples-2...原创 2018-04-18 09:44:09 · 7726 阅读 · 0 评论 -
测试Hadoop程序报错:java.lang.IllegalArgumentException: Wrong FS: hdfs://192.168.31.225:9000/user/root
测试PutMerge程序时,出现java.lang.IllegalArgumentException: Wrong FS: hdfs://192.168.31.225:9000/user/root,测试程序源码如下:package com.hadoop.demo;import java.io.IOException;import org.apache.hadoop.conf.Con...原创 2018-04-18 15:01:44 · 3138 阅读 · 0 评论 -
Hadoop HDFS及MapReduce示例程序
1、实现将本地文件合并,并上传至HDFS 本地文件在D:/hadooptest下merge1.txt----------------------hadooptestmerge2.txt-----------------------hadoopmapreduceHadoop集群namenode:hdfs://192.168.31.225:9000public c...原创 2018-04-26 11:06:56 · 393 阅读 · 0 评论 -
Hadoop 新旧API之间区别
从0.20.0 版本开始,Hadoop 同时提供了新旧两套MapReduce API。部分早期的0.20发行版本反对使用旧的api,但是后续版本中可以继续使用旧的api,因此1.x和2.x发行版本同时支持就的api。新旧API之间有如下几个明显区别:新API倾向使用虚类,而不是接口,因为更有利扩展。新API移到org.apache.hadoop.mapreduce包及其子包中,而旧的A...原创 2018-05-04 10:07:16 · 675 阅读 · 0 评论