
hadoop
first_wolf
linux
展开
-
在eclipse中配置hadoop插件
1.安装插件准备程序:eclipse-3.3.2(这个版本的插件只能用这个版本的eclipse)hadoop-0.20.2-eclipse-plugin.jar (在hadoop-0.20.2/contrib/eclipse-plugin目录下)将hadoop-0.20.2-eclipse-plugin.jar 复制到eclipse/plugins目录下,重启eclip转载 2013-02-25 09:43:23 · 479 阅读 · 0 评论 -
hadoop集群部署
1) 安装jdk 下载jdk-6u21-linux-i586.bin 然后修改/etc/profile: export JAVA_HOME=/usr/local/jdk export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$PATH:$JAVA_HOME/bin保存,并执行sour转载 2013-02-02 14:50:37 · 636 阅读 · 0 评论 -
Hadoop程序调试
1. System.out 和 System.errMain在Main函数里使用System.out标准输出和System.err标准错误输出,输出定向到执行程序节点的终端上。即在完全分布的Hadoop部署中,输出会定向到启动程序的节点的终端上。Mapper针对每个split,会实例化一个Mapper对象作为一个task,在Hadoop集群中的某个机器中的某个Map转载 2013-12-12 15:25:01 · 971 阅读 · 0 评论 -
JobTracker和TaskTracker概述
JobTracker和TaskTracker原创 2013-11-29 12:51:15 · 5115 阅读 · 0 评论 -
Hadoop的InputFormat和OutputFormat
InputFormat原创 2013-11-27 13:35:56 · 1223 阅读 · 0 评论 -
Hadoop的map任务和reduce任务的数量
Hadoop的map任务和reduce任务的数量原创 2013-11-23 20:28:13 · 1428 阅读 · 0 评论 -
Hadoop RPC概述
Hadoop RPC原创 2013-11-02 15:00:23 · 1722 阅读 · 0 评论 -
Hadoop工作流机制
Hadoop工作流原创 2013-11-01 10:08:04 · 1454 阅读 · 1 评论 -
HDFS
一 基本概念:管理网络中跨多台计算机存储的文件系统成为分布式文件系统。HDFS是Hadoop的旗舰级文件系统。优点:HFDS以流式数据访问模式来存储超大文件,运行于商用硬件集群上。构建思路:一次写入、多次读取是最高效的访问模式。HDFS遇到节点故障时被设计成能够继续运行且不让用户察觉到明显的中断。缺点:不适合合低时间延迟的数据访问:hdfs是为高原创 2013-03-12 10:59:59 · 962 阅读 · 0 评论 -
MapReduce
一 概述:MapReduce任务过程分为两个处理阶段:map阶段和reduce阶段,每个阶段都以键/值对作为输入和输出,并由程序员选择它们的类型。其中map阶段的输出必须和reduce阶段的输入类型一致。MapReduce作业(job)是客户端需要执行的一个工作单元:它包括输入数据、MapReduce程序和配置信息。Hadoop将作业分为小任务(task)来执行,其中包括两类任原创 2013-03-13 10:10:02 · 965 阅读 · 0 评论 -
hadoop命令和目录
一 概述:(1)hadoop下的显示:Usage: hadoop [--config confdir] COMMANDwhere COMMAND is one of: namenode -format format the DFS filesystem secondarynamenode run the DFS secondary namenode name原创 2013-10-18 14:03:39 · 1069 阅读 · 0 评论 -
Hadoop数据类型
待续...原创 2013-10-26 17:05:40 · 845 阅读 · 0 评论 -
YARN概述
Hadoop YARN原创 2013-10-24 15:43:03 · 1551 阅读 · 0 评论 -
hdfs命令
一 HDFS命令概述:Usage: java FsShell [-ls ] [-lsr ] [-du ] [-dus ] [-count[-q] ] [-mv ] [-cp ] [-rm [-skipTrash]原创 2013-10-18 13:52:50 · 720 阅读 · 0 评论 -
Hadoop实战问题集锦
(1)如何获取当前split的文件名:答案:InputSplit split=context.getInputSplit();String filename=((FileSplit)split).getPath().toString();原创 2013-12-18 12:59:15 · 1276 阅读 · 0 评论