Hadoop
peijiping
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
在hadoop启动的时候,会出现各种各样的问题
在hadoop启动的时候,会出现各种各样的问题,NameNode,JobTracker等各个模块都会有莫名奇妙的问题出现,在这里对hdfs的问题进行一下简单的记录1:HDFS initialized but not 'healthy' yet, waiting...这个日志会在启动hadoop的时候在JobTracker的log日志文件中出现,在这里就是hdfs出现问题,导致DataNod转载 2014-03-20 08:25:51 · 782 阅读 · 0 评论 -
在hadoop启动的时候,会出现各种各样的问题
在hadoop启动的时候,会出现各种各样的问题,NameNode,JobTracker等各个模块都会有莫名奇妙的问题出现,在这里对hdfs的问题进行一下简单的记录1:HDFS initialized but not 'healthy' yet, waiting...这个日志会在启动hadoop的时候在JobTracker的log日志文件中出现,在这里就是hdfs出现问题,导致Dat转载 2014-04-21 10:49:50 · 592 阅读 · 0 评论 -
编译hadoop-eclipse插件
编译hadoop-eclipse插件 目录 一、所需软件… 2 二、Ant和Cygwin安装… 2 三、编译hadoop-eclipse-plugin-1.0.3.jar插件… 5 前言: 由于开发人员使用不同的eclipse版本,hadoop自0.20.x版本后不再提供现成的hadoop-eclipse插件而是给出了源码自行编译。转载 2014-04-11 17:07:16 · 587 阅读 · 0 评论 -
Caused by: java.lang.IllegalArgumentException: Wrong FS: hdfs:// :9000/ expected: hdfs:// :9000
原文地址:http://blog.itpub.net/23073818/viewspace-730691/转载 2014-05-23 10:59:48 · 1953 阅读 · 0 评论 -
Call From hostname/169.168.1.12 to cm:9000 failed on connection exception 解决方法
做一个简单的java读取hdfs的demo。环境:客户端:win7 +eclipse。服务器端,虚拟机:centos 64 + hadoop2.5.2服务器core-site.xml关键配置如下fs.default.namehdfs://localhost:9000本地eclipse项目中引用core-site.xml关键配置如下fs.d原创 2015-04-23 14:41:34 · 5001 阅读 · 0 评论 -
自编译 hadoop-2.5.2 x64安装包 下载
本人虚拟机安装centos6.5 x64 ,安装hadoop时发现官网下载安装包为32位,需要自己编译64位包才能使用,根据网上教程编译了一个可运行的包,现分享给大家交流学习:hadoop-2.5.2 x64位包编译方法参考 :http://blog.youkuaiyun.com/wulantian/article/details/38111999 点击打开链接hadoop-2.5.2原创 2015-04-23 15:39:43 · 1565 阅读 · 0 评论 -
clouder manager uuid文件导致无法添加主机问题
初接触CM不久,公司要求部署一个三个节点的测试集群(虚拟机)。dn01dn02dn03整个集群安装好之后才发现dn03的硬盘分的太小了,导致CM集群一些项以红色警告方式提醒,先尝试重新挂在一块硬盘,由于linux水平有限,没有成功,只好重新安装dn03。删除CM集群上的Cluster 1 集群,然后将移除dn03,然后重装虚拟机,安装好之后,jdk、ssh等配置完毕。我直原创 2016-01-14 09:40:29 · 2049 阅读 · 0 评论
分享