
hadoop
文章平均质量分 65
润砾成珠
这个作者很懒,什么都没留下…
展开
-
hadoop摘抄(二)
二、 模拟namenode崩溃,例如将name目录的内容全部删除,然后通过secondary namenode恢复namenode,抓图实验过程1. 删除NameNode中 name目录下的所有内容, NameNode down 2. 停止集群,格式化NameNode3. 从DataNode获取down之前的namespaceID转载 2013-10-25 16:38:54 · 619 阅读 · 0 评论 -
AM容错
问题2:修改ResourceManager和资源调度器相关实现,使其支持以下容错机制:当一个应用程序的ApplicationMaster运行失败时,先尝试在原节点重启它,如果重启失败,再将其重新调度到其他节点上。为原创 2014-04-13 16:38:20 · 567 阅读 · 0 评论 -
Ganglia3.1.7监控Hadoop2集群总结
1. 配置Ganglia只需要修改三个文件 gmond.conf, g原创 2014-08-05 17:11:20 · 671 阅读 · 0 评论 -
julia hadoop2包安装
1. 加上环境变量HADOOP_HOME=[installation folder]/hadoop-2.2.0export HADOOP_HOMEHADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoopexport HADOOP_CONF_DIRCLASSPATH1=$(JARS=("$HADOOP_HOME"/share/hadoop/common/*.jar)原创 2014-01-26 17:46:01 · 775 阅读 · 0 评论 -
hadoop2.2+hbase0.96+zookeeper3.4.5
http://www.tuicool.com/articles/bMnYzyzookeeper参考下文http://www.blogjava.net/hello-yun/archive/2012/05/03/377250.htmlZookeeper3.4.5 搭建比较简单,修改环境变量,修改zoo.cfg;并在zoo.cfg中datadir简历myid 加上zoo.cfg对应编原创 2013-12-08 16:55:58 · 852 阅读 · 0 评论 -
hadoop摘抄(四)
五、 在Hadoop集群实施成功后,再次格式化名称节点,请问此时datanode还能加入集群不?如果不能加入怎样解决?模拟过程并抓图 1. 停止集群,并bin/hadoop namenode -format 2. 启动集群,并查看datanode datanode 无法启动3. 查看日志,显示 datanode 与 namenode na转载 2013-10-25 16:59:43 · 702 阅读 · 0 评论 -
hadoop2.2 源码编译
hadoop2.2源码编译遇到的问题和下文差不多http://blog.sina.com.cn/s/blog_93d695390101b5vf.html在YARN自带的软件包中有关于编译的说明,具体参见:BUILDING.txt。在RetHat中编译YARN,Jdk为1.6.0_23.1.下载YARN源码包下载地址:http://mirror.bit.edu转载 2013-10-30 17:43:25 · 1145 阅读 · 0 评论 -
搭建hadoop2.2集群环境
在10月15日hadoop2.2 release 版本一发布就打算抽时间用6台机器搭建hadoop2.2小的测试集群。这下抽出时间花了一天半时间才搞定被各种环境坑了多次,终于成功了。现在把遇到的问题记录如下:1.首先由于机器环境是64位,从官网下载的2.2中本地库是32位的需要自己用源码编译替换本地库( YARN加载本地库抛出Unable to load native-hadoop libra原创 2013-10-31 16:14:10 · 2470 阅读 · 0 评论 -
Runjar分析
1.org.apache.hadoop.util Runjar hadoop-unjar将提交的jar 解压到${hadoop.tmp.dir}/hadoop-unjar/public static void unJar(File jarFile, File toDir, Pattern unpackRegex) throws IOException {原创 2013-11-18 15:20:31 · 2408 阅读 · 0 评论 -
ShutDownHookManager分析
org.apache.hadoop.utilShutDownHookManager1.ShutDownHookManager 单例模式2.getShutdownHooksInOrder()内部类 HookEntry 有两个成员变量,hook(Runnable), priority(int)此方法按priority 优先级排序(优先级大的再前面),返回List3.最后Shut原创 2013-11-18 15:28:40 · 4605 阅读 · 0 评论 -
Hash分析
org.apache.hadoop.util.hash1. Hash抽象类 有两个实现类JenkinsHash与MurmurHash,默认是MurmurHash可以通过hadoop.util.hash.type配置{murmur,jenkins}2.JenkinsHash有main方法可以运行一下: if (args.length != 1) { System.e原创 2013-11-18 17:20:09 · 1000 阅读 · 0 评论 -
ReflectionUtil分析
org.apache.util.ReflactionUtil1.内部类CopyInCopyOutBuffer(线程池管理) 结合类SerializationFactory(单例模式管理) 序列化和反序列化copy private static class CopyInCopyOutBuffer { DataOutputBuffer outBuffer = new DataOutp原创 2013-11-18 16:47:14 · 1223 阅读 · 0 评论 -
Key分析
org.apache.hadoop.util.Key1.Key 继承WritableComparable 成员变量:bytes[] double weight2.writable // Writable @Override public void write(DataOutput out) throws IOException { out.writ原创 2013-11-19 08:48:09 · 761 阅读 · 0 评论 -
hadoop2.2+hive0.12.0
create user 'hive'@'%' identified by 'hive';GRANT ALL PRIVILEGES ON*.* TO 'hive'@'%' Identified by 'hive'; 使用mysql 存储 metastore 配置中注意两个问题1.配置文件2005行 --->2.hive.metastore.schema.verificati原创 2013-12-06 21:10:43 · 1601 阅读 · 0 评论