
分布式
文章平均质量分 80
那闯
这个作者很懒,什么都没留下…
展开
-
Kerberos(1.9)Apache Hadoop(2.0.3 Yarn) 配置
环境:环境: ubuntu 12.04, jdk 1.7用户名都是:nachuang域名分别是:mcw-cc-nachuang, mcw-cc-node注:确定 Hadoop 2.0.3 集群可以正常使用,然后stop-all。Kerberos配置:参考:http://blog.youkuaiyun.com/edwardvsnc/article/detail原创 2013-04-07 10:13:47 · 1906 阅读 · 0 评论 -
Hadoop基础(2)
1.在Job初始化时,设定input format,output format,key和value。2.将HDFS中的block划分成split分给map(在hdfs.xml中dfs.block.size设置block大小)。3.map通过input format读取(key, value)并处理。处理后将生成数据放入buffer(buffer大小可设定)。buffer结构:除了key原创 2013-06-21 15:36:43 · 991 阅读 · 0 评论 -
Hadoop基础(1)
Hadoop主要服务:HDFS服务:NameNode: 指导Slave的DataNode执行底层的I/O任务,跟踪文件被分割情况,服务于在Master上。DataNode: 操作的实际执行者,比如删除或添加文件等等,服务于Slave上。SecondaryNameNode:做Namespace image和Edit log合并,并保存namenode中原创 2013-06-19 14:27:08 · 734 阅读 · 0 评论 -
Hadoop v2(Yarn)调度分析(2)ResourceManager
Service Name:DispatcherService Name:org.apache.hadoop.yarn.server.resourcemanager.rmcontainer.ContainerAllocationExpirerService Name:AMLivelinessMonitorService Name:AMLivelinessMonitorService原创 2013-04-18 14:47:17 · 1824 阅读 · 0 评论 -
Hadoop v2(Yarn)集群配置(ubuntu 12.04)
Hadoop版本: 2.0.2(Yarn)添加一个用户 sudo addgroup hadoop sudo adduser -ingroup hadoop hadoop sudo vim /etc/sudoers 添加 hadoop ALL=(ALL:ALL) ALL设置环境变量vim /etc/profileexport JAVA_HOME=/usr/li原创 2013-02-07 12:51:04 · 2396 阅读 · 0 评论 -
Hadoop v2(Yarn)伪集群配置
Hadoop:1. 安装JDK 1.6以上,Hadoop 2.0.2包。2. 添加环境变量:export JAVA_HOME=/usr/lib/jvm/java-7-sunexport JRE_HOME=$JAVA_HOME/jreexport CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATHexport PAT原创 2013-01-29 17:18:13 · 2304 阅读 · 0 评论 -
Hadoop v2(Yarn) 调度分析 (1) JobClient 的提交过程
ResourceManager: ApplicationManager: 负责为AppMaster申请Container (资源),并监控AppMaster的failed ResourceScheduler: 负责多个application的资源分配,调度ContainerNodeManager: 负责启动和监控Cont原创 2013-03-06 16:05:47 · 4815 阅读 · 0 评论 -
Hadoop v2(Yarn), HBase, Hive 异常处理
1. Unhealthy Node 症状:执行MR在submit Job后停止, 不出现Map的进度,一直处在Pending状态, ResourceManager和NodeManager的Log中无其他异常,在RM开启时的Log中显示节点Unhealthy。 方法:1). yarn-site.xml配置yarn.nodemanager.local-dirs原创 2013-03-09 17:10:52 · 3336 阅读 · 0 评论 -
Hadoop v2(Yarn)源码编译
安装maven和protobuf我使用的版本分别是:apache-maven-3.0.4(需要maven3.0以上版本)和protobuf-2.4.1:maven下载地址http://maven.apache.org/download.cgiprotobuf下载地址http://code.google.com/p/protobuf/downloads/list1. 添加环境变量/e原创 2013-04-23 16:30:27 · 1886 阅读 · 0 评论 -
Hadoop v2(Yarn)中的快速Crc32
测试源码:下面的代码是从Hadoop 2.0.3中PureJavaCrc32C.java中取出来的:A pure-java implementation of the CRC32 checksum that usesthe CRC32-C polynomial, the same polynomial used by iSCSIand implemented on many Int原创 2013-05-13 11:07:00 · 2261 阅读 · 0 评论 -
Kerberos(1.9)Apache Hadoop(1.0.4)配置
主机: mcw-cc-nachuang节点: mcw-cc-node用户名都为 nachuang环境:ubuntu 12.04, jdk 1.7注:确定 Hadoop 1.0.4 集群可以正常使用,然后stop-all。安装配置 Kerberos 1.9下载网址: http://web.mit.edu/kerberos/tar -xvf krb5-1.9.signed.原创 2013-03-25 11:07:43 · 4068 阅读 · 0 评论 -
Hive 基础命令和 TPC-H Benchmark
Hive命令1)创建表: create table tablename; 默认的分割符是 创建以\t为分割符的表: e.g. create table tablename(id int, name string) row format delimited fields terminated by '\t'2)插入: load data [local] in原创 2013-03-05 11:24:50 · 3244 阅读 · 0 评论