
Hadoop
文章平均质量分 75
Francis-Yu
这个作者很懒,什么都没留下…
展开
-
HBase编程api介绍
HBaseConfiguration是每一个hbase client都会使用到的对象,它代表的是HBase配置信息。它有两种构造方式:public HBaseConfiguration()public HBaseConfiguration(final Configuration c)默认的构造方式会尝试从hbase-default.xml和hbase-site.xml中读取转载 2012-02-08 13:26:49 · 5129 阅读 · 0 评论 -
Hadoop常见问题汇总
1.在show view下mapreduce的location中,新建location后,在DFS Location中出现了org.apache.hadoop.security.accesscontrolexception permission denied user= mapred access=write ........ 首先检查你配置DFS Location的时候运行的user原创 2013-03-24 00:54:32 · 2959 阅读 · 1 评论 -
Hadoop Shell命令 |HDFS Shell命令| HDFS 命令
Hadoop Shell命令FS ShellcatchgrpchmodchowncopyFromLocalcopyToLocalcpdudusexpungegetgetmergelslsrmkdirmovefromLocalmvputrmrmrsetrepstattailtesttexttouchzFS Shell调用文件系统(FS)Shell命原创 2013-03-29 22:49:42 · 1125 阅读 · 0 评论 -
Hadoop shell 命令使用
hadoop常用命令: hadoop fs 查看Hadoop HDFS支持的所有命令 hadoop fs –ls 列出目录及文件信息 hadoop fs –lsr 循环列出目录、子目录及文件信息 hadoop fs –put test.txt /user/sunlightcs 将本地文件系统的test.txt复制到HDFS文件系统的/user/sunli原创 2013-03-29 23:14:16 · 1222 阅读 · 0 评论 -
nutch主流程代码阅读心得
原文链接地址 http://www.iteye.com/topic/570440主要类分析:一、org.apache.nutch.crawl.Injector: 1,注入url.txt 2,url标准化 3,拦截url,进行正则校验(regex-urlfilter.txt) 4,对符URL标准的url进行map对构造,在构造过程中给Craw原创 2012-12-04 17:36:42 · 791 阅读 · 0 评论 -
HBase安装
一.在apache官方网上下载stable版本的hbase,最好将下载下来的habse放到hadoop统一目录最好(/usr/local/)(1)编辑{HBASE_HOME}/conf/hbase-env.sh 文件,设置JAVA_HOME和HBASE_CLASSPATH变量 export JAVA_HOME=/usr/lib/jvm/java-6-sun (自己原创 2012-12-02 14:26:33 · 773 阅读 · 0 评论 -
Ubuntu 12.04搭建hadoop单机版环境
在11月初的时候,我们了解了Ubuntu 12.04 搭建 hadoop 集群版环境的方法,今天再来看看在单机版环境中,Ubuntu12.04搭建hadoop是如何实现的。一. 你要安装Ubuntu这一步省略;二. 在Ubuntu下创建hadoop用户组和用户;1. 创建hadoop用户组: sudo addgroup hadoop转载 2012-11-27 23:13:06 · 1468 阅读 · 2 评论 -
Hadoop之MapReduce运行理解
package com.felix;import java.io.IOException;import java.util.Iterator;import java.util.StringTokenizer;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apac原创 2012-04-06 16:18:15 · 1183 阅读 · 0 评论 -
Hadoop之MapReduce任务的优化
1. 任务调度 (1)计算方面:Hadoop总会优先将Task分配给空闲的机器,所有的人物能公平地分享系统资源 (2)I/O方面:Hadoop尽量将map Task分配给Input Split所在的机器,以减少网络I/O的消耗。2.数据预处理与Input Split的大小 (1)提交MapReduce Task前可以先对数据进行一次预处理,将数据合并以提高MapReduc原创 2012-04-06 17:34:42 · 1634 阅读 · 0 评论 -
HBase之Java API
1.Configuration在使用Java API时,Client端需要知道HBase的配置环境,如存储地址,zookeeper等信息。这些信息通过Configuration对象来封装,可通过如下代码构建该对象 Configuration config=HBaseConfiguration.create();在调用HBaseConfiguration转载 2012-02-09 16:23:16 · 942 阅读 · 0 评论 -
Java操作Hbase进行建表、删表以及对数据进行增删改查,条件查询
1、搭建环境 新建JAVA项目,添加的包有: 有关Hadoop的hadoop-core-0.20.204.0.jar 有关Hbase的hbase-0.90.4.jar、hbase-0.90.4-tests.jar以及Hbase资源包中lib目录下的所有jar包 2、主要程序 Java代码 package com.wujintao.hbas转载 2012-02-09 11:34:21 · 1906 阅读 · 0 评论 -
HBase编程实例
HBase提供了java api来对HBase进行一系列的管理涉及到对表的管理、数据的操作等。常用的API操作有: 1、 对表的创建、删除、显示以及修改等,可以用HBaseAdmin,一旦创建了表,那么可以通过HTable的实例来访问表,每次可以往表里增加数据。 2、 插入数据 创建一个Put对象,在这个Put对象里可以指定要给哪个列增加数据,以及当前的时间戳转载 2012-02-08 13:32:02 · 2381 阅读 · 0 评论 -
hbase中创建表、插入数据,更新数据,删除数据
所需要的包有:commons-codec-1.4.jarcommons-logging-1.1.1.jarhadoop-0.20.2-core.jarhbase-0.90.2.jarlog4j-1.2.16.jarzookeeper-3.3.2.jar 背景:假设有一个不知道是干什么表:)表里需要存入人员和其相对应的部转载 2012-02-08 13:28:46 · 20092 阅读 · 0 评论 -
Hadoop
一.Hadoop发展史1.Hadoop是ApacheLucene创始人Doug Cutting创建的,Lucene是一个广泛使用的文本搜索系统库(一个可以运行的网页爬取工具和搜索引擎系统)。Hadoop起源于Apache Nutch,一个开源的网络搜索引擎,它本身也是Lucene项目的一部分。二.Hadoop是开源系统,它实现了MapReduce编程模型。MapReduce编程模型有三原创 2012-02-07 17:58:56 · 957 阅读 · 0 评论 -
HBase基本命令
HBase基本命令下面我们再看看看HBase的一些基本操作命令,我列出了几个常用的HBase Shell命令,如下:名称命令表达式创建表create '表名称', '列名称1','列名称2','列名称N'添加记录 put '表名称', '行名称', '列名称:', '值'查看记录转载 2012-02-08 13:35:34 · 6240 阅读 · 1 评论 -
在Eclipse中运行第一个MapReduce程序
新说明一下我的开发环境: 操作系统:在windows下使用wubi安装了ubuntu 10.10 hadoop版本:hadoop-0.20.2.tar.gz Eclipse版本:eclipse-jee-helios-SR1-linux-gtk.tar.gz 为了学习方便这个例子在“伪分布式模式”Hadoop安装方式下开发。 第一步,我们先启动Hadoop守护进程。原创 2013-07-29 18:25:35 · 1278 阅读 · 0 评论