
hadoop
nywsp
这个作者很懒,什么都没留下…
展开
-
hadoop集群配置
Hadoop 1.0.0 集群安装 环境说明 Windows 下安装 VMware Workstation 7,用 VMware 安装 Redhat Enterprise Linux 6.2 虚拟机并克隆,共创建了 3 台虚拟机。 地址和机器名分别为: 192.168.0.100 master.hadoop 192.168.0.101 slave1.hadoop 192.168.0.1原创 2014-01-01 16:34:29 · 855 阅读 · 0 评论 -
java操作hbase
import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.a原创 2014-03-25 21:07:27 · 2791 阅读 · 0 评论 -
hbase命令
.登录hbase客户端 ./bin/hbase shell 新建数据表,并插入3条记录 hbase(main):003:0> create 'test', 'cf' row(s) in 1.2200 seconds hbase(main):003:0> list 'table' test row(s) in 0.0550 seconds hbase(main)原创 2014-03-24 21:14:19 · 4604 阅读 · 0 评论 -
hbase安装
1.修改conf/hbase-env.sh,添加jdk支持 export JAVA_HOME=/usr/local/jdk export HBASE_MANAGES_ZK=true export HBASE_LOG_DIR=/data/logs/hbase2. 修改conf/hbase-site.xml, hbase.rootdir hdfs://master:9000/hba原创 2014-03-24 21:06:32 · 541 阅读 · 0 评论 -
hadoop命令
格式化namenode hadoop namenode -format 查看hadoop进程运行 jps 查看Hadoop集群的状态 hadoop dfsadmin -report 关闭防火墙 service iptables stop 关闭安全模式 hadoop dfsadmin -safemode leave 列出H原创 2014-03-23 10:55:57 · 739 阅读 · 0 评论 -
hive 元数据为mysql安装
安装mysql 并且在hive/lib文件中加入mysql链接驱动 建立数据库hive •create database hive •创建hive用户,并授权 •grant all on hive.* to hive@'%' identified by 'hive'; •flush privileges; 安装Hive原创 2014-03-18 17:29:58 · 1190 阅读 · 0 评论 -
hadoop wordcount
寒假的时候写的,就是忘了保存。。今天找了好久才找出来,好吧。。有用的东西得记得保存。。 import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apa原创 2014-03-09 14:03:14 · 586 阅读 · 0 评论 -
windows下eclipse基于hadoop配置注意项
具体 http://www.cnblogs.com/xia520pi/archive/2012/05/20/2510723.html 出现security.UserGroupInformation: PriviledgedActionException as:wsp cause:java.net.UnknownHostException: unknown host: master Except原创 2014-01-02 17:21:24 · 647 阅读 · 0 评论 -
hadoop dfs下文件的操作
上传,下载文件 Configuration conf=new Configuration(); FileSystem hdfs=FileSystem.get(conf); //本地文件 Path src =new Path("F:\\abc.txt"); //HDFS为止 Path dst =new Path("/原创 2014-01-06 12:45:05 · 2061 阅读 · 0 评论 -
hadoop 权威指南 2、3章读书笔记
第二章 1. Hadoop 将mapreduce 的输入数据划分成等小的数据块,称为输入分片,每个分片对应一个map任务。分片不能太大也不能太小,太大了并行的速率较低,太小了io花费的时间太多,默认是一个hdfs块的大小,也就是64m,因为这样的话就不需要跨节点调度不同的hdfs文件,也可以自己调节。原创 2016-04-07 19:18:55 · 590 阅读 · 0 评论