
Hive
文章平均质量分 85
cfy_yinwenhao
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
HIVE与GB2312字符集
HIVE 的Driver类在处理字符串时,是按照UTF-8来处理,但是HIVE的JDBC确没有强制按照UTF-8来处理,所以会发生中文字符无论是UTF8还是GB2312都会在JDBC查询时,都不能正确输出。 在Linux下Java的FileWriter默认是UTF8来写文件的,所以通过HIVE导入到HADOOP后,也是UTF-8的格式,如果依照之前(http://blog.youkuaiyun.com原创 2011-11-17 14:57:02 · 2353 阅读 · 0 评论 -
java 通过jdbc驱动连接hive操作实例
1,hive首先要起动远程服务接口,命令: # ./hive --service hiveserver >/dev/null 2>/dev/null & 默认开发10000端口 在个别机器上,运行 ./hive --service hiveserver 会启动卡住。 2.java工程中导入相应的需求jar包,列表如下: antlr-runtime-3转载 2011-11-13 11:46:05 · 1784 阅读 · 0 评论 -
Hive Partitioned & Index
hive特性: 数据存储在hdfs上,依托hadoop集群实现并行计算,采用hiveQL作为查询语言,与SQL极其相似,Hive中存储的数据无固定格式要求,可随用户自定义可追加数据,但不支持更改,可扩展性强,支持大规模并行计算。 Create table xxxData(VStart string,VEnd string......) partitioned by (PID int,转载 2011-11-12 16:02:25 · 1161 阅读 · 0 评论 -
HIVE Service自动启动
1. 将hive 的metastore用mysql连接储存 2 在/etc/init.d/文件夹中编辑文件hive-thrift #!/bin/bash # init script for Hive Thrift Interface. # # chkconfig: 2345 90 10 # description: Hive Thrift Interface # Sour转载 2011-12-11 20:31:50 · 2013 阅读 · 0 评论 -
HIVE 结构
HIVE 主要分为以下几个部分: 用户接口,包括 CLI,Client,WUI。 元数据存储,通常是存储在关系数据库如 mysql, derby 中。 解释器、编译器、优化器、执行器。 Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算。 用户接口主要有三个:CLI,Client 和 WUI。其中最常用的是 CLI,Cli 启动的时候转载 2012-01-11 14:10:19 · 489 阅读 · 0 评论