准备工作
上传、解压、重命名
上传:sudo rz
解压:tar -zxvf 文件名 -C 解压到的目录
重命名 mv 源文件、重命名的名字
创建数据仓库
bin/hdfs dfs -mkdir /tmp
bin/hdfs dfs -mkdir -p /user/hive/warehouse
bin/hdfs dfs -chmod g+w /tmp
bin/hdfs dfs -chmod g+w /user/hive/warehouse
cp hive-env.sh.template hive-env.sh
编辑hive.env.sh
配置
vim /etc/profile
使其生效
source /etc/profile
启动
bin/hive
基本操作
show databases;
use 数据库名字
desc tb_name
desc formatted tb_name
创建表
CREATE TABLE db_hive.tb_word (
id INT,
word STRING
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
LINES TERMINATED BY '\n'
把word.data上传到hadoop上
导入数据
LOAD DATA LOCAL INPATH '/opt/modules/hadoop-2.7.3/data/word.data'
INTO TABLE db_hive.tb_word
SELECT
word,count(word)
FROM
tb_word
GROUP BY
word
以上只能运行一个hive,要想开多个hive,我们需要修改配置,在hive-site.xml中
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://bigdata-hpsk01.huadian.com:3306/metaStore?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
导入jar包