Hive 2.1.0安装
环境
Hadoop2.6.4 jdk1.7
安装Hive
修改hadoop 配置文件 etc/hadoop/core-site.xml,加入如下配置项
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>*</value>
</property>
1.上传到/home/Hadoop/software, 解压安装Hive:
tar -xzvf apache-hive-2.1.0-bin.tar.gz ##解压
ln -s apache-hive-2.1.0-bin hive ##创建软链接
2.设置 Hive环境变量。编辑 .bash_profile 文件, 在其中添加以下内容:
#cd
vi .bashrc
export HIVE_HOME=/home/hadoop/software/hive
export PATH=$PATH:$HIVE_HOME/bin
使环境变量生效:
. .bashrc
scp .bashrc slave1:~/
在slave1 . .bashrc
scp .bashrc slave2:~/
在slave2 . .bashrc
配置Hive
配置文件重命名。在运行 Hive 之前需要使用以下命令修改配置文件:
cd /home/hadoop/software/hive/conf
cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
修改hive-env.sh
底部添加
export JAVA_HOME=/usr/java/jdk1.7.0_67/
export HADOOP_HOME=/home/hadoop/software/hadoop-2.6.4
export HIVE_HOME=/home/hadoop/software/hive
export HIVE_CONF_DIR=/home/hadoop/software/hive/conf
修改hive-site.xml。
/关键字 #查找
输入name的值,修改value的值
<property>
<name>hive.exec.scratchdir</name>
<value>/home/hadoop/software/hive/iotmpdir</value>
<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description