spark--环境搭建--3.Hive0.13搭建

本文详细介绍了如何在Spark1环境中安装和配置Hive的过程,包括安装Hive、MySQL,设置环境变量,配置Hive连接MySQL作为元数据存储等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在spark1上操作

1. 安装hive

$ cd /usr/local/

$ tar -zxvf apache-hive-0.13.1-bin.tar.gz

$ mv apache-hive-0.13.1-bin hive

$ cd

$ vi .bashrc

export HIVE_HOME=/usr/local/hive/
export PATH=$PATH:$HIVE_HOME/bin

$ source .bashrc

$ yum install -y mysql-server

2. 安装mysql

$ yum install -y mysql-server

$ service mysqld start

$ chkconfig mysqld on

$ yum install -y mysql-connector-java

$ cp /usr/share/java/mysql-connector-java-5.1.17.jar /usr/local/hive/lib/

$ mysql

create database if not exists hive_metadata;
grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
flush privileges;
use hive_metadata;
exit

$ mv hive-default.xml.template hive-site.xml

# 修改value
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>username to use against metastore database</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>

<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>/user/hive/warehouse</value>
  <description>location of default database for the warehouse</description>
</property>

$ mv hive-env.sh.template hive-env.sh

$ cd ../bin

$ vi hive-config.sh

export JAVA_HOME=/usr/java/latest/
export HIVE_HOME=/usr/local/hive/
export HADOOP_HOME=/usr/local/hadoop

 

转载于:https://www.cnblogs.com/p---k/p/8596809.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值