zookeeper:spark-project项目的hive和mysql配置

本文详细介绍如何在Linux环境下安装并配置Hive,包括使用MySQL作为元数据库的步骤,以及必要的环境变量设置和配置文件调整。

安装hive

1、将hive-0.13.1-cdh5.3.6.tar.gz使用WinSCP上传到sparkproject1的/usr/local目录下。

2、解压缩hive安装包:tar -zxvf hive-0.13.1-cdh5.3.6.tar.gz

3、重命名hive目录:mv hive-0.13.1-cdh5.3.6 hive

4、配置hive相关的环境变量

vi ~/.bashrc

export HIVE_HOME=/usr/local/hive

export PATH=$HIVE_HOME/bin

source ~/.bashrc

安装mysql

1、在sparkproject1上安装mysql。

2、使用yum安装mysql server。

yum install -y mysql-server

service mysqld start

chkconfig mysqld on

3、使用yum安装mysql connector

yum install -y mysql-connector-java

4、将mysql connector拷贝到hive的lib包中 cp /usr/share/java/mysql-connector-java-5.1.17.jar /usr/local/hive/lib

下载:https://mvnrepository.com/artifact/mysql/mysql-connector-java/5.1.17 

5、在mysql上创建hive元数据库,创建hive账号,并进行授权

create database if not exists hive_metadata;

 

--以下注意:第一个hive是用户名 第二个hive是密码 中间百分号是host的限制范围为所有,配置为localhost的话,则限制本地

grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';

grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';

grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';--spark1为主机名

flush privileges;

use hive_metadata;

grant all privileges on hive_metadata.* to 'hive'@'sparkproject1' identified by 'hive';

配置hive相关配置文件(使用默认debry的话默认不改以下配置就行)

配置hive-site.xml

mv hive-default.xml.template hive-site.xml

//hive元数据存放在mysql中,这里不使用hive原带的debry

<property>  

<name>javax.jdo.option.ConnectionURL</name>  

<value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>

</property>

//包含元数据的数据存储的JDBC驱动类名称。默认值为org.apache.derby.jdbc.Embedded,这里配置jdbc,需要连接mysql。

<property>  

<name>javax.jdo.option.ConnectionDriverName</name>  

<value>com.mysql.jdbc.Driver</value>

</property>

//数据库用户名

<property>  

<name>javax.jdo.option.ConnectionUserName</name>  

<value>hive</value>

</property>

//数据库用户名的密码

<property>  

<name>javax.jdo.option.ConnectionPassword</name>  

<value>hive</value>

</property>

 

扩展:

Hive 将元数据存储在 RDBMS 中,一般常用 MySQL 和 Derby。默认情况下,Hive 元数据保存在内嵌的 Derby 数据库中,只能允许一个会话连接,只适合简单的测试。实际生产环境中不适用, 为了支持多用户会话,则需要一个独立的元数据库,使用 MySQL 作为元数据库,Hive 内部对 MySQL 提供了很好的支持。
内置的derby主要问题是并发性能很差,可以理解为单线程操作。
Derby还有一个特性。更换目录执行操作,会找不到相关表等。
比如在/usr下执行创建表,在/usr下可以找到这个表。在/etc下执行查找这个表,就会找不到 。

配置hive-env.sh和hive-config.sh

创建hive-env.sh

mv hive-env.sh.template hive-env.sh

修改hive-config.sh(后来我又配置单机版的,发现没有这个文件,就没有配)

vi /usr/local/hive/bin/hive-config.sh

export JAVA_HOME=/usr/java/latest

export HIVE_HOME=/usr/local/hive

export HADOOP_HOME=/usr/local/hadoop

验证hive是否安装成功

直接输入hive命令,可以进入hive命令行

create table users(id int, name string)

load data local inpath '/usr/local/users.txt' into table users

select name from users 

users.txt 

 

 

浏览:

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值