保姆式 Hadoop之hive数据仓库的搭建与使用

一、准备工作

1、打开VMware Workstation里的Hadoop1、Hadoop2、Hadoop3这三台虚拟机;

2、需要hive的压缩包,apache-hive-3.1.1-bin.tar.gz;

3、需要以下有关MySQL的压缩包,

mysql-community-common-5.7.36-1.el7.x86_64.rpm、

mysql-community-libs-5.7.36-1.el7.x86_64.rpm、

mysql-community-client-5.7.36-1.el7.x86_64.rpm 、

mysql-community-server-5.7.36-1.el7.x86_64.rpm

mysql-connector-java-5.1.46;

4、远程连接工具Xftp8,Xftp-8.0.0057p.exe;

5、保证主机网络通畅。

二、实验步骤

1、环境为Hadoop

如果有搭建HA-Hadoop,那么请回到刚搭建完Hadoop的快照那里。因为HA-Hadoop环境并不稳定,我们并不需要这个环境。

        (以下为例子:)

19d26d25e8cd41f0808eb48e5d90e4b0.jpeg

2、安装Hive

(1)上传hive安装包

        首先打开xftp8,其次将xftp8与Hadoop1相连接,然后将hive的安装包拖动到Hadoop1中。

7c48e425f6354105aa59884bc8af26b7.png

(2)解压hive安装包

解压命令如下:

tar -zxvf /root/apache-hive-3.1.1-bin.tar.gz -C /export/servers/

重命名hive解压后的文件,命令如下:

cd /export/servers/
mv apache-hive-3.1.1-bin hive-3.1.1

(3)同步jar包

将 Hive 中的 guava-19.0.jar 替换为 Hadoop 中的 guava-27.0-jre.jar

A.切换到Hadoop 中的 guava-27.0-jre.jar所在的文件目录

cd /export/servers/hadoop-3.3.1/share/hadoop
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值