“使用Ansible搭建分布式大数据基础环境”系列文章完整包含了如何使用Ansible这一分布式运维利器,来帮我们快速搭建Hadoop2/Spark2/Hive2/ZooKeeper3/Flink1.7/ElasticSearch5等一整套大数据解决方案。本篇是系列文章的第八篇-Hive2安装篇。更多后续文章敬请关注后续文章。
(一)使用Ansible搭建分布式大数据基础环境-环境准备
(二)使用Ansible搭建分布式大数据基础环境-Ansible项目创建
(三)使用Ansible搭建分布式大数据基础环境-编写第一个playbook
(四)使用Ansible搭建分布式大数据基础环境-Ansible常用Module介绍
(五)使用Ansible搭建分布式大数据基础环境-ZooKeeper集群模式搭建
(六)使用Ansible搭建分布式大数据基础环境-Hadoop高可用集群搭建
(七)使用Ansible搭建分布式大数据基础环境-MySQL安装
(八)使用Ansible搭建分布式大数据基础环境-Hive客户端搭建
Hive是围绕Hadoop的数据仓库解决方案,将用户输入的Hive SQL解析之后自动生成MapReduce/Spark任务然后丢给Hadoop/Spark运行,是的使用者无需编写复杂的mapreduce代码,从而极大降低了使用者使用Hadoop/Spark的使用成本。
本篇我们安装的Hive版本是最新的hive-2.3.5
1. 安装Hive cluster配置
Hive原则上客户端安装,没有集群的概念,所有任务都会提交到远程Hadoop/Spark集群运行,这里我们打开前面的production/hosts文件,Hive:
[cluster]
master1
master2
slave1
#以下为mysql单独创建
[mysqlcluster]
master2
#以下为hive单独创建
[mysqlcluster]
master2