Hive-2.1.0 安装(详细图文)

本文档详细介绍如何在已配置成功的Hadoop集群上的CentOS 6.5系统中安装Hive-2.1.0。包括解压安装包、设置环境变量、配置MySQL作为metastore、调整HDFS目录权限、拷贝MySQL驱动、修改配置文件以及初始化metastore schema。最后通过Hive命令行和Beeline客户端进行测试连接。

说明:在CentOS 6.5上安装 hive-2.1.0,前提是hadoop集群已经配置成功。

Step 1: 解压 apache-hive-2.1.0-bin.tar.gz

通过我们之前的任何一种方法把安装包上传到 master 节点上,这里我是上传到了”/usr/hadoop”
这里写图片描述
解压:
这里写图片描述

Step 2: 添加到环境变量

编辑”/etc/profile”文件:
这里写图片描述

添加以下内容:
这里写图片描述
并使其生效:
这里写图片描述

Step 3: 安装mysql作为hive的metastore
这一步可以参照我之前的一篇文档,所以此处省略掉了。

默认情况下mysql是不可以远程访问的,我们可以通过以下方式开启远程访问的权限:

mysql> GRANT ALL PRIVILEGES 
apache-atlas-2.1.0-hive-hook.tar.gz是Apache Atlas项目中的一个软件包。Apache Atlas是一个开源的数据治理和元数据框架,用于收集、集成、索引和搜索数据资产。它提供了一个统一的视图来管理企业中的所有数据资产,包括表、列、模式、实体和关系等。而apache-atlas-2.1.0-hive-hook.tar.gz是Atlas项目为了与Hive集成而提供的一个插件。 Hive是一个构建在Hadoop之上的数据仓库基础设施工具,用于处理大规模的结构化数据。它提供了类似于SQL的查询和分析功能,可以将数据批量导入、导出和查询。通过与Apache Atlas的集成,可以实现对Hive中数据资产的元数据管理和治理。 在实际的应用中,apache-atlas-2.1.0-hive-hook.tar.gz可以被部署到Hive的服务器上,并与Hive的插件机制进行集成。通过配置Hive的元数据存储URL、用户名和密码等信息,Atlas可以自动从Hive中提取元数据,并将其索引到Atlas的元数据仓库中。这样,用户可以在Atlas的界面中浏览和搜索Hive中的表、列和关系,并进行数据资产的管理和治理。 此外,apache-atlas-2.1.0-hive-hook.tar.gz还提供了一些其他功能,如基于分类标签的权限控制、数据血缘追踪、数据脱敏等。通过这些功能,用户可以更好地理解和管理Hive中的数据资产,提高数据治理的效率和质量。 总之,apache-atlas-2.1.0-hive-hook.tar.gz是Apache Atlas项目中用于与Hive集成的插件,通过它可以实现对Hive中数据资产的元数据管理和数据治理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值