Hadoop平台搭建--06hive搭建

本文详细介绍了在Linux环境下安装和配置Hive的过程,包括上传并解压安装包、配置环境变量、设置HDFS目录、修改hive-site.xml文件以连接MySQL作为元数据存储,以及配置HiveServer2和Beeline客户端。

安装MySQL
https://blog.youkuaiyun.com/qq_38821502/article/details/90053717
安装HIVE

  1. 切换到/usr/local/目录下
    cd /usr/local/

  2. 上传hive安装包
    在这里插入图片描述
    在这里插入图片描述

  3. 解压hive tar -zxvf apache-hive-2.3.4-bin.tar.gz
    在这里插入图片描述
    在这里插入图片描述

  4. 修改目录名 mv apache-hive-2.3.4-bin hive
    在这里插入图片描述

  5. 删除hive安装包 rm -r apache-hive-2.3.4-bin.tar.gz
    在这里插入图片描述

  6. 配置环境变量 vi /etc/profile/
    在这里插入图片描述

  7. 让环境变量生效 source /etc/profile

  8. cd conf 切换到conf目录下
    在这里插入图片描述

  9. 修改 hive-env.sh.template 名称为hive-site.sh
    cp hive-env.sh.template hive-env.sh
    在这里插入图片描述

  10. 配置hive-env.sh 文件 vi hive-env.sh
    配置HADOOP_HOME、HIVE_CONF_DIR、HIVE_AUX_JARS_PATH路径
    在这里插入图片描述

  11. 创建两个hdfs目录
    hadoop fs -mkdir /tmp
    hadoop fs -mkdir -p /user/hive/warehouse
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  12. cp hive-default.xml.template hive-site.xml (以下配置极为重要配置错误可能会出现各种错误)

<property>
    <name>javax.jdo.option.ConnectionURL</name>
	<value>jdbc:mysql://master:3306/metastore?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=utf-8</value>
	<description>JDBC connect string for a JDBC metastore</description>
</property>  
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
</property>
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>tsk007</value>
    <description>password to use against metastore database</description>
</property>
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>Username to use against metastore database</description>
</property>
<property>
    <name>hive.exec.local.scratchdir</name>
    <value>/usr/local/hive/tmp//${user.name}</value>
    <description>Local scratch space for Hive jobs</description>
</property>
<property>
    <name>hive.downloaded.resources.dir</name>
    <value>/usr/local/hive/tmp//${hive.session.id}_resources</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
    <name>hive.server2.logging.operation.log.location</name>
    <value>/usr/local/hive/tmp//root/operation_logs</value>
    <description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/usr/local/hive/tmp//root</value>
    <description>Location of Hive run time structured log file</description>
</property>
<property>
    <name>datanucleus.schema.autoCreateAll</name>
    <value>true</value>
    <description>Auto creates necessary schema on a startup if one doesn't exist. Set this to false, after creating it once.To enable auto create also set hive.metastore.schema.verification=false. Auto creation is not recommended for production use cases, run schematool command instead.</description>
</property>
<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
    <description>
      Enforce metastore schema version consistency.
      True: Verify that version information stored in is compatible with one from Hive jars.  Also disable automatic
            schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
            proper metastore schema migration. (Default)
      False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
	</description>
</property>

  1. 上传mysql-connector-java-5.1.47.tar.gz,然后解压
    tar -zxvf mysql-connector-java-5.1.47.tar.gz
  2. 切换到该压缩包目录下
    将jar包拷贝到hive安装目录的lib目录下
    cp mysql-connector-java-5.1.47-bin.jar /usr/local/hive/lib/
    在这里插入图片描述
  3. schematool -dbType mysql -initSchema 初始化源数据库
  4. hive 运行hive即可
    在这里插入图片描述

hiveserver2

在hive的hive-site.xml中添加如下内容

 <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>192.168.164.100</value>
    <description>Bind host on which to run the HiveServer2 Thrift service.</description>
  </property>

在hadoop的core-site.xml中添加如下内容,然后重启hadoop

hadoop.proxyuser.root.hosts



hadoop.proxyuser.root.groups

hiveserver2 启动
在这里插入图片描述
beeline
在这里插入图片描述
在这里插入图片描述

上一篇:Hadoop平台搭建–05分布式搭建
下一篇:Hadoop平台搭建–07zookeeper搭建

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TriumPhSK

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值