Windows笔记本上做大数据开发3: 配置环境3: Windows7下配置windows本地配置Hive

本文详细介绍Hive的安装步骤及配置过程,包括环境变量设置、MySQL连接配置、HDFS目录创建、初始化数据导入等关键环节。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.下载hive http://archive.apache.org/dist/hive/
我使用的是hadoop2.7.7,所以选择对应的版本hive2.3
2.设置环境变量HIVE_HOME和Path
3.下载mysql-connector-java-5.1.47
https://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.47.zip
4.将解压出来的jar放入hive 的lib中
5.创建hive目录下\conf\hive-default.xml.template为hive-site.xml

<name>javax.jdo.option.ConnectionURL</name>

修改其value

<value>jdbc:mysql://localhost:3306/hive?characterEncoding=UTF8&amp;useSSL=false&amp;createDatabaseIfNotExist=true</value>
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

6..新建文件夹 HIVEHOME/hive/logs,"system:java.io.tmpdir" H I V E H O M E / h i v e / l o g s , 将 含 有 " s y s t e m : j a v a . i o . t m p d i r " 的 配 置 项 的 值 修 改 为 {HIVE_HOME}/hive/logs

<property>
<name>hive.exec.local.scratchdir</name>
<value>${HIVE_HOME}/logs/HiveJobsLog</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>${HIVE_HOME}/logs/ResourcesLog</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>${HIVE_HOME}/logs/HiveRunLog</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.server2.logging.operation.log.location</name>
<value>${HIVE_HOME}/logs/OpertitionLog</value>
<description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>

7.在hadoop上创建hdfs目录

hadoop fs -mkdir hdfs://localhost:9000/tmp
hadoop fs -mkdir hdfs://localhost:9000/user/hive/warehouse
hadoop fs -chmod g+w hdfs://localhost:9000/tmp
hadoop fs -chmod g+w hdfs://localhost:9000/user/hive/warehouse

hadoop fs -mkdir hdfs://localhost:9000/

8.mysql中创建hive数据库
create database hive;

9.命令行导入hive初始化数据

E:\home\hive\scripts\metastore\upgrade\mysql下的
hive-txn-schema-2.3.0.mysql.sql
hive-schema-2.3.0.mysql.sql

10.运行hive客户端输入hive命令。
(1)启动hadoop:start-all.cmd
(2)启动metastore服务:hive –service metastore
(3)启动Hive:hive
若Hive成功启动,Hive本地模式安装完成。

11、查看mysql数据库
use hive; show tables;

12.在hive下建一张表:CREATE TABLE xp(id INT,name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’;

13.在MySQL中查看:select * from table_name

安装MySQL的过程就不说了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值