虚拟机下安装hive

部署运行你感兴趣的模型镜像

1.前置安装hadoop 以及 zookeeper(这里安装了hadoop2.6.0及zookeeper3.4.6)
2.安装mysql数据库
3.需要压缩包hive-1.1.0-cdh5.14.2.tar.gz以及mysql-connector-java-5.1.32

拷贝mysql驱动到hive/lib下

cp mysql-connector-java-5.1.32 /opt/software/hadoop/hive110/lib 

解压缩,重命名,授权

tar -zxvf hive-1.1.0-cdh5.14.2.tar.gz -C /opt/software/hadoop/
mv  hive-1.1.0-cdh5.14.2.tar hive110
chown -R root:root hive110/

设置配置文件
/opt/software/hadoop/hive110/conf下 vi hive-site.xml(没有,需要自己新建)

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/opt/software/hadoop/hive110/warehouse</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.181.128:3306/hive110?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
<property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
</property>

<property>
<name>hive.server2.authentication</name>
<value>NONE</value>
</property>
<property>
        <name>hive.server2.thrift.client.user</name>
        <value>root</value>
</property>
<property>
<name>hive.server2.thrift.client.password</name>
        <value>root</value>
</property>
</configuration>

配置环境变量:vi etc/profile

#HIVE
export HIVE_HOME=/opt/soft/hive110
export PATH=$HIVE_HOME/bin:$PATH

激活source /etc/profile

按顺序启动服务(hadoop–>zookeeper–>hive):
start-all.sh
zkServer.sh start
nohup hive --service metastore>/dev/null 2>&1 &
nohup hive --service hiveserver2>/dev/null 2>&1 &
在这里插入图片描述
[root@single bin]# ./beeline -u jdbc:hive2://single:10000
报错:Error: Failed to open new session: java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=anonymous, access=EXECUTE, inode="/tmp":root:supergroup:drwxrwx–

修改文件夹权限:
hdfs dfs -chmod -R 777 /tmp

再用beeline登录就成功了:
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

### 下载和安装 Apache Hive虚拟机 #### 准备工作 在开始之前,确保已经完成以下准备工作: - 虚拟机已成功启动并运行正常[^1]。 - 已经具备管理员权限或者 `sudo` 权限。 #### 步骤说明 #### 1. 安装必要的工具 为了能够顺利下载和配置 Hive,需要先确认系统中是否存在一些基础工具。如果尚未安装这些工具,则需通过如下命令进行安装: ```bash sudo apt-get update && sudo apt-get install wget vim -y ``` 上述命令会更新软件包索引,并安装 `wget` 和 `vim` 这两个常用工具[^2]。 #### 2. 下载 Hive 压缩包 可以通过官方镜像站点或其他可信资源获取最新版本的 Hive 压缩包。以下是具体操作方法: ```bash cd /usr/local/ sudo wget https://downloads.apache.org/hive/stable/apache-hive-x.y.z-bin.tar.gz ``` 注意:将 `x.y.z` 替换为你希望安装的具体版本号。 接着解压该压缩文件至目标路径: ```bash sudo tar -xzvf apache-hive-x.y.z-bin.tar.gz -C /usr/local/ ``` 最后重命名解压后的目录以便于管理: ```bash sudo mv /usr/local/apache-hive-x.y.z-bin /usr/local/hive ``` 以上步骤完成了 Hive 的初步部署[^4]。 #### 3. 配置环境变量 为了让系统全局识别 Hive 执行程序的位置,编辑 `.bashrc` 或者 `/etc/profile` 文件加入下面的内容: ```bash export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin ``` 使更改立即生效可执行以下指令: ```bash source ~/.bashrc ``` 此时可以尝试输入 `hive --version` 查看是否能正确显示版本信息来验证设置是否有效。 #### 4. 创建必要配置文件 进入 Hive 的 conf 目录创建一个新的 XML 格式的配置文档用于定义数据库连接参数等重要选项: ```bash cd $HIVE_HOME/conf/ cp hive-default.xml.template hive-site.xml vi hive-site.xml ``` 在此处可以根据实际需求调整各项属性值,比如 JDBC URL 地址指向本地 MySQL 实例作为元数据存储服务端点之一[^3]。 #### 总结 至此,在 Linux 系统下的虚拟环境中已完成从零构建起支持大数据分析功能所需的 Hive 组件全过程描述。按照上述指南一步步实施即可顺利完成整个过程。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值