hive安装部署及使用

hive安装部署

前提:hive是java写的,因此需要配置java环境变量;另外保证你的hadoop集群正常起来

	[atguigu@hadoop1 root]$ echo $HADOOP_HOME
	/opt/module/hadoop-2.7.2
	[atguigu@hadoop1 root]$ echo $JAVA_HOME
	/usr/java/jdk1.8.0_131

1.把apache-hive-1.2.1-bin.tar.gz上传到linux的/opt/software目录下
2.解压apache-hive-1.2.1-bin.tar.gz到/opt/module/目录下面

[atguigu@hadoop1 software]$ tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /opt/module/

3.修改apache-hive-1.2.1-bin.tar.gz的名称为hive-1.2.1

 [atguigu@hadoop1 module]$ mv apache-hive-1.2.1-bin/ hive-1.2.1

4.配置HIVE_HOME
修改 /etc/profile文件

export JAVA_HOME=/usr/java/jdk1.8.0_131
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export HIVE_HOME=/opt/module/hive-1.2.1
export HADOOP_PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export PATH=$PATH:${JAVA_PATH}:${HADOOP_PATH}:${HIVE_HOME}/bin

重写加载文件

source /etc/profile

hive简单使用

直接用hive命令进入
(1)启动hive
[atguigu@hadoop1 hive-1.2.1]$ bin/hive

常用命令:

show databases; # 查看某个数据库
use 数据库;      # 进入某个数据库
show tables;    # 展示所有表
desc 表名;            # 显示表结构
show partitions 表名; # 显示表名的分区
show create table_name;   # 显示创建表的结构

建表语句
内部表

use xxdb;
create table xxx;
ex: create table student(id int, name string);
创建一个表,结构与其他一样

create table xxx like xxx;

创建student表, 并声明文件分隔符’\t’

create table student(id int, name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
外部表

use xxdb; 
create external table xxx;

分区表

use xxdb; create external table xxx (l int) partitoned by (d string)

内外部表转化

alter table table_name set TBLPROPROTIES ('EXTERNAL'='TRUE'); # 内部表转外部表
alter table table_name set TBLPROPROTIES ('EXTERNAL'='FALSE');# 外部表转内部表

表结构修改

重命名表

use xxxdb; alter table table_name rename to new_table_name;
增加字段

alter table table_name add columns (newcol1 int comment ‘新增’);

修改字段

alter table table_name change col_name new_col_name new_type;

删除字段(COLUMNS中只放保留的字段)

alter table table_name replace columns (col1 int,col2 string,col3 string);

删除表

use xxxdb;
 drop table table_name;

删除分区
注意:若是外部表,则还需要删除文件(hadoop fs -rm -r -f hdfspath)

 alter table table_name drop if exists partitions (d=‘2016-07-01');

字段类型

 tinyint, smallint, int, bigint, float, decimal, boolean, string

复合数据类型

  struct, array, map

查询

   select * from test;
   ex:insert into student values(1000,"ss");

hive数据的存储

1.Hive要分析的数据是存储在HDFS上
hive中的库的位置,在hdfs上就是一个目录!
hive中的表的位置,在hdfs上也是一个目录,在所在的库目录下创建了一个子目录!
hive中的数据,是存在在表目录中的文件!

  1. 在hive中,存储的数据必须是结构化的数据,而且
    这个数据的格式要和表的属性紧密相关!
    表在创建时,有分隔符属性,这个分隔符属性,代表在执行MR程序时,使用哪个分隔符去分割每行中的字段!

     hive中默认字段的分隔符编辑: ctrl+A, 进入编辑模式,ctrl+V 再ctrl+A
    

    在这里插入图片描述
    查看分割符:cat -T test1
    在这里插入图片描述

  2. hive中的元数据(schema)存储在关系型数据库
    默认存储在derby中!

     derby是使用Java语言编写的一个微型,常用于内嵌在Java中的数据库!
     derby同一个数据库的实例文件不支持多个客户端同时访问!
    
  3. 将hive的元数据的存储设置存储在Mysql中!
    Mysql支持多用户同时访问一个库的信息!

配置hive的元数据存储到MySQL中

  1. 编辑/opt/module/hive-1.2.1/conf/hive-site.xml

    <?xml version="1.0"?>
 <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
 <configuration>
    <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://hadoop1:3306/metastore?createDatabaseIfNotExist=true</value>
      <description>JDBC connect string for a JDBC metastore</description>
    </property>

      <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
      <description>Driver class name for a JDBC metastore</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
      <description>username to use against metastore database</description>
    </property>

    <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>123456</value>
      <description>password to use against metastore database</description>
    </property>
  </configuration>

注意:metastore数据库最好受到创建,字符集选择latin1,否则报错
2.将mysql连接的驱动放入/opt/module/hive-1.2.1/lib下
mysql-connector-java-5.1.27-bin.jar
在这里插入图片描述

[atguigu@hadoop1 lib]$ hive

Logging initialized using configuration in jar:file:/opt/module/hive-1.2.1/lib/hive-common-1.2.1.jar!/hive-   log4j.properties
hive> create table person(name varchar(20),age int);
OK
Time taken: 1.246 seconds
hive> 

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

表的信息都存储在tbls表中,通过db_id和dbs表中的库进行外键约束!
库的信息都存储在dbs表中!
字段信息存在在column_v2表中,通过CD_ID和表的主键进行外键约束!
这个错误是由于无法连接到本地主机的10248端口导致的。这个端口通常是kubelet进程监听的端口,用于健康检查。出现这个错误可能是由于kubelet进程没有正确启动或者配置错误导致的。 解决这个问题的方法是检查kubelet进程的状态和配置。你可以按照以下步骤进行操作: 1. 检查kubelet进程是否正在运行。你可以使用以下命令检查kubelet进程的状态: ```shell systemctl status kubelet ``` 如果kubelet进程没有运行,你可以使用以下命令启动它: ```shell systemctl start kubelet ``` 2. 检查kubelet的配置文件。你可以使用以下命令查看kubelet的配置文件路径: ```shell kubelet --kubeconfig /etc/kubernetes/kubelet.conf --config /var/lib/kubelet/config.yaml --bootstrap-kubeconfig /etc/kubernetes/bootstrap-kubelet.conf config view ``` 确保配置文件中的端口号和地址正确,并且与你的环境相匹配。 3. 检查网络连接。你可以使用以下命令检查是否可以连接到localhost10248端口: ```shell curl -sSL http://localhost:10248/healthz ``` 如果无法连接,请确保端口没有被防火墙或其他网络配置阻止。 4. 检查docker的配置。有时候,kubelet进程依赖于docker进程。你可以按照以下步骤检查docker的配置: - 创建/etc/docker目录: ```shell sudo mkdir /etc/docker ``` - 编辑/etc/docker/daemon.json文件,并添加以下内容: ```json { "exec-opts": ["native.cgroupdriver=systemd"], "log-driver": "json-file", "log-opts": { "max-size": "100m" }, "storage-driver": "overlay2", "storage-opts": [ "overlay2.override_kernel_check=true" ], "registry-mirrors": ["https://tdhp06eh.mirror.aliyuncs.com"] } ``` - 重启docker进程: ```shell systemctl restart docker ``` 请注意,以上步骤是一种常见的解决方法,但具体解决方法可能因环境而异。如果以上步骤无法解决问题,请提供更多的错误信息和环境配置,以便我们能够更好地帮助你。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值