【大数据笔记】java jdbc连接hive数据库;java hive连接kerberos

博客介绍了Java连接Hive数据库的相关内容。包括使用JDBC连接普通Hive数据库,涉及pom.xml配置、驱动设置等;还讲述了Java Hive连接Kerberos的方法,如pom.xml配置、准备配置文件,以及提到在Windows环境用winutils.exe调试Hadoop和Spark程序。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、java jdbc连接hive数据库(jdbc连接普通hive数据库)

1、pom.xml配置
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <scope>2.1.1</scope>
        </dependency>

2、驱动

org.apache.hive.jdbc.HiveDriver

3、用传统改的Class.forName,然后DriverManager去拿。

二、java hive连接kerberos

1、pom.xml配置        

<dependency>
   <groupId>org.apache.hive</groupId>
   <artifactId>hive-jdbc</artifactId>
   <scope>2.1.1</scope>
</dependency>

<dependency>
	<groupId>org.apache.hadoop</groupId>
	<artifactId>hadoop-client</artifactId>
	<version>2.7.3</version>
</dependency>

<dependency>
   <groupId>org.apache.hadoop</groupId>
   <artifactId>hadoop-common</artifactId>
   <version>2.7.7</version>
</dependency>

<dependency>
   <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-mapreduce-client-core</artifactId>
    <version>2.7.7</version>
</dependency>

<dependency>
   <groupId>org.apache.hadoop</groupId>
   <artifactId>hadoop-hdfs</artifactId>
   <version>2.7.3</version>
</dependency>

2、准备好配置文件

在使用idea开发,spark程序时,需要在开发环境模拟hadoop环境,不然,每次都要打jar去集群环境执行调试程序,严重影响开发效率。

winutils.exe是在Windows系统上需要的hadoop调试环境工具,里面包含一些在Windows系统下调试hadoop、spark所需要的基本的工具类

下载及配置winutils.exe:使用winutils.exe,在windows开发环境下,调试下调试hadoop、spark程序-优快云博客

3、例子

package org.example;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.security.UserGroupInformation;
import java.io.IOException;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
public class Main {
    private static String url = "jdbc:hive2://cdh-mgm01:10000/default;principal=hive/cdh-mgm01@FEHORIZON.COM";
    private static Connection conn = null;
    private static PreparedStatement ps = null;
    private static ResultSet rs = null;
    public static void main(String[] args) throws SQLException {
        String path ="D:\\work\\Kerberos5\\"
        \\System.out.println(System.getProperty("user.dir") + "/krb5.conf");
        Configuration conf = new Configuration();
        conf.set("hadoop.security.authentication", "Kerberos");
        System.setProperty("krb5_ini", path + "krb5.conf");
        System.setProperty("hive_keytab", path + "\hive.keytab");
        //Windows系统 --- winutils.exe文件位置
        System.setProperty("hadoop.home.dir","p:\\work\\hadoop-3.0.0")
        System.setProperty("java.security.krb5.conf", System.getProperty("krb5_ini"));
        UserGroupInformation.setConfiguration(conf);
        try {
            UserGroupInformation.loginUserFromKeytab("hive/cdh-mgm01@FEHORIZON.COM", System.getProperty("hive_keytab"));
        } catch (IOException e) {
            e.printStackTrace();
        }
        try {
            // 使用hive用户登陆
            conn = DriverManager.getConnection(url, "", "");
        } catch (SQLException e) {
            e.printStackTrace();
        }
        showTables();
    }
    public static void showTables() {
        try {
            // 进入default数据库
            ps = conn.prepareStatement("use default");
            ps.execute();
            // 展示所有表
            rs = ps.executeQuery("show tables");
            // 处理结果集
            while (rs.next()) {
                System.out.println(rs.getString(1));
            }
        } catch (SQLException e) {
            e.printStackTrace();
        }
    }
};

4、成功运行截图

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值