kerberos-04.spark连接kerberos认证的hive

本文展示了如何在Scala中使用Kerberos认证来连接Hive。通过设置系统属性,加载Kerberos配置文件和密钥tab文件,实现安全的身份验证。然后创建SparkSession并执行SQL查询来展示数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 在服务器下载配置文件放在本地项目resources目录下
    在这里插入图片描述
  2. 定义好kerberos认证方法,先进行认证再执行其他代码即可,示例代码如下
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.hadoop.security.UserGroupInformation

object day03 {
  def main(args: Array[String]): Unit = {
    System.setProperty("HADOOP_USER_NAME", "hive")

    kerberosAuth()

    val conf = new SparkConf()

    val ss :SparkSession = SparkSession.builder
      .appName("Spark to Hive")
              .master("local[*]")
//      .master("yarn-cluster")
      .config(conf)
      .config("spark.testing.memory", 512*1024*1024+"")
      .enableHiveSupport()
      .getOrCreate()

    val sql = """select * from test.test0506"""
    val abt_df = ss.sql(sql)
    abt_df.show()
  }

  def kerberosAuth(): Unit = {
    try {
      System.setProperty("java.security.krb5.conf", "D:\\dongwei\\krb5\\krb5.ini")
      //            System.setProperty("java.security.krb5.conf","linux_path");
      System.setProperty("javax.security.auth.useSubjectCredsOnly", "false")
      System.setProperty("sun.security.krb5.debug", "true")
      UserGroupInformation.loginUserFromKeytab("hive/n1.bigdatatest.com@BIGDATATEST.COM", "D:\\dongwei\\krb5\\hive.service.keytab")
      //            UserGroupInformation.loginUserFromKeytab("hive/n1.bigdatatest.com@BIGDATATEST.COM", "linux_path");
    } catch {
      case e: Exception =>
        e.printStackTrace()
    }
  }
}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值