IDEA 中 用spark 1.6.x 实现 不同数据源join (hive join MySQL )

在Windows平台上通过IDEA使用Spark 1.6.x实现Hive与MySQL的数据源join时,需确保IP解析正常,避免Hadoop与Spark的兼容性问题引发的NullPointException异常。解决问题的方法包括修改Hadoop源码并移除HADOOP_USER_NAME配置。遇到Spark临时目录删除失败的IOException,虽不影响业务但会留下日志记录。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hive 服务端配置 

[hadoop@node1 conf]$ pwd
/home/hadoop/app/hive-1.1.0-cdh5.7.0/conf

[hadoop@node1 conf]$ cat hive-site.xml 

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://192.168.137.251:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>

</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value> 
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
</property>


<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>/user/hive/warehouse</value>
</property>


<property>
    <name>hive.cli.print.current.db</name>
    <value>true</value>
  </property>

   <property>
    <name>hive.cli.print.header</name>
    <value>true</value>
   </property>

<property>
<name>hive.server2.thrift.port</name>
   <value>10000</value>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值