从spark1.2 到spark1.3,spark SQL中的SchemaRDD变为了DataFrame,DataFrame相对于SchemaRDD有了较大改变,同时提供了更多好用且方便的API。
DataFrame将数据写入hive中时,默认的是hive默认数据库,insertInto没有指定数据库的参数,本文使用了下面方式将数据写入hive表或者hive表的分区中,仅供参考。
1、将DataFrame数据写入到Hive表中
从DataFrame类中可以看到与hive表有关的写入Api有以下几个:
registerTempTable(tableName: String): Unit,
insertInto(tableName:

本文介绍了如何在Spark 1.3.0中将DataFrame数据写入Hive分区表。主要内容包括使用DataFrame的API如`registerTempTable`和`insertInto`,以及如何通过指定数据库和使用`saveAsTable`函数配合Hive的SQL语句将数据写入Hive表和分区。示例中展示了如何创建case类转换RDD数据,然后写入指定数据库的表中。
最低0.47元/天 解锁文章
3579

被折叠的 条评论
为什么被折叠?



