将hdfs数据写入hive

本文详细介绍了如何将HDFS中的数据导入到Hive中。首先,需要在Hive中创建与HDFS数据格式一致的新表,确保列名和数据格式匹配。然后,通过指定HDFS数据路径,使用load data inpath命令将数据加载到Hive表中。
部署运行你感兴趣的模型镜像

下面来唠唠怎么将hdfs里的数据写入到hive里。

要将数据写入hive里,那么hive里得有存放数据表得位置,因此,

第一步,是在hive里创建新的表来存储来自hdfs的数据,这里有两个注意:1、新建的表应该跟hdfs里面数据表一致,指定列名;2、创建表格式应一致,具体就是指row format delimited fields terminated by ','里by后面应与hdfs数据保持一致。创建表代码如下:

hive -e" CREATE TABLE IF NOT EXISTS table (user_id STRING,brand_id STRING,score STRING) row format delimited fields terminated by ',' "

第二步,将hdfs数据写入准备好的hive表里。要写数据首先得知道数据存放的路径,记下数据存放路径 ,使用 hive -e " load data inpath '文件路径' into table 对应库表名"将数据写入hive。

好啦,成功啦。

扫描下方二维码关注领取程序员必备千套ppt模板,300本精选好书,丰富面经:

有酒有风


 

 

 

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

使用Flink SQL将数据写入Hive可参考以下相关方法: - **环境准备**:需要准备好对应的环境,如hadoop(3.1.1.3.1.4 - 315)、hive(3.1.0.3.1.4 - 315)、flink(1.12.1)等环境 [^1]。 - **配置hive-site.xml**:在hive - site.xml中添加配置,指定hive数据存储的地址,示例配置如下: ```xml <property> <name>hive.metastore.uris</name> <value>thrift://hadoop01:9083</value> </property> ``` 该配置可让Flink SQL与Hive数据服务进行通信 [^4]。 - **创建Hive表**:如果要输出的Hive表没有创建,执行任务后会自动创建。例如创建`useroplog`表的示例语句如下: ```sql CREATE TABLE `useroplog`( `id` string, `name` string, `age` int ) PARTITIONED BY ( `day` string ) ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe' STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat' OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat' LOCATION 'hdfs://dss0:8020/user/hive/warehouse/test.db/useroplog' TBLPROPERTIES ( 'auto - compaction'='true', 'bucketing_version'='2', 'format'='parquet', 'parquet.compression'='GZIP', 'sink.partition - commit.delay'='1min', 'sink.partition - commit.policy.kind'='success - file', 'transient_lastDdlTime'='1665629249' ); ``` 此表定义了表结构、分区方式、存储格式、存储位置以及一些表属性 [^3]。 - **数据写入**:以将Kafka数据写入Hive为例,场景是通过Flink SQL的方式将Kafka的数据实时写入Hive中 [^1]。若要实现从Hive到MySQL的数据传输,可在sql - client(Flink自带的sql执行器)中模拟大数据平台的sql编辑器执行Flink SQL,不过这与直接将数据写入Hive的操作有所不同,但也体现了Flink SQL在数据处理和传输方面的使用方式 [^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值