下面的代码将三行数据:
张三,20
李四,22
王五,30
写入HDFS上的/tmp/lxw1234/orcoutput/lxw1234.com.orc文件中。
- package com.lxw1234.test;
- import java.io.DataInput;
- import java.io.DataOutput;
- import java.io.IOException;
- import org.apache.hadoop.fs.FileSystem;
- import org.apache.hadoop.fs.Path;
- import org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat;
- import org.apache.hadoop.hive.ql.io.orc.OrcSerde;
- import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
- import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
- import org.apache.hadoop.io.NullWritable;
- import org.apache.hadoop.io.Writable;
- import org.apache.hadoop.mapred.JobConf;
- import org.apache.hadoop.mapred.OutputFormat;
- import org.a

本文展示了如何使用Java API将数据写入Hive的Orc文件中。通过创建自定义的`MyRow`类,实现了数据的序列化,并使用`OrcOutputFormat`写入HDFS。最后在Hive中创建外部表并验证数据正确性。
最低0.47元/天 解锁文章
1286

被折叠的 条评论
为什么被折叠?



