--分区表
#!/bin/bash
#mysql表名
tableName=t_sys_file
#字段名
columns=id,biz_field_name,biz_id,biz_table_name,bucket_name,content_type,created_date,disp_order_no,download_times,file_key,file_size,filename
#hive-database
hive_datebase=ods
#hive-table
hive_table=s01_t_sys_file
#partition
hive_partition_key=etl_time
#etl_time=`date "+%Y-%m-%d %H:%M:%S"`
etl_time=`date "+%Y%m%d"`
#m个数
parallel_count=16
for i in {1..1}
do
#redo rmr hdfs
hadoop fs -rmr /user/hdfs/${hive_table}
hadoop fs -rmr /user/hdfs/${tableName}
cfg=`grep -v '^#' /home/gamaxwin/mo9_azkaban/database_set.cfg | grep -i "jianghujiuji_riskdb"`
uid=`echo $cfg|awk -F, '{print $2}'`
url=`echo $cfg|awk -F, '{print $3}'`
<
本文提供了一个使用sqoop从MySQL导入数据到Hive分区表的示例脚本。脚本中定义了表名、字段、Hive数据库、Hive表名、分区键,并使用当前日期作为分区值,通过并行处理提高导入效率。
最低0.47元/天 解锁文章
373

被折叠的 条评论
为什么被折叠?



