#!/bin/bash
#ora数据库参数
url=jdbc:oracle:thin:@17.16.1.1:1521:orcl
uid=ods
pwd=xxxxxx
table_name=S02_ASSET_PACKAGE_T1
#Hive_hdfs
hdfs_url=/apps/hive/warehouse/ods.db/s02_asset_package_t1_f
columns="ID,CODE,TARGET,TYPE,PLAN_AMOUNT,AMOUNT,INVEST_PLAN_ID,RELATIVE_ID,RELATIVE_TYPE,RELATIVE_CODE,RELATIVE_COUNT,MATCH_COUNT,WAIT_RELATIVE_COUNT,INVESTED_RELATIVE_COUNT,INVESTED_AMOUNT,MATCH_AMOUNT,REMAIN_AMOUNT,STATUS,IS_DELETED,CREATED_AT,UPDATED_AT,ETL_DATE"
current_time=`date "+%Y-%m-%d %H:%M:%S"`
hive -e "use ods;
insert overwrite directory '${hdfs_url}'
select ID,CODE,TARGET,TYPE,PLAN_AMOUNT,AMOUNT,INVEST_PLAN_ID,RELATIVE_ID,RELATIVE_TYPE,RELATIVE_CODE,RELATIVE_COUNT,MATCH_CO

该脚本展示了如何从Hive中导出数据并使用sqoop将其批量导入到Oracle数据库中。首先,通过Hive SQL查询将数据写入HDFS,然后使用sqoop export命令更新Oracle表,包括设置数据库连接信息、表名、字段映射以及处理NULL值的方式。
最低0.47元/天 解锁文章
3530

被折叠的 条评论
为什么被折叠?



