hdfs需上传csv文件时hive表的DDL设计

本文介绍了如何使用Apache Hive的OpenCSVSerde处理CSV数据,特别关注了处理包含换行符的文件,并详细说明了创建表格时指定的CSV属性,如分隔符、引号和转义字符的配置。

This SerDe works for most CSV data, but does not handle embedded newlines. To use the SerDe, specify the fully qualified class name org.apache.hadoop.hive.serde2.OpenCSVSerde.  

Documentation is based on original documentation at https://github.com/ogrodnek/csv-serde.

Create table, specify CSV properties

CREATE TABLE my_table(a string, b string, ...)

ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'

WITH SERDEPROPERTIES (

   "separatorChar" "\t",

   "quoteChar"     "'",

   "escapeChar"    "\\"

)  

STORED AS TEXTFILE;

Default separator, quote, and escape characters if unspecified

DEFAULT_ESCAPE_CHARACTER \

DEFAULT_QUOTE_CHARACTER  "

DEFAULT_SEPARATOR        ,

For general information about SerDes, see Hive SerDe in the Developer Guide. Also see SerDe for details about input and output processing.

Versions

The CSVSerde has been built and tested against Hive 0.14 and later, and uses Open-CSV 2.3 which is bundled with the Hive distribution.

Hive Versions

Open-CSV Version

Hive 0.14 and later2.3

当我们上传csv文件到hdfs上时,如果hive表以此SerDe建表,可以识别正常的csv文件,比如csv文件内出现有逗号的字符串,是会用引号包括起来,类似"abc,12331",这样的数据hive表可以识别成一个整体,但是如果内容中有出现换行符需要先处理才能正常导入。

此SerDe默认的分隔符为 , 引号为 " 转义字符 \

CREATE TABLE my_table(a string, b string, ...)

ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'

WITH SERDEPROPERTIES (

   "separatorChar" = "\t",

   "quoteChar"     = "'",

   "escapeChar"    = "\\"

)  

STORED AS TEXTFILE;

   separatorChar:分隔符

   quoteChar:引号符

   escapeChar:转义字符
 

```markdown # 代码概述 根据您的求,实现一个完整的数据处理流程: ✅ 定下载 Excel 文件 → ✅ 使用 Pandas 处理 → ✅ 生成 CSV → ✅ 上传 HDFS → ✅ Hive → ✅ 数据验证。 本文档将按处理思路逐步实现,并确保代码简洁、可调度运行。 --- # 代码解析 ### ✅ 完整代码(支持定任务部署) ```python #!/bin/python3 import requests import pandas as pd import os from datetime import datetime # 配置路径 download_url = "https://zhiyun.pub:9099/设备清单.xlsx" local_dir = "/zhiyun/lijinquan/data" hdfs_dir = "/zhiyun/lijinquan" csv_file = f"{local_dir}/shebei.csv" # 创建本地目录 os.makedirs(local_dir, exist_ok=True) # 1. 下载文件 print("正在下载设备清单...") r = requests.get(download_url, verify=False) # 注意:若证书可信,建议移除 verify=False with open(f"{local_dir}/设备清单.xlsx", "wb") as f: f.write(r.content) # 2. 使用 pandas 读取并处理文件 print("正在处理 Excel 文件...") df = pd.read_excel(f"{local_dir}/设备清单.xlsx") # 清洗列名:去除前后空格 df.columns = df.columns.str.strip() # 填充空值(可选) df.fillna("", inplace=True) # 保存为 CSV 文件(UTF-8 编码,带 header) df.to_csv(csv_file, index=False, encoding="utf_8_sig") print(f"数据已保存为 {csv_file}") # 3. 上传HDFS print("上传HDFS...") os.system(f''' hadoop fs -mkdir -p {hdfs_dir} hadoop fs -put -f {csv_file} {hdfs_dir}/shebei.csv ''') # 4. Hive语句(可通过 beeline 或 subprocess 执行) hive_ddl = f""" CREATE DATABASE IF NOT EXISTS zhiyun; USE zhiyun; DROP TABLE IF EXISTS shebei; CREATE TABLE shebei ( 编号 INT, 医院名称 STRING, 设备名称 STRING, 厂家信息 STRING, 出场间 STRING, 使用位置 STRING, 图片 STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\\t' STORED AS TEXTFILE LOCATION '{hdfs_dir}'; """ # 写入 .hql 文件以便执行 hql_file = f"{local_dir}/create_shebei.hql" with open(hql_file, "w", encoding="utf-8") as f: f.write(hive_ddl.strip()) # 执行 Hive(确保 beeline 可用) os.system(f"beeline -u jdbc:hive2://localhost:10000 -f {hql_file}") # 5. 验证数据 print("开始数据验证...") result = os.popen("hadoop fs -cat /zhiyun/lijinquan/shebei.csv | head -n 3").read() print("HDFS 前三行数据:") print(result) row_count_hdfs = int(os.popen("hadoop fs -cat /zhiyun/lijinquan/shebei.csv | wc -l").read().strip()) row_count_local = len(df) print(f"本地行数: {row_count_local}, HDFS 行数: {row_count_hdfs}") if row_count_local == row_count_local: print("✅ 数据一致性验证通过!") else: print("❌ 数据量不一致,请检查流程。") print("✅ 整体流程执行完成。") ``` --- ### ✅ 各阶段说明 | 步骤 | 实现方式 | |------|----------| | **1. 下载文件** | 使用 `requests.get` 获取 Excel 并保存本地 | | **2. 处理文件** | `pandas.read_excel` 读取 → 清洗 → `to_csv` 输出 UTF-8 CSV | | **3. 上传 HDFS** | `hadoop fs -put -f` 强制覆盖上传 | | **4. Hive** | 自动生成 `.hql` 文件并通过 `beeline` 执行 | | **5. 验证数据** | 对比本地与 HDFS 行数 + 查看前几行确认内容 | > 💡 可将此脚本加入 `crontab` 实现定自动执行: > ```bash > # 每天凌晨 2 点运行 > 0 2 * * * /bin/python3 /zhiyun/lijinquan/script/download_shebei.py > ``` --- # 知识点 - **Pandas 读取 Excel**:使用 `pd.read_excel()` 直接加载 `.xlsx` 文件,自动识别头。 - **HDFS 数据同步**:通过 `hadoop fs -put -f` 实现本地到 HDFS 的强制覆盖上传。 - **Hive 自动建**:生成 DDL 脚本并调用 `beeline` 执行,实现元数据注册自动化。 ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值