Hive

Hive笔记

–hive本质
将 SQL 语句转换为 MapReduce 任务运行

–hive组件
1).用户接口
CLI:shell命令行
JDBC/ODBC:Java的API接口
webGUI:web访问hive

2). MetaStore元数据存储
存储在关系型数据库如MySQL,Derby中。元数据主要包括表名,列,分区,属性,数据目录等

3).Driver组件
compiler(编译器):将HiveQL转化为抽象语法树再转为查询块然后转为逻辑查询计划再转为物理查询计划最终选择最佳决策的过程
optimizer(优化器)
executor(执行器)

–hive原理
在这里插入图片描述
大致流程:
1.用户提交查询等任务给Driver
2.compiler获得该任务plan
3.compiler根据用户任务去meta store获取所需的hive元数据信息
4.compiler得到元数据信息,对任务进行编译,先将hql转换为抽象语法树,然后抽象语法树转换成查询块,将查询块转化为逻辑的查询计划,重写逻辑查询计划,将逻辑计划转化为物理计划(mapreduce),最后选择最佳策略
5.将最终计划提交给Driver
6.Dirver将计划转交给ExecutionEngine去执行,获取元数据信息,提交给JobTracker或者SourceManager执行该任务,任务会直接读取HDFS中文件进行相应的操作
7.获取执行结果
8.取得并返回执行结果

–查看hive版本
hive version

–hive命令
hive #进入hive控制台

–查看数据库
show databases;

–使用数据库
use default #默认default数据库

–查看数据库下表
show tables;

–创建表(内部表)
create table test(
id string comment ‘ID’,
name string comment ‘姓名’,
age string comment ‘年龄’,
date string comment ‘日期’
)
comment ‘测试表’
partitioned by(dt string comment ‘日期’)
row format delimited
fields terminated by ‘,’ --列分割:默认逗号
lines terminated by ‘\n’ --行分割:默认换行符
stored as textfile
;

–查看建表语句
show create table test;

–查看表信息
desc test;

–修改注释
alter table test change column id id string comment ‘’;

–删除表
drop table test; #数据一并删除

–导入数据(本地/HDFS)
load data [local] inpath ‘url’ [overwrite] into table test; --local:导入本地数据; overwrite:重写该表

–sqoop从关系型数据库导出数据到hive

–导出数据(本地/HDFS)
insert overwrite (local) directory ‘路径’ row format delimited fields terminated by ‘分隔符’ select * from table;

–sqoop从hive导出数据到关系型数据库

–查看HDFS上hive路径
hdfs dfs -ls /user/hive/warehouse/

–查看HDFS上hive文件前10行,后10行
hdfs dfs -cat /user/hive/warehouse/default/test/000_0 | head -10
hdfs dfs -cat /user/hive/warehouse/default/test/000_0 | tail -10

–跳过行首尾若干行(建表语句最后)
tblproperties(“skip.header.line.count”=“n”, “skip.footer.line.count”=“n”)

–设置hive执行引擎(当前会话)
set hive.execution.engine=spark #spark计算引擎
set hive.execution.engine=mr #默认mr引擎

–hive优化
set hive.exec.parallel #控制一个SQL中多个可并行执行job,默认false
set hive.exec.dynamic.partition # 是否动态分区,在0.9.0及以后默认为true,当分区不存在时可自动创建

– hive UDF
1.打包
maven->package

2.添加jar到hive
hive>add jar jar_path;

3.创建UDF函数
hive>create temporary function function_name as ‘function_path’;

4.查看函数
hive>show functions;

内容概要:本文系统介绍了算术优化算法(AOA)的基本原理、核心思想及Python实现方法,并通过图像分割的实际案例展示了其应用价值。AOA是一种基于种群的元启发式算法,其核心思想来源于四则运算,利用乘除运算进行全局勘探,加减运算进行局部开发,通过数学优化器加速函数(MOA)数学优化概率(MOP)动态控制搜索过程,在全局探索与局部开发之间实现平衡。文章详细解析了算法的初始化、勘探与开发阶段的更新策略,并提供了完整的Python代码实现,结合Rastrigin函数进行测试验证。进一步地,以Flask框架搭建前后端分离系统,将AOA应用于图像分割任务,展示了其在实际工程中的可行性与高效性。最后,通过收敛速度、寻优精度等指标评估算法性能,并提出自适应参数调整、模型优化并行计算等改进策略。; 适合人群:具备一定Python编程基础优化算法基础知识的高校学生、科研人员及工程技术人员,尤其适合从事人工智能、图像处理、智能优化等领域的从业者;; 使用场景及目标:①理解元启发式算法的设计思想与实现机制;②掌握AOA在函数优化、图像分割等实际问题中的建模与求解方法;③学习如何将优化算法集成到Web系统中实现工程化应用;④为算法性能评估与改进提供实践参考; 阅读建议:建议读者结合代码逐行调试,深入理解算法流程中MOA与MOP的作用机制,尝试在不同测试函数上运行算法以观察性能差异,并可进一步扩展图像分割模块,引入更复杂的预处理或后处理技术以提升分割效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值